人工智能的偏见问题可能在于它的用户

问题不在于人工智能始终向左或向右倾斜。人工智能公司越积极地追求中立,他们就越令不同政治派别的用户失望,他们认为某些问题有明确的答案,超越所有合理的争议。人工智能的偏见问题可能是它的用户的帖子首先出现在美国企业研究所 - AEI 上。

来源:美国进取研究所信息

人工智能聊天机器人被指控犯有许多罪过,但政治偏见可能是最被夸大的。多年来攻击社交媒体的批评者只是将他们的抱怨移植到了一项新技术上。真正的问题是,机器人往往过于平衡,不利于自身利益。

主要人工智能开发商认真对待这一指控。 OpenAI 声称 GPT-5 与早期版本相比,偏差减少了 30%。 Anthropic 表示,它明确训练克劳德“政治不偏不倚”,其最新模型在内部中立性评估方面得分约为 95%。 Gemini 和 Grok 的表现类似。针对那些认为主流模式不够党派的用户,出现了一种根据意识形态量身定制的替代品的家庭手工业。

主要聊天机器人到底有多刻意采取中间路线?向 ChatGPT 5.2、Claude Opus 4.5、Gemini 3 和 Grok 4 询问极高税率的负面影响(正如我所做的那样),你会得到几乎相同的答案:减少工作和投资的激励、资本外逃、避税,以及拉弗曲线逻辑(过高的税率会减少收入)。这些是主流经济观察,而不是意识形态话题。

然而,这些响应就其本身而言是准确的。他们在第一次尝试中错过的是更复杂的东西。我在美国企业研究所的同事在 2012 年进行的一项分析指出,惩罚性的最高税率可以影响数十年的生活选择,悄悄地阻止人们追求医学、工程或创业领域的高要求职业。对活力和创新的长期拖累比短期行为反应更难建模,但值得政策制定者考虑。也许聊天机器人需要更努力地思考——也许他们会把提示变成延长的对话。