大学和学院对人工智能的选择具有政治性

在本周的 Digifest 之前,Michael Webb 和 Rebecca Flook 直面通用人工智能技术背后的复杂价值体系

来源:Wonkhe | 高等教育政策、人物与政治

让我们从令人不安的事实开始。生成式人工智能并不是中立的。从来都不是。然而,大部分公众对话仍然将其视为一个简单的高级计算器,一个凌驾于政治之上的聪明工具。它不是。

现在融入教育的系统是由极少数人塑造的。不是“互联网”作为培训材料的来源。影响我们使用这些工具的方式的不是“社会”。它是由少数公司的一小部分领导阶层形成的,在特定的政治和经济压力下运作。这些压力会转化为系统本身:通过选择训练中包含哪些数据、如何调整和微调模型以偏爱某些行为而不是其他行为,以及在部署中如何过滤和调节输出。

如果您使用 ChatGPT,那么您正在使用由 Sam Altman 和 OpenAI 董事会塑造的系统。如果你使用 Gemini,你就会遇到 Google 内部由 Demis Hassabis 和 Sundar Pichai 做出的决策。如果你使用 Claude,它反映了 Dario Amodei 和 Anthropic 所做的选择。如果你尝试 Grok,你就进入了埃隆·马斯克 (Elon Musk) 高度公开的世界观。在中国,阿里巴巴和百度的模式反映了截然不同的政治背景。在欧洲,米斯特拉尔代表着技术主权的尝试。

这不是一个“伟人”的故事,即使许多面孔仍然是男人。更准确地说,这是一个关于领导圈、投资者、董事会、监管机构和政府的故事。但这是人类。决策是在压力下在房间里做出的,关于这些系统应该优化什么、他们应该拒绝回答什么、他们应该反映什么价值观以及什么风险是可以接受的。这些决定很重要。

谁的智慧?

这些差异并不是抽象的。他们塑造产品设计。它们决定了哪些内容需要审核、哪些言论需要优先考虑、如何定义安全性以及如何分配风险。

在教育中发挥作用