详细内容或原文请订阅后点击阅览
AI如何缩小我们的世界观以及监管机构可以对此做什么
作为人工智能(AI)工具(例如Chatgpt)成为我们日常生活的一部分,从提供一般信息到帮助家庭作业,一位法律专家正在提出一个危险信号:这些工具是否像我们看到世界的方式一样悄悄地缩小了范围?
来源:英国物理学家网首页作为人工智能(AI)工具(例如Chatgpt)成为我们日常生活的一部分,从提供一般信息到帮助家庭作业,一位法律专家正在提出一个危险信号:这些工具是否像我们看到世界的方式一样悄悄地缩小了范围?
在印第安纳法律杂志上发表的一篇新文章中,耶路撒冷希伯来大学的Michal Shur-ofry教授和纽约大学信息法律研究所的来访教职员工警告说,我们最先进的AI系统倾向于产生通用的,主要的主流内容的趋势。
已发布 印第安纳法律杂志“如果每个人都从AI那里得到同样的主流答案,它可能会限制我们接触到的各种声音,叙事和文化。” “随着时间的流逝,这可以缩小我们自己的可思考世界的世界。”
本文探讨了大型语言模型(LLMS),即生成文本的AI系统,即使被问到具有多个可能答案的问题时,也会以最流行的内容响应。研究中的一个例子涉及询问changpt关于19世纪的重要人物。答案包括林肯,达尔文和维多利亚皇后等人物是合理的,但通常可以预测,以盎格鲁为中心和重复。
大语言模型同样,当被要求命名最佳电视连续剧时,该模型的答案围绕着盎格鲁裔美国人热门单曲的短尾,而省略了不英语的剧集。
原因是模型的构建方式:他们从大量使用英语的数字数据集中学习,并依靠统计频率来生成答案。这意味着最常见的名称,叙述和观点将在它们产生的输出中一次又一次地浮出水面。
培训材料 文化多样性那么解决方案是什么?
本文提出了两个实用步骤,使这个想法栩栩如生:
后续协作 更多信息: arxiv