详细内容或原文请订阅后点击阅览
研究人员警告课堂上的人工智能应用可能存在种族偏见
管理 SAT 的测试机构分析了超过 13,000 篇论文,发现 ChatGPT 所采用的 AI 模型在评分中对亚裔美国学生的惩罚比其他种族和民族的惩罚更重。
来源:KQED | MindShift关于这一大堆论文的一些背景知识:全国各地的学生最初在 2015 年至 2019 年期间撰写了这些论文,作为州标准化考试或课堂评估的一部分。他们的任务是写一篇议论文,例如“应该允许学生在学校使用手机吗?”收集这些论文是为了帮助科学家开发和测试自动写作评估。
关于这一大堆论文的一些背景知识 一大堆论文 一大堆论文 :全国各地的学生最初在 2015 年至 2019 年期间撰写了这些论文,作为州标准化考试或课堂评估的一部分。他们的任务是写一篇议论文,例如“应该允许学生在学校使用手机吗?”收集这些论文是为了帮助科学家开发和测试自动写作评估。每篇论文均由写作专家评分员按照 1 到 6 分制评分,6 分最高。ETS 要求 GPT-4o 使用与人类相同的评分指南,按照相同的六分制对论文进行评分。无论是人类还是机器,都没有被告知学生的种族或民族,但研究人员可以在这些论文附带的数据集中看到学生的人口统计信息。
每篇论文均由写作专家评分员按照 1 到 6 分制评分,6 分最高。ETS 要求 GPT-4o 使用与人类相同的评分指南,按照相同的六分制对论文进行评分。无论是人类还是机器,都没有被告知学生的种族或民族,但研究人员可以在这些论文附带的数据集中看到学生的人口统计信息。“显然,这似乎不公平,”约翰逊和张在他们与我分享的一份未发表的报告中写道。他们表示,尽管对亚裔美国人的额外惩罚并不大,但已经足够严重,不容忽视。
AI 论文评分过高和过低的频率一样高 2012 年发表的研究