详细内容或原文请订阅后点击阅览
研究:AI 可能导致家庭监控结果不一致
研究人员发现,大型语言模型在分析监控视频时对是否报警做出的决定不一致。
来源:MIT新闻 - 人工智能MIT和宾夕法尼亚州立大学研究人员的一项新研究表明,如果要在家庭监视中使用大型语言模型,他们也可以建议即使监视视频没有显示犯罪活动,他们也可以建议报警。
此外,研究人员研究的模型不一致,他们标记了警察干预的视频。例如,一个模型可能会标记一个显示车辆闯入的视频,但不能标记另一个显示类似活动的视频。模型经常在是否打电话给警察以获取同一视频而彼此不同意。
此外,研究人员发现,在大多数居民是白色的社区中,一些模型标记了警察干预的视频,以控制其他因素。研究人员说,这表明这些模型表现出受社区人口统计学影响的固有偏见。
这些结果表明,模型在将社会规范应用于描绘类似活动的监视视频中不一致。研究人员称这种现象称规范不一致,使得很难预测模型在不同情况下的行为。
“移动,闯入方式的作式操作是在各地部署生成的AI模型,尤其是在高风险的环境中,值得更多,因为它可能非常有害。
此外,由于研究人员无法访问这些专有AI模型的培训数据或内部工作,因此他们无法确定规范不一致的根本原因。
纸“真实,迫在眉睫,实用的威胁”
与LLMS爆炸爆炸的项目。
不一致的决定
这项工作部分由IDSS打击系统性种族主义的倡议资助。