详细内容或原文请订阅后点击阅览
评估自治系统的道德规范
麻省理工学院的研究人员开发了一个测试框架,可以查明人工智能决策支持系统不公平对待人和社区的情况。
来源:MIT新闻 - 人工智能人工智能越来越多地被用来帮助优化高风险环境中的决策。例如,自主系统可以确定一种配电策略,在保持电压稳定的同时最大限度地降低成本。
但是,虽然这些人工智能驱动的输出在技术上可能是最佳的,但它们公平吗?如果低成本配电策略使贫困社区比高收入地区更容易受到停电的影响怎么办?
为了帮助利益相关者在部署之前快速查明潜在的道德困境,麻省理工学院的研究人员开发了一种自动评估方法,该方法可以平衡可衡量的结果(例如成本或可靠性)与定性或主观价值(例如公平性)之间的相互作用。
该系统将客观评估与用户定义的人类价值观分开,使用大型语言模型(LLM)作为人类的代理来捕获和整合利益相关者的偏好。
自适应框架选择最佳场景进行进一步评估,简化通常需要昂贵且耗时的手动操作的流程。这些测试用例可以显示自主系统与人类价值观良好契合的情况,以及意外不符合道德标准的情况。
“我们可以在人工智能系统中插入很多规则和护栏,但这些保障措施只能阻止我们想象的事情发生。仅仅说‘让我们使用人工智能吧,因为它已经接受过这些信息的训练’是不够的。我们希望开发一种更系统的方法来发现未知的未知因素,并在任何不良情况发生之前找到一种方法来预测它们,”麻省理工学院航空航天系 (AeroAstro) 副教授、资深作者 Chuchu Fan 说道。麻省理工学院信息与决策系统实验室 (LIDS) 的首席研究员。
评估道德
重要的是,SEED-SET 不需要预先存在的评估数据,并且它适应多个目标。
编码主观性
