详细内容或原文请订阅后点击阅览
NIST 研究人员提出道德人工智能研究的历史先例
贝尔蒙特报告的指导方针可以帮助避免在人工智能相关的人类受试者研究中重复过去的错误。
来源:美国国家标准技术研究所图片来源:3rdtimeluckystudio/Shutterstock
图片来源:如果我们用有偏见的数据训练人工智能 (AI) 系统,它们反过来会做出有偏见的判断,影响招聘决策、贷款申请和福利待遇——这只是现实世界中的几个影响。这项快速发展的技术可能会改变生活,我们如何确保人类用反映合理道德原则的数据训练人工智能系统?
美国国家标准与技术研究所 (NIST) 的一个多学科研究团队表示,我们已经对这个问题有了可行的答案:我们应该应用科学家几十年来用来保护人类受试者研究的基本原则。这三项原则概括为“尊重人、仁慈和正义”,是 1979 年具有分水岭意义的《贝尔蒙特报告》的核心思想,这份文件影响了美国政府对开展人类受试者研究的政策。
贝尔蒙特报告该团队已将其研究成果发表在同行评议期刊 IEEE 的《计算机》杂志 2 月刊上。虽然该论文是作者自己的作品,并非 NIST 的官方指导,但它与 NIST 支持开发值得信赖和负责任的人工智能的更大努力相吻合。
计算机杂志 计算机 更大的努力“我们研究了现有的人类受试者研究原则,并探索了如何将它们应用于人工智能,”NIST 社会科学家、该论文的作者之一 Kristen Greene 说。“没有必要重新发明轮子。我们可以应用既定的范例来确保我们对研究参与者保持透明,因为他们的数据可能用于训练人工智能。”
塔斯基吉梅毒研究 美国联邦法规 共同规则“对于私营部门来说,是否采用伦理审查原则是一个选择,”格林说。
人脸识别算法 计算机。