两幅图像,两个女人,两个世纪:一张是黑白的,另一张是彩色的。第一张是弗里茨朗 1927 年著名电影《大都会》中玛丽亚的剧照(图 1)。《大都会》拍摄于魏玛共和国,背景设定在一个未来的反乌托邦世界,富有的市长之子弗雷德与工业工人中的圣人玛丽亚联手,弥合阶级鸿沟。他的父亲,市长,听到了叛乱的风声,命令发明家罗特旺将机器人改造成玛丽亚的样子,以毁掉她在工人中的名声。罗特旺绑架了玛丽亚,并将她的肖像转移到机器人身上,机器人玛丽亚随后在整个大都会引发混乱。快进九十年,我们看到了索菲亚的照片,索菲亚是汉森机器人公司的发明,也是世界上第一个获得公民身份的机器人
通过将数字化的 Trusted AI 框架与 ServiceNow 的现成功能相结合,客户能够简化、精简和自动化 AI 治理的各个方面,从而加快决策速度并增强对满足监管和内部合规要求的信心。通过实施有效的风险管理护栏,信息技术、风险和安全领导者可以证明 AI 的应用是负责任且合乎道德的,有助于赢得监管机构、投资者、员工、第三方和客户的信任。
摘要 人工智能是人们生活的一部分,但大多数人并未意识到它的存在。所谓的人工智能革命是各国需要应对的挑战之一。然而,对于什么可以被视为人工智能,甚至没有一个共同的定义。性别偏见是人类社会的一个古老问题,现在可以在人工智能驱动的技术中找到。考虑到人工智能对决策过程的影响的扩大,人工智能中性别偏见的后果甚至更加严重。长期以来,科学家们一直相信人工智能的客观性,而忽视了这个问题。现在的重点是如何克服从人类那里继承下来的这个问题。欧盟在发展人工智能发展与基本权利的道德一致性方面发挥着主导作用。然而,在解决和减轻人工智能中的性别偏见方面,硬法和软法都存在漏洞,导致性别不平等。本文旨在提供一些智力滋养,以探讨这些差距以及欧盟委员会制定的道德准则和人工智能法规项目《人工智能法案》对妇女权利保护的可能影响。事实证明,人工智能中的性别歧视是一个社会和技术问题,必须从这两个方面加以解决,而不仅仅是从技术方面。因此,立法者努力以一种“误入歧途”的方式来管理它。最后,本文提出了缓解人工智能中性别歧视的新观点,考虑到现有和即将出台的立法。本文基于一种全面的方法提供了新的观点,包括加强利益相关者的参与,因为随着人工智能革命,人工智能中的性别歧视已成为一个跨境问题。
背景:某些类型的人工智能 (AI),即深度学习模型,在某些领域可以胜过医疗保健专业人员。此类模型对改善诊断、治疗和预防以及提高医疗保健成本效益具有巨大潜力。然而,它们是不透明的,因为它们的确切推理无法完全解释。不同的利益相关者强调了人工智能决策透明度/可解释性的重要性。透明度/可解释性可能会以牺牲性能为代价。需要制定一项公共政策来规范人工智能在医疗保健中的使用,以平衡社会对高性能和透明度/可解释性的利益。公共政策应该考虑公众对人工智能这些特征的广泛兴趣。目标:本研究调查了公众对人工智能决策在医疗保健中的表现和可解释性的偏好,并确定这些偏好是否取决于受访者的特征,包括对健康和技术的信任以及对人工智能的恐惧和希望。方法:我们在丹麦成年人口代表样本中进行了一项基于选择的联合调查,调查公众对医疗保健领域人工智能决策属性的偏好。初步焦点小组访谈得出了 6 个属性,这些属性影响了受访者对医疗保健领域使用人工智能决策支持的看法:(1)人工智能决策的类型,(2)解释水平,(3)性能/准确性,(4)最终决策的责任,(5)歧视的可能性,以及(6)应用人工智能的疾病的严重程度。总共使用部分因子设计开发了 100 个独特的选择集。在一项包含 12 个任务的调查中,受访者被问及他们对医院使用人工智能系统的偏好,涉及 3 种不同的场景。结果:在 1678 名潜在受访者中,有 1027 人(61.2%)参与了调查。受访者认为医生对治疗决策负有最终责任是最重要的属性,占总属性权重的 46.8%,其次是决策的可解释性(27.3%)和系统是否经过歧视测试(14.8%)。其他因素,例如性别、年龄、教育水平、受访者居住在农村还是城镇、受访者对健康和技术的信任以及受访者对人工智能的恐惧和希望,在大多数情况下并不发挥重要作用。结论:对公众最重要的三个因素按重要性降序排列为:(1)医生最终负责诊断和治疗计划,(2)人工智能决策支持是可解释的,以及(3)人工智能系统已经过歧视测试。关于医疗保健领域人工智能系统使用的公共政策应优先考虑此类人工智能系统的使用,并确保向患者提供信息。