https://www.mos.gov.cn/kjbgz/202402402_,1898,hhtml)https://www.mos.gov.cn/kjbgz/202402402_,1898,hhtml)
以可持续的方式设计和开发人工智能 (AI) 的需求促使研究人员、机构和组织制定 AI 伦理建议。尽管这些建议涵盖了各种主题并针对不同的受众,但它们都假设 AI 伦理为设计师提供了可应用于其工作的可推广基础。我们认为,当前道德准则的影响力仍然不大的原因之一可能是它们所代表的应用伦理的概念。我们讨论生物伦理作为衡量 AI 伦理中采用的元伦理和方法论方法的参考点,并提出,如果通过采用旨在提高人类行为质量和保障其预期结果的研究领域的工具来丰富资源,AI 伦理可以变得更加方法论扎实,实质上更具影响力。我们认为对此有用的方法是系统理论、安全研究、影响评估方法和变革理论。
为确保产品在受益于正在开发的治疗方法的人群中进行测试,赛诺菲生物伦理委员会最近制定了一项关于“人体临床试验多样性”的伦理政策。赛诺菲和美国药品研究与制造商协会 (PhRMA) 的其他成员公司最近也承诺遵守一套关于临床试验多样性的 PhRMA 原则。此外,赛诺菲研发部门最近创建了一个临床试验包容性和多样性计划 (CT-IDP),该计划正在努力寻找方法来提高我们招募多样化试验参与者的能力并减少包容性障碍。我们还通过论坛与行业合作伙伴合作,例如 TransCelerate、临床研究站点协会 (SCRS) 和生物技术创新组织 (Bio),探索提高试验包容性和多样性的解决方案。
社会对人工智能 (AI) 和人工智能系统的依赖日益增加,这要求中高层管理的软件工程 (SE) 主管采取更务实的方法,通过将道德要求作为管理实践的一部分,提高他们在实施人工智能伦理方面的参与度。然而,研究表明,在 SE 管理中实施道德要求的大部分工作主要集中在技术开发上,对中高层管理的研究很少。我们通过采访十名芬兰中高层管理的 SE 主管来调查这一点,以了解他们如何考虑和实施道德要求。我们使用欧盟 (EU) 可信人工智能可信道德指南中的道德要求作为道德要求的参考,并使用敏捷投资组合管理框架来分析实施情况。我们的研究结果表明,隐私和数据治理的道德要求一般被视为法律要求,没有确定其他道德要求的考虑因素。研究结果还表明,将道德要求视为技术稳健性和安全性是可行的,在实施时将其视为风险要求,将社会和环境福祉视为可持续性要求。我们研究了使用采用敏捷投资组合管理框架的道德风险要求堆栈来实施道德要求的实用方法。
本指南使用的核心方法称为“设计伦理”。设计伦理的目的是将道德原则纳入开发过程,以便尽早解决道德问题并在研究活动中密切跟进。它明确确定了可以采取的具体任务,并且可以应用于任何开发方法(例如AGILE、V-Method 或 CRISP-DM)。但是,建议的方法应根据所提议的研究类型进行量身定制,同时牢记研究阶段和部署或实施阶段的道德风险可能有所不同。本指南中介绍的设计伦理方法提供了解决道德相关问题和展示道德合规性的额外工具。然而,采用设计伦理方法并不排除采取额外措施,以确保遵守所有主要的人工智能伦理原则和遵守欧盟法律框架,以保证完全遵守伦理并实施伦理要求。
在介绍该领域的背景知识(1)之后,本文介绍了主要的争论(2),首先是关于人工智能系统作为对象(即人类制造和使用的工具)时出现的伦理问题;这里的主要部分是隐私(2.1)、操纵(2.2)、不透明性(2.3)、偏见(2.4)、自主性和责任(2.6)和奇点(2.7)。然后我们将人工智能系统视为主体,即当伦理针对人工智能系统本身时,在机器伦理(2.8)中。和人工智能道德机构(2.9)。最后,我们来看看人工智能的未来发展和概念(3)。对于这些主题中的每个部分,我们都提供了道德问题的一般解释,概述了现有的立场和论点,然后分析了这与当前技术如何相互作用,以及最终可能得出哪些政策后果。
摘要。本章重点关注狭义人工智能而非一般人工智能的伦理问题。它为人工智能伦理的讨论提供了实践和哲学依据。它考虑了道德宪章,然后讨论了主要的道德问题:偏见、可解释性、失败责任、无害性、数据的道德使用、人工智能是否应该具有法人资格、对就业和社会的影响以及冒充人类的人工智能。介绍了个人保险中人工智能的案例研究。它为人工智能的监管提供了依据,并讨论了制定监管的挑战。它得出结论,人工智能的好处是如此宝贵,以至于必须管理道德风险,否则由于失去公众信任,这些好处可能会丧失。我们有理由感到乐观,尤其是公众对这些问题的认识、政府的参与以及私人和公共对伦理研究的投资额。