对人工智能(AI)及其潜在存在风险的关注引起了极大的关注,诸如Geoffrey Hinton和Dennis Hassabis之类的数字提倡对灾难性结果进行强大的保障措施。尼克·博斯特罗姆(Nick Bostrom)和麦克斯·蒂格马克(Max Tegmark)等知名学者通过探索超智能AI的长期影响进一步推动了话语。然而,这种存在的风险叙事面临批评,特别是在流行媒体中,诸如Timnit Gebru,Melanie Mitchell和Nick Clegg之类的学者认为,除其他外,它分散了当前问题的注意力。尽管媒体报道广泛,但对存在风险话语的怀疑却在学术文献中受到了严格的治疗有限。解决这种不平衡,本文重建并评估了三个反对存在风险观点的共同参数:分心论点,人类脆弱的论点以及干预论点的检查点。通过系统地重建和评估这些论点,本文旨在为更平衡的学术话语和对AI的进一步研究提供基础。
[Abdurahman 20] Abdurahman, JK:论人工智能伦理的道德崩溃,Medium,https://upfromthecracks。 medium.com/on-the-moral-collapse-of-ai-ethics-791cbc7df872 (2020) [Ahmed 20] Ahmed, S., et al.: 检查估计肾小球滤过率计算中种族乘数利用率对非裔美国人护理结果的潜在影响, J. Gen. Intern Med., https://doi.org/10.1007/s11606-020-06280-5 (2020) [Aisch 17] Aisch, G., Buchanan, L., Cox, A. 和 Quealy, K.: 有些大学的前 1% 学生比后 60% 学生还多,找出你的大学,《纽约时报》,https://www. nytimes.com/interactive/2017/01/18/upshot/some- colleges-have-more-students-from-the-top-1- percent-than-the-bottom-60.html ( 2017 ) [Buolamwini 18] Buolamwini, J. 和 Gebru, T.: Gender Shades: 商业性别分类中的交叉准确度差异, Proc. of Machine Learning Research, 81:1-15, 2018 Conf.公平性、问责制和透明度,https://www.media.mit.edu/publications/gender-shades-intersectional-accuracy-disparities-in-commercial-gender-classification/ (2018 年) [Dand 20] Dand,M.:AI 伦理守门人的责任在哪里?, Medium,https://miad.medium.com/where-is-the-accountability-for-ai-ethics-gatekeepers-e696b8a80e62 (2020 年)
摘要 人工智能伦理需要政策制定者、人工智能公司和个人在开发、部署和使用这些技术时采取统一的方法。然而,有时讨论可能会因为不同的治理水平(Schmitt in AI Ethics 1–12, 2021)或因为涉及的价值观、利益相关者和参与者不同(Ryan and Stahl in J Inf Commun Ethics Soc 19:61–86, 2021)而变得支离破碎。最近,这些冲突变得非常明显,例如谷歌解雇人工智能伦理研究员 Timnit Gebru 博士,以及 Facebook 的告密者 Frances Haugen 辞职。每一次失败的背后都是组织的经济和商业利益与员工道德之间的冲突。本文将通过探索该领域的人工智能伦理文献,以及对与人工智能开发人员和从业人员举办的三次研讨会进行定性分析,探讨人工智能组织的伦理与员工价值观之间的紧张关系。本文将讨论常见的伦理和社会紧张关系(例如权力不对称、不信任、社会风险、危害和缺乏透明度),以及如何在实践中避免或减少这些冲突的建议(例如,建立信任、公平分配责任、保护员工的自主权以及鼓励道德培训和实践)。总之,我们建议采取以下步骤来帮助减少人工智能组织内的道德问题:企业内部改进和多样化的道德教育和培训;内部和外部道德审计;建立人工智能道德监察员、人工智能道德审查委员会和人工智能道德监督机构;以及获得值得信赖的人工智能道德举报人组织的访问权限。
11 阿尔凯西和麦克法兰,2023;阿塔鲁里等人。 2023;基督教 2023;法郎 2023;胡赛尼、拉斯穆森和雷斯尼克 2023;吉等人。 2023;基德和比尔汉 2023; Lee、Bubeck 和 Petro 2023;莱特曼等人。 2023;刘、张、梁 2023;梅加赫德等人。 2023;梅策、莫兰丁-雷斯、罗兰-梅策和弗洛林多 2023 年; OpenAI 2023 年 3 月 27 日;波里茨 2023;韦斯和梅斯 2023 年;威瑟 2023;张,等人。 2023;赵,等人。 2023; Zhavoronkov 2023。12 Busch 2023;电子隐私信息中心 2023;Huang 2023;Hosseini 和 Horbach 2023;Lauer、Constant 和 Wernimont 2023;Meskó 和 Topol 2023;美国国立卫生研究院 2023;Schwartz 和 Rogers 2022。13 请参阅 registrar.uky.edu/ferpa 和 registrar.uky.edu/ferpa/ferpa-faculty-and-staff-faq。14 请参阅 www.research.uky.edu/office-research-integrity。15 Bender、Gebru、McMillan-Major 和 Shmitchell 2021;Brown 等人 2020;Caliskan、Bryson 和 Narayanan 2017;Hovy 和 Prabhumoye 2021; Liang, Wu, Morency 和 Salakhutdinov 2021;Najibi 2020;Nazer 等人 2023;Nicholas 和 Bhatia 2023;Schwartz 等人 2022;Small 2023 年 7 月 4 日;Whittaker 等人 2019;Zhuo, Huang, Chen 和 Xing 2023。16 Appel、Neelbauer 和 Schweidel 2023;Lucchi 2023;Saveri 和 Butterick 2023;Sobel 2018;Strowel 2023;Thorbecke 2023;Zirpoli 2023。17 Chen, Zaharia 和 Zou 2023。
• Achiume, T. (n.d.)。联合国专家警告称,新兴数字技术加剧种族不平等。2021 年 3 月 6 日检索自 https://www.ohchr.org/en/NewsEvents/Pages/DisplayNews.aspx?NewsID =26101&LangID=EBajorek, J. P. (2019 年 5 月 10 日)。• 人脸识别技术中的种族歧视。2021 年 3 月 5 日检索自 https://sitn.hms.harvard.edu/flash/2020/racial-discrimination- in-face-recognition-technology/Roberts, R. J., & De Hamsher, K. S. (1984)。• Garve, C., & Frankle, J.(2016 年 4 月 7 日)。面部识别软件可能存在种族偏见问题。检索于 2021 年 4 月 4 日,来自 https://apexart.org/images/breiner/articles/FacialRecognitionSoftwareMi ght.pdf。• Perkowitz, S. (2021)。机器中的偏见:面部识别技术和种族差异。麻省理工学院计算社会和道德责任案例研究。doi:10.21428/2c646de5.62272586 • Grose, Thomas K. “认知失调。”ASEE Prism 27.7 (2018): 17。ProQuest。网络。4 月 7 日。2021 年。• Bacchini, F., & Lorusso, L. (2019)。再次讨论种族问题:人脸识别技术如何强化种族歧视。《信息、通信与社会伦理杂志》,17(3),321-335。doi:10.1108/jices- 05-2018-0050 • Buolamwini, J., & Gebru, T. (2018)。性别阴影:商业性别分类中的交叉准确度差异 ∗ 。机器学习研究论文集。http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf • Learned-Miller, E., Ordonez, V., Morganstern, J., & Buolamwini, J.(2020 年 5 月 29 日)。野外面部识别技术。2021 年 4 月 4 日检索自 https://global-uploads.webflow.com/5e027ca188c99e3515b404b7/5ed1145952bc18520 3f3d009_FRTsFederalOfficeMay2020.pdf • Reza, M. (2021 年 4 月 7 日)。民权组织呼吁奥斯汀禁止执法部门使用面部识别软件。2021 年 4 月 11 日检索自 http://grassrootsleadership.org/releases/2021/04/civil-rights-groups-call-austin-ban-law-enforcement-s-use-facial-recognition
xvii。参考文献[1] Alvarez,M。,&Green,T。(2023)。AI伦理学的跨学科方法:最近会议的见解。AI伦理杂志。[2] Bakshy,E。,Messing,S。,&Adamic,L。A.(2015)。在Facebook上接触意识形态上多样化的新闻和意见。科学。[3]Barberá,P。等。(2019)。社交媒体和政治两极分化:全球视角。政治传播杂志。[4] Bennett,S。(2020)。社交媒体和集体行动:道德意义。交流道德杂志。[5] Bennett,S。和Segerberg,A。(2019)。结缔组织的逻辑:数字媒体和有争议的政治的个性化。信息,沟通与社会。[6] Binns,R。(2021)。机器学习中的公平:政治哲学的教训。2021年公平,问责制和透明度会议的会议记录。[7] Buolamwini,J。,&Gebru,T。(2018)。性别阴影:商业性别分类中的交叉准确性差异。2018年公平,问责制和透明度会议的会议记录。[8] Cadwalladr,C。和Graham-Harrison,E。(2019)。Cambridge Analytica文件。监护人。[9] Chadwick,A。等。(2022)。错误信息,政治两极分化和社交媒体:一种全球观点。交流杂志。[10] Cinelli,M。等。(2020)。(2022)。COVID-19-COVID社交媒体不良。科学报告。[11]欧盟法院。裁定被遗忘的权利。从[链接]检索。[12] Davenport,T。,&Ronanki,R。(2018)。现实世界的人工智能。哈佛商业评论。[13] Eslami,M。等。(2022)。社交媒体中的算法个性化:对参与和信任的影响。信息技术杂志。[14]欧洲委员会。(2020)。数字服务法:一种调节数字服务的全面方法。从[链接]检索。[15]欧洲委员会。(2021)。AI法规:对人工智能监管的建议。从[链接]检索。[16] Ferguson,A。(2023)。在数字空间中涉及道德挑战。数字道德杂志。[17] Gao,Y。和Fan,Y。(2023)。全球AI调节方法:比较研究。全球政策。[18] Gillespie,T。(2020)。互联网保管人:平台,内容节制以及塑造社交媒体的隐藏决定。耶鲁大学出版社。
2023 年 4 月 摘要:适当监管人工智能是一项紧迫的政策挑战。立法机构和监管机构缺乏将公众需求转化为法律要求所需的专业技术知识。过度依赖行业自律无法让人工智能系统的生产者和用户对民主要求负责。有人提出了监管市场,即政府要求监管对象从私人监管机构购买监管服务。这种人工智能监管方法可以克服命令和控制监管和自我监管的局限性。监管市场可以使政府为人工智能监管制定政策优先事项,同时依靠市场力量和行业研发努力来开创最能实现政策制定者既定目标的监管方法。 1. 简介 过去十年见证了人工智能领域取得的惊人成就。这十年始于图像分类的突然进步(He 等人,2019 年)。五年后,深度强化学习在围棋等狭窄任务中表现出意想不到的能力(Silver 等人,2016 年)。最近,拥有数十亿个参数并经过数十亿个单词和图像训练的大型生成模型已经展现出令人惊讶的基础能力,可以编写合理的文本或计算机代码、阐明想法、根据命令生成图像、回答复杂问题等等(Goodfellow 等人,2020 年;Wei 等人,2022 年)。过去十年,围绕人工智能治理的讨论也发生了变化。早期认识到(Sweeney,2013 年;Buolamwini 和 Gebru,2018 年)基于随意选择的数据(从互联网上抓取的图像或文字、招聘决策历史)训练的不透明分类系统将重现并可能放大种族和性别偏见,这引发了全球关于人工智能伦理的讨论。很快,行业和民间社会组织就出现了一系列原则和指导方针(Jobin 等人,2019 年)。现在,各国政府已经开始探索(在某些情况下是出台)立法来管理已经通过人工智能驱动的互联网平台和设备嵌入日常生活的技术的开发和使用。然而,治理人工智能的挑战是巨大的。任何新技术都面临着“步调”问题(Marchant 2011),即创新速度落后于行业实验室,治理速度落后于政治和官僚机构,人工智能也不例外。但治理人工智能的挑战不仅仅是延迟,而是传统治理工具的能力与我们需要的解决方案的性质之间的根本不匹配,以确保一项技术能够
* 加州西部法学院副教授;加州大学圣地亚哥分校客座副教授;印第安纳大学(布卢明顿)奥斯特罗姆访问学者;内布拉斯加大学(林肯)访问学者:内布拉斯加州治理与技术中心;乔治梅森大学安东宁斯卡利亚法学院托马斯爱迪生创新研究员和列奥纳多达芬奇研究员;加州大学洛杉矶分校法学院访问学者;美国注册专利律师;西北大学普利兹克法学院法学博士;西北大学凯洛格管理学院工商管理硕士;休斯顿大学法学院法学硕士;斯坦福大学商学院研究生创业证书;斯坦福大学工程学院机械工程硕士;德克萨斯大学奥斯汀分校科克雷尔工程学院机械工程学士。非常感谢 Michael Risch、Ted Sichelman、Brenda Simon、Thomas D. Barton、Robert A. Bohrer、Shawn Miller、Lisa Ramsey、Anjanette Raymond、Daniel R. Cahoy、Sonia Katyal、Tejas Narechania、Jonathan Barnett、Eric Claeys、John Duffy、Sean O'Connor、Ashish Bharadwaj、Loletta Dardin、Charles Delmotte、H. Tomás Gómez-Arostegui、Taorui Guan、Devlin Hartline、Christa Laser、Daryl Lim、Kevin Madigan、Talha Syed、James Stern、Seth C. Oranburg、Agnieszka McPeak、Gregory Day、Nicole Iannarone、Emily Loza de Siles、Eric C. Chaffee、Robert F. Kravetz、Ashley London、Aman Gebru、Elizabeth I. Winston、A. Michael Froomkin、Mason Marks、Larry DiMatteo、Robert W. Emerson、Robert E. Thomas、Colleen M. Baker、Lawrence Trautman、George Cameron、David Orozco、Thomas Freeman、Christopher Guzelian、Daniel Herron、Michelle Romero、Tyler Smith、Brian Haney、Jihwang Yeo、Sikander Khan、Erica Pascal、Ryan Hsu、Kevin R. Tamm 和 Daniel R. Peterson。感谢以下论坛展示本文并感谢参与者的真知灼见:佛罗里达大学沃灵顿商学院 2020 年 Huber Hurst 研究研讨会、杜肯大学法学院初级 #FutureLaw 研讨会 4.0、印第安纳大学(布卢明顿)奥斯特罗姆研讨会系列座谈会、乔治华盛顿大学法学院初级知识产权学者协会 (JIPSA)、迈阿密大学法学院 2019 年 We Robot 大会、堪萨斯大学法学院 PatCon 9(年度专利会议)以及圣地亚哥大学法学院第 9 届年度专利法会议。感谢商业法律研究学院 (ALSB) 跨学科部门在 2020 年 ALSB 年会上将本文评为首届“最佳论文奖”,并感谢 ALSB 成员的真知灼见。
* 加州西部法学院副教授;加州大学圣地亚哥分校客座副教授;印第安纳大学(布卢明顿)奥斯特罗姆访问学者;内布拉斯加大学(林肯)访问学者:内布拉斯加州治理与技术中心;乔治梅森大学安东宁斯卡利亚法学院托马斯爱迪生创新研究员和列奥纳多达芬奇研究员;加州大学洛杉矶分校法学院访问学者;美国注册专利律师;西北大学普利兹克法学院法学博士;西北大学凯洛格管理学院工商管理硕士;休斯顿大学法学院法学硕士;斯坦福大学商学院研究生创业证书;斯坦福大学工程学院机械工程硕士;德克萨斯大学奥斯汀分校科克雷尔工程学院机械工程学士。非常感谢 Michael Risch、Ted Sichelman、Brenda Simon、Thomas D. Barton、Robert A. Bohrer、Shawn Miller、Lisa Ramsey、Anjanette Raymond、Daniel R. Cahoy、Sonia Katyal、Tejas Narechania、Jonathan Barnett、Eric Claeys、John Duffy、Sean O'Connor、Ashish Bharadwaj、Loletta Dardin、Charles Delmotte、H. Tomás Gómez-Arostegui、Taorui Guan、Devlin Hartline、Christa Laser、Daryl Lim、Kevin Madigan、Talha Syed、James Stern、Seth C. Oranburg、Agnieszka McPeak、Gregory Day、Nicole Iannarone、Emily Loza de Siles、Eric C. Chaffee、Robert F. Kravetz、Ashley London、Aman Gebru、Elizabeth I. Winston、A. Michael Froomkin、Mason Marks、Larry DiMatteo、Robert W. Emerson、Robert E. Thomas、Colleen M. Baker、Lawrence Trautman、George Cameron、David Orozco、Thomas Freeman、Christopher Guzelian、Daniel Herron、Michelle Romero、Tyler Smith、Brian Haney、Jihwang Yeo、Sikander Khan、Erica Pascal、Ryan Hsu、Kevin R. Tamm 和 Daniel R. Peterson。感谢以下论坛展示本文并感谢参与者的真知灼见:佛罗里达大学沃灵顿商学院 2020 年 Huber Hurst 研究研讨会、杜肯大学法学院初级 #FutureLaw 研讨会 4.0、印第安纳大学(布卢明顿)奥斯特罗姆研讨会系列座谈会、乔治华盛顿大学法学院初级知识产权学者协会 (JIPSA)、迈阿密大学法学院 2019 年 We Robot 大会、堪萨斯大学法学院 PatCon 9(年度专利会议)以及圣地亚哥大学法学院第 9 届年度专利法会议。感谢商业法律研究学院 (ALSB) 跨学科部门在 2020 年 ALSB 年会上将本文评为首届“最佳论文奖”,并感谢 ALSB 成员的真知灼见。
Jordan Cosio 2023-(Inria Grenible)想象。 博士Pierre-Brice Witer Jean-Eudes Ayilo 2023-(中央汤)不在。Jordan Cosio 2023-(Inria Grenible)想象。博士Pierre-Brice Witer Jean-Eudes Ayilo 2023-(中央汤)不在。