杰克·W·雷(Jack W. Rae)、塞巴斯蒂安·博尔热(Sebastian Borgeaud)、特雷弗·蔡(Trevor Cai)、凯蒂·米利肯(Katie Millican)、乔丹·霍夫曼(Jordan Hoffmann)、H. 弗朗西斯·宋(H. Francis Song)、约翰·阿斯兰尼德(John Aslanides)、莎拉·亨德森(Sarah Henderson)、罗曼·林格(Roman Ring)、苏珊娜·扬(Susannah Young)、伊丽莎·拉瑟福德(Eliza Rutherford)、汤姆·亨尼根(Tom Hennigan)、雅各布·梅尼克(Jacob Menick)、阿尔宾·卡西勒(Albin Cassirer)、理查德·鲍威尔(Richard Powell)、乔治·范登·德里斯切(George van den Driessche)、丽莎·安妮·亨德森(Lisa Anne Hendricks)、玛丽·亨德森(Marie Hendrick)、乔安妮·劳(Joanne Rauh)、萨拉·亨德森(Sarah Henderson)、韦尔布(Welbl)、苏曼斯·达萨特里(Sumanth Dathathri)、莎夫荣·黄(Saffron Huang)、乔纳森·乌埃萨托(Jonathan Uesato)、约翰·梅洛(John Mellor)、伊琳娜·希金斯(Irina Higgins)、安东尼娅·克雷斯韦尔(Antonia Creswell)、内特·麦卡利斯(Nat McAleese)、艾米·吴(Amy Wu)、埃里希·埃尔森(Erich Elsen)、西德汉特·M·贾亚库马尔(Siddhant M. Jayakumar)、叶莲娜·布查茨卡娅(Elena Buchatskaya)、大卫·布登(David Budden)、埃斯梅·萨瑟兰(Esme Sutherland)、凯伦·西蒙尼安(Karen Simoninian)、米凯拉·帕根(Michela Pagan)、劳伦·劳伦特(Lauren Laurent)、劳伦·坤(Lauren Kun)、拉古纳·坤(Laguna Kun)、艾达·内马扎德(Aida Nematzadeh)、叶莲娜·格里博夫斯卡娅(Elena Gribovskaya)、多米尼克·多纳托(Domenic Donato)、安吉利基·拉扎里杜(Angeliki Lazaridou)、亚瑟·门施(Arthur Mensch)、让 - 巴蒂斯特·莱斯皮奥(Jean - Baptiste Lespiau)、玛丽亚·辛普普凯利(Maria Tsimpoukelli)、尼古拉·格里戈列夫(Nikolai Grigorev)、道格·弗里茨(Doug Fritz)、蒂博·索蒂亚(Thibault Sottiaux)、曼塔斯·帕亚尔斯卡斯(Mantas Pajarskas)、托比·波伦(Toby Pohlen)、鞠志涛(Zhitao Gong)、丹尼尔·户田茂(Daniel Toyama)、赛(Cy)、马萨诸塞州(Massachusetts)、泰贾(Tajia)、泰贾乌德(Tajiaud)、尤蒂·弗拉基米尔·米库利克(Yuti Vladimir Mikulik)、伊戈尔·巴巴什金(Igor Babuschkin)、艾丹·克拉克(Aidan Clark)、迭戈·德拉斯·卡萨斯(Diego de Las Casas)、奥雷莉亚·盖伊(Aurelia Guy)、克里斯·琼斯(Chris Jones)、詹姆斯·布拉德伯里(James Bradbury)、马修·约翰逊(Matthew Johnson)、布莱克·A·赫希特曼(Blake A. Hechtman)、劳拉·魏丁格(Laura Weidinger)、伊森·加布里埃尔(Iason Gabriel)、威廉·S·艾萨克(William S. Isaac)、爱德华·洛克哈特(Edward Lockhart)、西蒙·奥辛德罗(Simon Osindero)、劳拉·里梅尔(Laura Rimell)、克里斯·戴尔(Chris Dyer)、奥里奥尔·维尼亚斯(Oriol Vinyas)、卡里姆·斯坦利(Kareem Stanley)、杰弗里·贝内特(Jeffrey Bennett)、科拉伊·卡武克丘奥卢(Koray Kavukcuoglu)和杰弗里·欧文(Geoffrey Irving)。.扩展语言模型:来自 Training Gopher 的方法、分析和见解。 arXiv 预印本 arXiv:2112.11446。
基于人工智能(AI)的技术、机器学习和认知系统在社会经济和技术转型中发挥了非常积极的作用。对于工业价值链和国际企业来说,这意味着结构性变革是必要的,因为这些机器可以学习和应用新信息进行预测、处理和与人互动。人工智能(AI)是一门科学,它使用足够强大的技术、策略和数学模型来解决复杂的实际问题。由于它不可避免地会在未来取得进一步的进步,因此存在相当大的安全和道德问题。创造一个对人类友好的人工智能环境,反之亦然,可能是人类和机器发现一套共同价值观的解决方案。在此背景下,本研究的目标是调查人工智能的新兴趋势(它给社会带来的好处)、来自道德算法、学习或预设理想的道德挑战,以及解决人工智能和人工智能安全的道德问题和不当行为。本文将讨论人工智能对投资者和金融服务的影响。本文将探讨解决金融领域潜在不道德问题的挑战和可能的替代方案,并提出新的人工智能治理机制的必要性,以保护资本市场的效率,以及金融当局在监管和监控金融领域人工智能大规模扩张方面的作用。 关键词
本文为日益增多的人工智能和可持续性文献做出了贡献。这些文献大部分是关于人工智能与人类文明可持续性及其环境基础的关系;其中包括 Nishant 等人的评论。[3] 和 Liao 和 Wang [4],人工智能的环境政治 [5],人工智能与系统性风险和可持续性的关系 [6],人工智能系统的环境足迹 [7],以及人工智能在实现可持续发展目标中的作用 [8-10]。一些文献侧重于人工智能系统本身的可持续性 [11],包括消费者自主权 [12]、全球健康计划 [13]、某些经济机制 [14] 和决策应用 [15]。此外,还有一个更广泛的计算可持续性领域,它应用计算机科学方法来促进环境和社会可持续性 [16-18]。总体而言,有关人工智能和可持续性的文献提供了各种重要贡献,但对可持续性伦理的讨论有限。
社会对人工智能 (AI) 和 AI 系统的依赖日益增加,这要求中高层管理的软件工程 (SE) 主管采取更实用的方法来提高他们在实施 AI 伦理方面的参与度,将道德要求作为其管理实践的一部分。然而,研究表明,在 SE 管理中实施道德要求的大部分工作主要集中在技术开发上,对中高层管理的研究很少。我们通过采访十位芬兰中高层管理的 SE 主管来调查这一点,以了解他们如何考虑和实施道德要求。我们使用欧盟 (EU) 可信 AI 道德指南中的道德要求作为道德要求的参考,并使用敏捷投资组合管理框架来分析实施情况。我们的研究结果表明,隐私和数据治理的道德要求通常被视为法律要求,而没有确定其他道德要求的考虑因素。研究结果还表明,将道德要求视为技术稳健性和安全性是可行的,可以将实施视为风险要求,将社会和环境福祉视为可持续性要求。我们研究了一种使用采用敏捷投资组合管理框架的道德风险要求堆栈来实施道德要求的实用方法。
摘要 对人工智能伦理感兴趣的研究人员、从业者和政策制定者需要更多综合方法来研究和干预多种背景和活动规模的人工智能系统。本文将人工智能价值链作为一个满足这一需求的综合概念提出。为了更清楚地理论化人工智能价值链并在概念上将其与供应链区分开来,我们从战略管理、服务科学、经济地理、行业、政府和应用研究文献中回顾了价值链和人工智能价值链的理论。然后,我们对 67 个来源样本进行了综合审查,这些来源涵盖了人工智能价值链中涉及的道德问题。基于我们的综合审查结果,我们建议研究人员、从业者和政策制定者可以采取的三个未来方向,以推动整个人工智能价值链中更多的道德实践。我们敦促人工智能伦理研究人员和从业者转向价值链视角,将参与者置于背景中,考虑共同创建人工智能系统所涉及的多种资源,并整合跨背景和规模的更广泛的道德问题。
社会对人工智能 (AI) 和人工智能系统的依赖日益增加,这要求中高层管理的软件工程 (SE) 主管采取更务实的方法,通过将道德要求作为管理实践的一部分,提高他们在实施人工智能伦理方面的参与度。然而,研究表明,在 SE 管理中实施道德要求的大部分工作主要集中在技术开发上,对中高层管理的研究很少。我们通过采访十名芬兰中高层管理的 SE 主管来调查这一点,以了解他们如何考虑和实施道德要求。我们使用欧盟 (EU) 可信人工智能可信道德指南中的道德要求作为道德要求的参考,并使用敏捷投资组合管理框架来分析实施情况。我们的研究结果表明,隐私和数据治理的道德要求一般被视为法律要求,没有确定其他道德要求的考虑因素。研究结果还表明,将道德要求视为技术稳健性和安全性是可行的,在实施时将其视为风险要求,将社会和环境福祉视为可持续性要求。我们研究了使用采用敏捷投资组合管理框架的道德风险要求堆栈来实施道德要求的实用方法。
本指南使用的核心方法称为“设计伦理”。设计伦理的目的是将道德原则纳入开发过程,以便尽早解决道德问题并在研究活动中密切跟进。它明确确定了可以采取的具体任务,并且可以应用于任何开发方法(例如AGILE、V-Method 或 CRISP-DM)。但是,建议的方法应根据所提议的研究类型进行量身定制,同时牢记研究阶段和部署或实施阶段的道德风险可能有所不同。本指南中介绍的设计伦理方法提供了解决道德相关问题和展示道德合规性的额外工具。然而,采用设计伦理方法并不排除采取额外措施,以确保遵守所有主要的人工智能伦理原则和遵守欧盟法律框架,以保证完全遵守伦理并实施伦理要求。
越来越多的公司认为人工智能对其未来至关重要,然而,人们对该技术可能被滥用的担忧也在增加。在德勤最近的一项调查中,76% 的高管表示,他们预计人工智能将在三年内“大幅改变”他们的公司,而约三分之一的受访者将道德风险列为对该技术的三大担忧之一。最近,美国联邦贸易委员会表示越来越关注人工智能的公平性,其五名委员之一公开表示,该委员会应该扩大对歧视性人工智能的监督。
