定位声明 富士通敏锐地意识到不道德的人工智能系统开发所带来的潜在风险。因此,我们积极与行业、学术界和监管机构合作,继续调查和制定良好的实践措施和指导方针,以确保在广泛的行业应用中合乎道德地使用人工智能解决方案。这种参与包括成为 UKRI 可信自主系统 (TAS) 中心的战略顾问成员。我们还积极参与英国负责任人工智能研究所,这是一个塑造负责任的人工智能研究和创新的国际生态系统,专注于人类和值得信赖的社会。在人工智能解决方案达到政府监管机构和行业提供适用的部署和成熟使用指南的程度之前,富士通将寻求通过直接与行业标准机构合作来改进其开发实践,并在更广泛的社区中参与测试,以改进人工智能解决方案的部署。
摘要:随着人工智能(AI)处理高度复杂任务的能力越来越强,许多支持人工智能的产品和服务被赋予了更高的决策自主权,可能对个人和社会产生不同的影响。虽然组织和研究人员一再表明人工智能对人类的祝福,但严重的人工智能相关滥用和事件引发了紧迫的伦理问题。因此,不同学科的研究人员广泛承认有关人工智能的伦理讨论。然而,管理者渴望在整个组织中激发伦理考虑,但在如何建立和管理人工智能伦理方面却得到有限的支持。虽然研究关注的是组织中的技术相关伦理,但对人工智能伦理管理的研究却有限。在此背景下,本文的目标是为人工智能相关伦理问题的研究提供一个起点,并强调未来的研究机会。我们提出了人工智能伦理管理 (EMMA) 框架,重点关注三个方面:管理决策、伦理考量以及宏观和微观环境维度。通过 EMMA 框架,我们为研究人员提供了一个起点来解决人工智能伦理方面的管理问题。
人工智能已经在增强或取代人类应对复杂挑战的努力。它发出了 COVID-19 疫情的一些早期警报,帮助加速了疫苗的开发,并在恢复过程中发挥着越来越重要的作用。然而,进步也给个人和社会带来了风险。在某些情况下,人工智能的开发和使用会产生意想不到的后果,例如操纵行为、加剧不平等和偏见、极端主义和激进主义,或歧视性就业市场。在其他情况下,人工智能的部署带有先验恶意,例如传播虚假信息或劫持核心流程。
社会中的人工智能伦理 Emma Johnson* a、Eloy Parrilla a 和 Austin Burg b a 北卡罗来纳州立大学工程学院工业与系统工程系,北卡罗来纳州罗利市 b 北卡罗来纳州立大学工程学院计算机科学系,北卡罗来纳州罗利市 https://doi.org/10.33697/ajur.2023.070 学生:ekjohns3@ncsu.edu*、ehparril@ncsu.edu、acburg@ncsu.edu 导师:Chang S. Nam,csnam@ncsu.edu 摘要 随着新技术每天都向公众展示,并旨在将其融入社会,人工智能 (AI) 变得越来越普遍。然而,这些系统并不完美,并且已知会导致影响众多人的故障。本研究旨在探索人工智能在社会设计和实施过程中如何遵循道德准则。研究了三种伦理理论、九项人工智能伦理原则以及代理、行为、后果 (ADC) 模型,以分析涉及人工智能的失败。当系统未能遵循所列模型时,就会创建一套完善的道德原则。通过分析失败,我们了解了如何防止类似事件发生。此外,还展示了道德作为人工智能编程一部分的重要性,并提出了未来将道德纳入人工智能的建议。由于涉及人工智能的事件发生的性质,整篇论文都特别使用了“失败”一词。这些事件不一定是“意外”,因为人工智能本来就是以某种方式行动的,但这些事件也不是“故障”,因为人工智能示例内部并未受到损害。出于这些原因,使用了含义更广的术语“失败”。关键词 伦理;人工智能;代理-行为-后果 (ADC) 模型;人工智能原则;美德伦理;义务论;结果主义;人工智能系统 简介 人工智能 (AI) 在社会中越来越普遍。随着其影响力越来越大,了解如何避免 AI 缺陷对于未来开发高质量应用程序至关重要。详细介绍了与 AI 相关的三个当代失败和故障示例。分析了这些示例与 AI 中的伦理原则、三种伦理理论和代理行为后果模型 (ADC 模型) 的关系。讨论和分析将有助于更好地理解 AI 中的伦理,并提供有用的社会应用。在整个研究过程中,我们确定了每次故障是如何发生的,以及将来如何防止故障。提出了一个由多个步骤组成的系统,旨在确保人工智能系统保持合乎道德规范。希望这个模型能够让人们更好地理解人工智能犯错的原因,以便让知识带来更好的结果并防止人工智能故障。方法和程序 对集成人工智能的产品的需求日益增长。这种需求带来了确保人工智能行为合乎道德的需要。人工智能是一个无需直接人工输入即可运行并完成指定任务的系统。1,2 这九项原则也与三种伦理理论的各个方面有关。由于人工智能不具备与人类相同的道德和伦理能力,因此人工智能总是有可能无意中违反道德界限。为了确定人工智能的行为是否合乎道德,我们探索了三种用于确定人类道德的伦理理论:美德伦理学、义务论和结果主义。此外,我们还使用了 Dubljeviý 提出的九项人工智能伦理原则,即“公平和非歧视”、“隐私、安全和保障”、“人类对技术的控制”、“透明度和可解释性”、“问责制”、“促进人类价值观”、“职业责任”和“可持续发展”。2 使用这些指南,对三起人工智能失败进行了案例研究,详细说明了它们如何违反人工智能中的特定伦理原则。进行了分析,以展示如何使用 ADC 模型在未来避免类似事件。伦理理论 研究了三种用于评估情况的伦理和道德的著名伦理理论。这三种理论是美德伦理学、义务论和结果主义。
美国克拉克斯维尔奥斯汀佩伊州立大学计算机科学系。摘要本研究重点关注人工智能的伦理及其在美国的应用,本文强调了人工智能对美国经济各个部门和技术领域多个方面的影响,以及对企业、政府、学术界和民间社会实体产生的影响。由于这些实体开始依赖人工智能来完成各种关键任务,因此需要考虑道德问题,这些任务极大地影响了它们的运营、决策和相互之间的互动。因此,在人工智能的整个开发、部署和使用过程中,都需要采用道德原则、指导方针和工作标准,以确保负责任和合乎道德的人工智能实践。我们的讨论探讨了 11 项基本“道德原则”,这些原则被构建为总体主题。这些包括透明度、正义、公平、公平、不伤害、责任、问责、隐私、仁慈、自由、自主、信任、尊严、可持续性和团结。这些原则共同构成了一个指导框架,为美国各个部门和实体负责任地开发、部署和利用人工智能 (AI) 技术指明了道德方向。本文还讨论了机器学习等人工智能应用的革命性影响,并探讨了用于实施人工智能伦理的各种方法。这项审查对于解决与广泛使用人工智能相关的固有风险日益增长的担忧至关重要。关键词伦理、人工智能、机器学习、技术、伦理原则 1. 引言 自人工智能问世以来,已经开发出各种应用程序,这些应用程序有助于提高人类生产力并减轻人类的努力,从而实现高效的时间管理。人工智能已经帮助了企业、医疗保健、信息技术、银行、交通和机器人。“人工智能”一词是指使用机器(特别是计算机系统)重现人类智能过程[1]。人工智能使美利坚合众国能够更高效地运行,生产更清洁的产品,减少不利的环境影响,促进公共安全并改善人类健康。直到最近,有关“人工智能伦理”的讨论还仅限于学术机构和非营利组织。如果使用不当,人工智能可能会对人类和企业造成危险。目前,世界上最大的科技公司——微软、Facebook、Twitter、谷歌和其他几家财富 500 强公司——正在组建快速发展的团队,以解决因广泛收集、分析和使用大量数据而产生的道德问题,尤其是用于训练机器学习模型或人工智能的数据。大多数企业通过针对每个产品的临时谈判来解决数据和人工智能伦理问题,尽管
摘要 本文表明,当前人工智能 (AI) 的伦理指导文件和倡议往往以原则性伦理方法为主导。虽然这为该领域带来了价值,但也带来了一些风险,尤其是与这种伦理形式的抽象性有关,这使得它无法很好地处理和解决深层次的社会政治问题以及人工智能的物质影响。考虑到人工智能可能会进一步加剧现有的社会不平等和不公正,并导致环境破坏,这一点尤其成问题。为了应对当今人工智能伦理带来的这一挑战,本文建议用一种关注背景和关系的伦理方法来补充现有的原则性方法。它通过借鉴替代伦理理论来取代主流的原则性理论,尤其是关怀伦理或其他女权主义伦理方法。与此相关,它鼓励将社会科学和人文学科纳入人工智能的开发、部署和使用,以及人工智能伦理讨论和倡议中。本文提出了注重背景的伦理建议,并制定了一系列切实可行的建议来具体实施这一建议。
铭记《世界人权宣言》(1948 年)、国际人权框架文书,包括《关于难民地位的公约》(1951 年)、《就业和职业歧视公约》(1958 年)、《消除一切形式种族歧视国际公约》(1965 年)、《公民权利和政治权利国际公约》(1966 年)、《经济、社会及文化权利国际公约》(1966 年)、《消除对妇女一切形式歧视公约》(1979 年)、《儿童权利公约》(1989 年)、《残疾人权利公约》(2006 年)、《取缔教育歧视公约》(1960 年)、《保护和促进文化表现形式多样性公约》(2005 年),以及任何其他相关国际文书、建议和宣言,
我们很高兴地通知,澳大利亚迪肯大学的 Seng Wai Loke 教授将于下周三(2021 年 5 月 26 日)下午 1:30 至 2:30 通过 Microsoft Teams 向 TME4093 学生介绍“人工智能的数字伦理”讲座。本次活动也向所有 UNIMAS 教职员工和学生开放。请通过此链接预订参加他的讲座:https://forms.gle/xB4SaDBAYmC2SpmC7 通过他的个人资料页面了解 Seng Loke 教授:https://sites.google.com/site/sengwloke/home?authuser=0