基于人工智能(AI)的技术已经取得了许多伟大的成就,例如面部识别、医疗诊断和自动驾驶汽车。人工智能有望为经济增长、社会发展以及人类福祉和安全改善带来巨大好处。然而,基于人工智能的技术的低可解释性、数据偏见、数据安全、数据隐私和道德问题对用户、开发者、人类和社会构成了重大风险。随着人工智能的发展,一个关键问题是如何应对与人工智能相关的伦理和道德挑战。尽管“机器伦理”的概念在 2006 年左右提出,但人工智能伦理仍处于起步阶段。人工智能伦理是与人工智能伦理问题研究相关的领域。要解决人工智能伦理问题,需要考虑人工智能的伦理以及如何构建合乎道德的人工智能。人工智能伦理学研究与人工智能相关的伦理原则、规则、指导方针、政策和法规。合乎道德的人工智能是一种行为和行为合乎道德的人工智能。必须认识和理解人工智能可能引起的潜在伦理和道德问题,才能制定必要的人工智能伦理原则、规则、指导方针、政策和法规(即人工智能伦理)。有了适当的人工智能伦理,就可以构建表现出道德行为的人工智能(即合乎道德的人工智能)。本文将通过研究人工智能伦理和合乎道德的人工智能来讨论人工智能伦理。人们认为人工智能存在哪些伦理和道德问题?哪些一般和常见的伦理原则、规则、指导方针、政策和法规可以解决或至少减轻人工智能的这些伦理和道德问题?道德人工智能需要具备哪些特征和特点?如何坚守人工智能伦理,打造道德人工智能?
A. 政策和程序 虽然允许公平和合乎道德地使用人工智能 (AI),但必须负责任地使用它。本政策概述了适当和合乎道德地使用人工智能技术的指导方针,旨在促进负责任的使用、确保数据隐私和安全以及维护学术诚信。它适用于旅游学院 (ITS) 的所有学生、教师、员工和附属机构,他们使用人工智能技术进行学术研究、行政任务或任何其他目的,无论是在 ITS 场所内还是附属活动中。
如果以合乎道德的方式恰当使用,人工智能应用有潜力支持学生的学习和发展。但是,不恰当的依赖可能会成为学生学习的障碍,并可能导致学术诚信违规。机构领导、教职员工和学生需要反思这些应用的适当使用和不适当使用之间的区别。机构及其员工应为其领导、教职员工和学生制定有效的指导,明确概述这些应用的合乎道德、透明使用的责任。
联合国教科文组织《人工智能伦理建议》旨在为合乎道德地使用人工智能提供一套标准和原则。我们认为,对人工智能采取合乎道德、负责任的态度至关重要。人工智能伦理是我们讨论的重要部分。我们不一定认为伦理是人工智能环境中需要衡量的一个组成部分,而是一套原则。这些原则可能因当地情况而异。在收集和使用数据以及构建和实施人工智能方面,这些原则需要指导政府、私营部门和学术界。我们相信,联合国教科文组织的建议为制定这些原则奠定了良好的基础。
摘要虽然教育人工智能 (AIED) 研究的核心是希望支持学生学习,但其他 AI 领域的经验表明,这种道德意图本身是不够的。还需要明确考虑公平、问责、透明度、偏见、自主性、代理和包容性等问题。在更一般的层面上,还需要区分做合乎道德的事情和做合乎道德的事情,理解并做出合乎道德的教学选择,并考虑到始终存在的意外后果的可能性。然而,解决这些问题和相关问题绝非易事。作为解决这一关键差距的第一步,我们邀请了 60 位 AIED 社区的顶尖研究人员回答有关道德和 AI 在教育环境中的应用的问题调查。在本文中,我们首先介绍 AI 在教育中的伦理问题。接下来,我们总结了 17 位受访者的贡献,并讨论了他们提出的复杂问题。具体成果包括认识到大多数 AIED 研究人员没有接受过解决新出现的道德问题的培训。在此背景下,一个结合多学科方法和一套强有力的指导方针的、精心设计的涉及 AIED 伦理的框架似乎至关重要。
工程是数学和科学的实际应用。因此,它负责将当前的知识转化为实际应用。对于人工智能系统,工程师有责任以安全和合乎道德的方式开发和实施该技术。实施人工智能系统和产品的工程师、开发人员和公司需要以合乎道德的方式开展工作,并对自己的工作负责。这一责任意味着开发人工智能的人不能依赖“谨慎使用”之类的免责声明来为自己开脱;这在与社会弱势群体打交道时尤为重要。通过负责任地利用人工智能的潜力并深入了解其领域,工程师可以分享该职业的未来以及人工智能的使用对社区产生积极影响。
使用人工智能 (AI) 进行面部识别已成为一种无处不在的技术,在现代世界中有着众多应用。该技术涉及通过算法和机器学习技术分析和识别数字图像或视频片段中的人脸。此过程涉及人脸检测、人脸对齐、特征提取和人脸匹配。虽然面部识别技术具有许多好处,例如增强安全性和简化识别流程,但人们也担心其潜在的滥用、侵犯隐私和偏见。因此,必须负责任地使用面部识别技术并在适当的监督下确保其用于合乎道德的目的。本文概述了使用人工智能进行面部识别、其优缺点以及合乎道德地使用它的重要性。