关于使用人工智能工具和系统的负责任的公开披露。有关人工智能使用的信息将向重型车辆行业、道路管理人员、其他道路使用者和澳大利亚公众提供和获取,以支持更好地了解人工智能何时使用以及如何做出决策(请注意,决策将由 NHVR 官员而不是系统本身做出)。
毫不夸张地说,人工智能正在我们的世界中得到越来越多的应用。尽管人工智能技术还远未发挥其全部潜力,但一些作家展望了遥远的未来,并设想了对人类的各种不同影响。约翰·丹纳赫(John Danaher,2019 年)讨论了人工智能对人类的一种特殊影响,捍卫了人工智能和机器人的崛起将“抑制我们的道德主体性并增加道德耐心的表达”(2019 年,第 133 页)这一论点。丹纳赫对此的论证是,我们的道德耐心的急剧增加将来自人工智能侵入人类道德主体性的三个重要领域:1)工作场所和就业,2)政治、法律和官僚决策,以及 3)休闲和个人活动。这些领域的入侵与机器人崛起的三种趋势相吻合。然而,我认为,丹纳赫基于第一种趋势的论证需要为以下假设提供支持:机器人将寻求某种接管(例如友好接管),以免激起人类的抵抗和行使我们的道德行动。此外,我认为,丹纳赫基于第三种趋势的论证需要为以下重要假设提供支持:大多数人都会屈服于过度依赖人工智能进行个人激励和决策的诱惑。
● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
然而,所有人工智能解决方案的全部有效性都受到算法无法向人类专家“解释”其结果以帮助回答为什么做出机器决策的限制,这是医学领域的一个大问题。最终,要达到可用的计算智能水平,我们不仅需要从先前数据中学习、提取知识、概括和对抗维数灾难,还需要解开数据的潜在解释因素(即在医学问题的背景下理解数据)。在医学领域,我们面临着复杂的挑战,特别是在任意高维空间中各种分布式和异构数据的集成、融合和映射。因此,我们必须考虑到不同的数据对相关结果的贡献。
机器人和人工智能 (AI) 系统的道德地位已成为规范研究中广泛争论的话题。然而,这场讨论主要集中在那些为社会功能而开发的系统上,例如社交机器人。鉴于社会与非社会机器的相互依存日益加深,研究如何将现有的规范性主张扩展到特定的混乱领域,如艺术行业,已变得势在必行。受到 Gunkel 和 Coeckelbergh 提出的将机器的道德地位建立在社会关系基础上的提议的启发,本研究提出了在线实验 (N 448),测试与人工智能生成的艺术作品的互动是否以及如何影响人们感知到的其创作者(即人工智能生成系统)的道德地位。我们的结果表明,评估人工智能系统是否缺乏心智可能会影响人们随后对人工智能生成的艺术作品的评价。我们还发现,对人工智能生成的图像的高估可能会对其创作者感知到的能动性产生负面影响。然而,我们的实验并未表明与人工智能生成的艺术作品互动对机器的道德地位有任何显著影响。这些发现表明,人工智能权利的社会关系方法可能与基于财产的道德地位论点交织在一起。我们通过揭示公众对这一问题的看法,阐明了实证研究如何为人工智能和机器人权利辩论做出贡献。
在人工智能 (AI) 所带来的伦理困境挑战的背景下,从人工智能系统的偏见 (Lee, 2018) 到对人类判断的操纵 (Henriksen, 2019),美德伦理学被理解为一种规范伦理学的方法,它强调道德品格,与强调责任和规则 (义务论) 或行为后果 (结果主义) (Carr, 2008; Hursthouse, 2017) 的方法相反,在有关人工智能对社会影响的辩论中变得越来越重要。美德伦理受到关注,因为当前的高等教育似乎未能培养职业道德和社会责任技能(Chang, Shih, & Chang, 2020),道德准则并不是计算道德典范中道德行为的驱动力(Huff & Furchert, 2014),开发人员对各种道德准则中规定的原则的遵守情况很差(McNamara, Smith, & Murphy-Hill, 2018)。虽然从宣扬规则转向注重培养开发人员的性格倾向和道德态度是一个明智的建议(Harris, 2008),但如何遵循它并不简单,无论是对于教育者还是学习者来说。我们相信,通过整合计算机科学、道德心理学和发展以及教育学的知识和经验,跨学科方法可以提供一种“扩大行动范围、发现盲点、促进自主和自由以及培养自我责任感”的方法(Hagendorff,2020 年),即对道德行为进行培训,理解为在任何情况下习惯性地应用道德原则(Treviño、Weaver 和 Reynolds,2006 年)(例如,在涉及个人数据的数据挖掘活动中定期记录匿名化程序)。
Yip 等人 (2023) 发表的一篇文章描述了医疗机器人中的人工智能应用如何开启医学的新时代。在康复设备和高级假肢领域,人工智能有望提供个性化帮助、增强功能并促进移动性。机器人技术、医学、材料科学和计算领域的显著进步将彻底改变患者护理,并有可能在未来提供更安全、更有效、更易于获得的治疗选择 (Yip 等人,2023)。然而,以色列使用人工智能的案例让我们反思医疗机器人人工智能将采用的参数,以减轻重大伦理冲突的可能性,更严重的是,患者生命的暴露,包括无法决定自己生命进程的患者,例如儿童、一些老年人和处于无意识状态的人。
[Abdurahman 20] Abdurahman, JK:论人工智能伦理的道德崩溃,Medium,https://upfromthecracks。 medium.com/on-the-moral-collapse-of-ai-ethics-791cbc7df872 (2020) [Ahmed 20] Ahmed, S., et al.: 检查估计肾小球滤过率计算中种族乘数利用率对非裔美国人护理结果的潜在影响, J. Gen. Intern Med., https://doi.org/10.1007/s11606-020-06280-5 (2020) [Aisch 17] Aisch, G., Buchanan, L., Cox, A. 和 Quealy, K.: 有些大学的前 1% 学生比后 60% 学生还多,找出你的大学,《纽约时报》,https://www. nytimes.com/interactive/2017/01/18/upshot/some- colleges-have-more-students-from-the-top-1- percent-than-the-bottom-60.html ( 2017 ) [Buolamwini 18] Buolamwini, J. 和 Gebru, T.: Gender Shades: 商业性别分类中的交叉准确度差异, Proc. of Machine Learning Research, 81:1-15, 2018 Conf.公平性、问责制和透明度,https://www.media.mit.edu/publications/gender-shades-intersectional-accuracy-disparities-in-commercial-gender-classification/ (2018 年) [Dand 20] Dand,M.:AI 伦理守门人的责任在哪里?, Medium,https://miad.medium.com/where-is-the-accountability-for-ai-ethics-gatekeepers-e696b8a80e62 (2020 年)
为确保及时接种疫苗,许多国家和地方当局已制定了新冠疫苗分发计划,确定了优先接种人群和实施阶段 [ 2 ]。世界卫生组织 (WHO) 发布了由 SAGE (战略咨询专家组) 认可的新冠疫苗分配和优先排序价值框架和路线图,与确保所有国家迅速和公平获得新冠疫苗的全球倡议 COVAX 保持一致 [ 3 ]。然而,疫苗的实地分发面临着前所未有的技术难题,例如供应有限、持续时间不明确、双重注射、特殊物流要求等。[ 3 ]。尽管各国和国际组织认识到疫苗分配决策的核心因素是科学性和伦理性[2-4],但传统的静态决策模型在应对这一复杂情况方面存在许多不足。首先,决策过程涉及多个维度,例如国际合作机制的目标和原则、国家和地方计划以及规划活动的范围(世卫组织列出了10项活动,包括规划和协调、预算、监管、优先排序、服务、培训等)[5]。其次,决策过程中存在不确定因素,例如有关病毒的一些关键问题仍不清楚,包括疫苗的有效性和持续时间,以及正在开发的候选疫苗将如何进展。第三,决策过程的整体流行病学背景 [ 4 ] 不断变化,因此尚未完全了解。此外,疫苗的部署及其对流行病学状况的影响是动态的,需要实时了解。
人工智能 (AI) 中的伦理意义不容小觑,因为它涵盖了指导负责任地创建、部署和管理 AI 技术的基本原则。随着 AI 系统日益渗透到我们生活的方方面面(从医疗保健和教育到安全和娱乐),它们的决策和行动不仅对个人权利和隐私,而且对社会规范和价值观也具有深远影响。AI 中的伦理考量至关重要,以确保这些技术能够增进人类福祉、维护公平和保护自由,而不是延续偏见、加剧不平等或破坏民主制度。AI 伦理的重要性在于它能够提供一个框架来应对 AI 带来的复杂道德困境,例如创新与监管之间的平衡、保护个人隐私与大数据的好处以及防止滥用 AI。通过突出伦理原则,利益相关者(包括开发人员、政策制定者和用户)可以努力开发不仅技术先进而且对社会负责并符合人类价值观的 AI 技术。这种对道德的重视确保了当人工智能系统变得更加自主和成为我们日常生活不可或缺的一部分时,它们会以透明、负责和包容的方式实现这一目标,从而增强人们对其广泛采用和使用的信任和信心。