摘要 近年来,技术系统的伦理问题已成为学术研究和国际政策关注的领域。一些组织因此发布了符合这一趋势的道德人工智能 (AI) 原则。这些文件确定了 AI 开发和部署的原则、价值观和其他抽象要求。批评者对这些文件是否具有建设性,或者它们是否是作为更高形式的美德信号而产生的担忧。在有关这些文件的学术文献中,一个开始显现的主题是,缺乏产生道德 AI 的有效和实用的方法和流程。本文试图从公司、组织、政府和学术角度等一系列背景出发,对道德 AI 文件进行批判性分析。我们探索和分析了人工智能指南的理论和实践部分,从而揭示了在这些文件中引入可衡量部分的必要性,以确保基于道德原则部署人工智能系统取得积极成果。我们为利益相关者提出了一个最低限度的框架,以道德和以人为本的方式开发人工智能。
人工智能 (AI) 应用是数字农业不可或缺的新兴组成部分。人工智能可以通过增强农业运营和决策来帮助确保农业的可持续生产。有关土壤状况和杀虫剂的建议或用于挤奶和采摘苹果的自动设备是人工智能在数字农业中应用的例子。尽管人工智能在农业中提供了许多好处,但人工智能系统可能会引发道德问题和风险,应进行评估和主动管理。智能系统的设计和配置不当可能会对数字农业造成危害和意想不到的后果。侵犯农民隐私、机器人技术损害动物福利以及对使用人工智能工具导致的问题缺乏问责制只是数字农业中道德挑战的一些例子。本文从公平性、透明度、问责制、可持续性、隐私和稳健性六个方面研究了人工智能在农业中的应用所面临的道德挑战。本研究进一步为农业技术提供商 (ATP) 和政策制定者提供了建议,说明如何主动缓解农业中使用人工智能可能产生的道德问题。这些建议涵盖了广泛的道德考虑,例如解决农民的隐私问题、确保可靠的人工智能性能、增强人工智能系统的可持续性以及减少人工智能偏见。
相关价值观、原则及其权重。换句话说,向患者提供解释和证明该决定的理由。为了使人工智能在临床伦理学中的使用具有伦理合理性,它应该提高伦理决策的透明度和准确性,超越医生和伦理委员会目前能够提供的水平。Meier 及其同事 (2022) 提出的人工智能具有提高伦理决策透明度的惊人潜力,至少如果它被用作决策辅助工具而不是决策替代品 (Savulescu & Maslen 2015)。虽然人工智能本身不能参与向患者证明其决策合理性的人类交流过程,但他们描述的人工智能(与“黑箱”人工智能不同)明确说明了涉及哪些价值观和原则以及它们被赋予了多大的权重。相比之下,人类道德直觉背后的道德原则或价值观并不总是有意识地、内省地可及的(Cushman、Young 和 Hauser 2006)。虽然人类有时对与他们的道德判断相关的一些因素有一种模糊的直觉感,但我们往往有强烈的道德直觉,但不确定它们的来源,也不清楚不同因素在产生直觉方面发挥了多大作用。但如果临床医生利用人工智能作为决策辅助工具,这可以帮助他们透明而准确地传达他们决策背后的实际原因。即使人工智能的建议最终被拒绝,情况也是如此。例如,假设人工智能以一定的信心推荐了一个行动方案,并且它在得出这一结论时指定了它为自主性与仁慈赋予的确切价值或权重
人工智能 (AI) 在人力资源 (HR) 中的应用正在迅速增加。据估计,在人力资源职能中以某种方式使用人工智能的组织数量高达 88% (Mercer,2019 年)。由于人工智能与现代数字技术的结合,人才评估尤其处于发展的早期阶段——这种结合有望增强对员工结果的预测、减少歧视并提供更具吸引力的候选人体验。然而,关于使用人工智能评估人才仍然存在不确定性,因为它与传统方法和程序的兼容性尚不清楚,而且法律法规正在缓慢发展。因此,旨在成功利用人工智能进行人才评估的人力资源职能部门将受益于专家指导,以应对这一复杂而不断变化的形势。本文件旨在提供有关
盟国之间负责任且合乎道德的军事人工智能非常重要,因为政策协调可以提高理论、程序、法律框架和技术实施措施的互操作性。不仅要就军队采用技术的以人为本达成一致,还要就问责制和道德原则如何融入人工智能的设计、开发、部署和传播达成一致,这有助于加强战略民主优势。相反,盟国军队之间的道德差距可能会带来危险的后果,危及政治凝聚力和联盟的成功。更具体地说,如果盟国不能就军事人工智能的责任和风险分析达成一致,那么在分担联盟行动风险的政治意愿和并肩作战的授权方面可能会出现差距。
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
在像 covid-19 大流行这样的危机中,政府和卫生服务部门必须迅速果断地采取行动,阻止疾病的传播。人工智能 (AI),在这种情况下主要意味着越来越强大的数据驱动算法,可以成为这一行动的重要组成部分——例如,通过帮助追踪病毒的进展或优先考虑稀缺资源。1 为了拯救生命,快速大规模地部署这些技术可能很有吸引力。然而,人工智能的部署会影响广泛的基本价值观,例如自主权、隐私和公平性。如果委托、设计和部署人工智能的人从一开始就采取系统的道德方法,即使在紧急情况下,人工智能也更有可能带来好处。道德是关于以原则性的方式考虑一项行动的潜在危害和好处。对于广泛部署的技术,这将奠定可信度的基础。合乎道德的部署需要广泛而公开地进行咨询;深入而广泛地思考潜在影响;并且保持透明
在新冠疫情这样的危机中,政府和卫生服务部门必须迅速果断地采取行动,阻止疾病的传播。人工智能(AI)在这种背景下主要意味着越来越强大的数据驱动算法,它可以成为这一行动的重要组成部分——例如,通过帮助追踪病毒的进展或优先利用稀缺资源。1 为了拯救生命,人们可能倾向于快速大规模地部署这些技术。然而,人工智能的部署会影响一系列基本价值观,如自主权、隐私和公平。如果那些委托、设计和部署人工智能的人从一开始就采取系统的道德方法,那么即使在紧急情况下,人工智能也更有可能发挥作用。道德是关于以原则性的方式考虑某一行为的潜在危害和好处。对于一项广泛部署的技术,这将奠定可信度的基础。道德部署需要广泛而公开地进行咨询;深入而广泛地思考潜在影响;并保持透明
数据塑造了我们目前所知的人工智能 (AI) 的发展,多年来,集中式网络基础设施主导着这些数据的来源和后续使用。研究表明,集中式方法的表示效果不佳,而随着人工智能现在越来越多地融入日常生活,需要努力改进这一点。人工智能研究界已开始探索以更民主的方式管理数据基础设施,发现分散式网络可以实现更高的透明度,从而可以缓解选择偏差等核心伦理问题。考虑到这一点,我们在此围绕人工智能中的数据表示和数据基础设施进行了一项小型调查。我们概述了与数据驱动人工智能相关的四个关键考虑因素(审计、基准测试、信心和信任、可解释性和可解释性),并提出对它们的反思以及改进的跨学科讨论可能有助于缓解基于数据的人工智能伦理问题,并最终改善与人工智能交互时的个人福祉。
1.1 智能系统 AI 是计算机科学、心理学和哲学的结合。简而言之,我们可以将 AI 定义为使计算机智能地做事的研究 程序必须具备的能力 AI 程序必须具备的能力和智能特征,如学习、推理、接口以及接收和理解信息。对 AI 的理解 对相关术语的理解 智能、知识、推理、认知、学习和许多其他计算机相关术语。显示依赖于复杂问题,一般原则对这些问题没有多大帮助,尽管有一些有用的一般原则。对 AI 的第一种观点是,AI 是关于复制人脑所做的事情 第二种观点是,AI 是关于复制人脑应该做的事情 即合乎逻辑或理性地做事 ELIZA 这里简要提到了它的主要特征:智能模拟 响应质量 连贯性 语义 ELIZA 是一个用英语与用户对话的程序,就像 iPhone 中的 siri 一样。智能系统的分类为了设计智能系统,对这些系统进行分类非常重要 此类系统可能分为四种类别。