2024 年 4 月由 FSMB 众议院通过 执行摘要 人工智能 (AI) 具有巨大潜力,可帮助医疗保健提供者进行诊断、治疗选择、临床记录和其他任务,以提高质量、可及性和效率。但是,如果没有适当的“护栏”和理解,这些技术就会带来风险,这可能会影响临床实践中的考虑因素以及州医疗委员会的监管流程。通过采取以道德原则为基础的主动和标准化治理方法,州医疗委员会可以促进各种形式的人工智能的安全有效整合,同时优先考虑患者的健康。本报告总结了专家意见和程序,以制定 FSMB 道德和专业委员会的指导方针,以帮助医生和州医疗委员会引导负责任和合乎道德的人工智能融入,重点是 (1) 教育、(2) 强调人类责任、(3) 确保知情同意和数据隐私、(4) 主动解决责任和义务问题、(5) 与专家合作以及 (6) 将人工智能治理锚定在道德原则上。必须持续监控和改进使用人工智能的临床系统和流程。这不应在真空中进行,而应成为医生、卫生系统、数据科学家和监管机构(包括州医疗委员会)之间协作的重点。通过深思熟虑地应对人工智能在医疗保健领域带来的机遇和挑战,州医疗委员会可以促进人工智能的安全、有效和合乎道德的使用,将其作为一种工具来增强(但通常不会取代)医疗实践中人类的判断力和责任感。在履行其使命以确保患者从人工智能的应用中受益而不是受到伤害的过程中,州医疗委员会必须避免过度监管和监管过度,避免试图监管不属于其职权范围的领域。通过集中精力关注持照人使用人工智能的现状和未来,州医疗委员会可以保持监管效率,实现跨辖区在临床实践中对人工智能监管的一致性,帮助确保人工智能的益处,并在维护专业标准的同时积极保护患者。
简介 作为一家集成人工智能 (AI) 的客户体验 (CX) 自动化产品的提供商,Verint 致力于确保其解决方案不仅能为我们的客户带来可观的投资回报,还能以合乎道德、负责任的方式利用人工智能。 Verint 开放平台以数据和人工智能为核心,拥有一流的应用程序和人工智能机器人,可自动执行影响 CX 成本和质量的广泛功能。 本文档重点介绍我们的人工智能战略、我们在执行该战略时遵循的原则以及我们为指导我们使用人工智能而制定的流程、控制和指南。 Verint 人工智能战略 Verint Da Vinci™ AI 是 Verint 开放平台的核心,为客户每天使用的应用程序提供支持。 为了跟上人工智能行业的快速创新步伐,Verint 的人工智能模型开发是一种开放式方法,该战略融合了专有模型和第三方模型。 我们对人工智能的开放态度意味着客户可以对长期投资 Verint Da Vinci AI 充满信心。
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
在像 covid-19 大流行这样的危机中,政府和卫生服务部门必须迅速果断地采取行动,阻止疾病的传播。人工智能 (AI),在这种情况下主要意味着越来越强大的数据驱动算法,可以成为这一行动的重要组成部分——例如,通过帮助追踪病毒的进展或优先考虑稀缺资源。1 为了拯救生命,快速大规模地部署这些技术可能很有吸引力。然而,人工智能的部署会影响广泛的基本价值观,例如自主权、隐私和公平性。如果委托、设计和部署人工智能的人从一开始就采取系统的道德方法,即使在紧急情况下,人工智能也更有可能带来好处。道德是关于以原则性的方式考虑一项行动的潜在危害和好处。对于广泛部署的技术,这将奠定可信度的基础。合乎道德的部署需要广泛而公开地进行咨询;深入而广泛地思考潜在影响;并且保持透明
4.1 使用人工智能工具的输出而未给予适当认可将构成学术不端行为。学生应与教学人员确认评估要求,或向课程协调员、学生支持服务或图书馆寻求有关如何认可人工智能工具输出的建议。
盟国之间负责任且合乎道德的军事人工智能非常重要,因为政策协调可以提高理论、程序、法律框架和技术实施措施的互操作性。不仅要就军队采用技术的以人为本达成一致,还要就问责制和道德原则如何融入人工智能的设计、开发、部署和传播达成一致,这有助于加强战略民主优势。相反,盟国军队之间的道德差距可能会带来危险的后果,危及政治凝聚力和联盟的成功。更具体地说,如果盟国不能就军事人工智能的责任和风险分析达成一致,那么在分担联盟行动风险的政治意愿和并肩作战的授权方面可能会出现差距。
人工智能 (AI) 在人力资源 (HR) 中的应用正在迅速增加。据估计,在人力资源职能中以某种方式使用人工智能的组织数量高达 88% (Mercer,2019 年)。由于人工智能与现代数字技术的结合,人才评估尤其处于发展的早期阶段——这种结合有望增强对员工结果的预测、减少歧视并提供更具吸引力的候选人体验。然而,关于使用人工智能评估人才仍然存在不确定性,因为它与传统方法和程序的兼容性尚不清楚,而且法律法规正在缓慢发展。因此,旨在成功利用人工智能进行人才评估的人力资源职能部门将受益于专家指导,以应对这一复杂而不断变化的形势。本文件旨在提供有关
相关价值观、原则及其权重。换句话说,向患者提供解释和证明该决定的理由。为了使人工智能在临床伦理学中的使用具有伦理合理性,它应该提高伦理决策的透明度和准确性,超越医生和伦理委员会目前能够提供的水平。Meier 及其同事 (2022) 提出的人工智能具有提高伦理决策透明度的惊人潜力,至少如果它被用作决策辅助工具而不是决策替代品 (Savulescu & Maslen 2015)。虽然人工智能本身不能参与向患者证明其决策合理性的人类交流过程,但他们描述的人工智能(与“黑箱”人工智能不同)明确说明了涉及哪些价值观和原则以及它们被赋予了多大的权重。相比之下,人类道德直觉背后的道德原则或价值观并不总是有意识地、内省地可及的(Cushman、Young 和 Hauser 2006)。虽然人类有时对与他们的道德判断相关的一些因素有一种模糊的直觉感,但我们往往有强烈的道德直觉,但不确定它们的来源,也不清楚不同因素在产生直觉方面发挥了多大作用。但如果临床医生利用人工智能作为决策辅助工具,这可以帮助他们透明而准确地传达他们决策背后的实际原因。即使人工智能的建议最终被拒绝,情况也是如此。例如,假设人工智能以一定的信心推荐了一个行动方案,并且它在得出这一结论时指定了它为自主性与仁慈赋予的确切价值或权重
在新冠疫情这样的危机中,政府和卫生服务部门必须迅速果断地采取行动,阻止疾病的传播。人工智能(AI)在这种背景下主要意味着越来越强大的数据驱动算法,它可以成为这一行动的重要组成部分——例如,通过帮助追踪病毒的进展或优先利用稀缺资源。1 为了拯救生命,人们可能倾向于快速大规模地部署这些技术。然而,人工智能的部署会影响一系列基本价值观,如自主权、隐私和公平。如果那些委托、设计和部署人工智能的人从一开始就采取系统的道德方法,那么即使在紧急情况下,人工智能也更有可能发挥作用。道德是关于以原则性的方式考虑某一行为的潜在危害和好处。对于一项广泛部署的技术,这将奠定可信度的基础。道德部署需要广泛而公开地进行咨询;深入而广泛地思考潜在影响;并保持透明
与此同时,在社交媒体和互联网上任何人都可以发布信息、信息可以即时传播的世界里,有关移民的虚假新闻或错误信息的泛滥和传播速度加快,已成为一个重大问题。问题还因错误信息的传播速度比准确信息更快而加剧,而且识别信息来源和核实其准确性变得越来越困难。