将人工智能(AI)和先进技术纳入医疗保健,为改善患者预后和优化护理提供提供了变革潜力。但是,这种整合还引入了重大的道德挑战,需要仔细考虑。本评论探讨了采用AI和其他技术创新的道德维度,强调关键领域,例如算法偏见,数据隐私,知情同意,公平的护理以及建立有效的监管框架。它强调了透明的AI系统的需求,以在医疗专业人员和护理人员之间建立信任,并强调应对健康的社会决定因素,以促进公平的结果。该评论研究了新兴的隐私保护技术,包括联合学习和区块链,作为提高数据安全性的有希望的方法,同时促进跨医疗保健系统的有效数据共享。它还强调了跨学科合作的重要性,例如政策制定者,临床医生和技术开发商,以制定综合策略来驾驶这些道德挑战。最终,尽管AI和先进的技术具有彻底改变医疗保健的巨大潜力,但有效地解决了他们提出的道德问题至关重要。优先考虑问责制,透明度和股权将使利益相关者负责任地利用这些创新,确保受到保护并促进更具包容性和公平的医疗保健系统。
为了加强教育领域人工智能的道德框架,该研究所鼓励政府和民间社会积极采取措施,确保学习者、教育工作者和社会所有成员对人工智能及其道德影响有深入的了解。知情的用户将能够更好地充分利用人工智能,同时认真防范其风险,尽管教育领域人工智能的道德框架并不要求事先了解人工智能,但对人工智能的深入了解将有助于明智地使用该框架。许多国家已经在实现这一目标方面取得了进展。例如,英国的人工智能路线图敦促政府致力于实现人工智能和数据素养的雄心勃勃的目标。
Illumina 致力于通过释放基因组的力量来改善人类健康。这一使命驱动着我们所做的一切,包括我们开发的技术。Illumina 创建并使用人工智能 (AI) 系统来提供行业领先的测序质量、推动数据洞察、提高对与健康和疾病相关的基因组变异的理解并推动基因组科学的发展。我们将 AI 系统定义为包括机器学习、深度学习和预测模型。Illumina 致力于根据适用法律和以下指导原则开发和使用人工智能 (AI): 透明度 我们开发的 AI 系统力求可解释和可解读。多样性、非歧视和公平性 我们支持 AI 系统整个生命周期的多样性和包容性,并促进高质量、通用的基因组和医疗保健数据集的创建和可访问性。价值驱动设计 我们设计的人工智能系统进一步实现了我们通过释放基因组的力量来改善人类健康的使命,并反映了我们的价值观,包括高标准的科学卓越性和诚信、负责任的数据管理以及我们的隐私原则、行为准则和人权承诺中所述的价值观。问责制 我们为我们开发的人工智能系统创建了明确的用例,并实施了适当的质量控制和安全措施。我们致力于在我们的人工智能系统中建立人工监督点,并为使用或受我们人工智能系统影响的个人和团体提供反馈机会。
随着机器翻译 (MT) 的普及以及翻译文本准备和后期编辑等子任务的出现,人工智能 (AI) 和机器学习技术对语言中介市场产生了影响。到目前为止,机器口译对口译行业的影响还不如机器翻译对翻译行业的影响那么大。然而,技术进步并未止步于此,如今全自动机器翻译和基于人工智能的计算机辅助口译 (CAI) 工具在口译行业中越来越普遍。然而,在口译中使用人工智能和大数据在数据保护和保密方面引发了一些道德问题。最早提到机器翻译可以追溯到 20 世纪 30 年代。尽管历史悠久,但翻译研究中很少讨论机器翻译中的伦理问题,据我们所知,口译研究中根本没有讨论过这些问题。本文首先研究了人工智能如何用于口译以及现有的各种工具,然后讨论了人工智能的使用(尤其是用于口译)所引发的伦理问题。
子部分 A — 一般规定 § 2635.101 公职人员的基本义务。(a) 公职人员是公众的信任。每位员工都有责任对美国政府及其公民忠诚,将对宪法、法律和道德原则的忠诚置于私利之上。为确保每位公民都能完全信任联邦政府的诚信,每位员工都应尊重并遵守本节规定的道德行为原则以及本部分和补充机构法规中包含的实施标准。(b) 一般原则。以下一般原则适用于每位员工,并可作为本部分所含标准的基础。如果某种情况不在本部分规定的标准范围内,员工应应用本节规定的原则来确定其行为是否得当。(1) 公共服务是公众的信任,要求员工将对宪法、法律和道德原则的忠诚置于私利之上。(2) 员工不得持有与尽职尽责相冲突的经济利益。(3) 员工不得利用非公开的政府信息从事金融交易,或允许不当使用此类信息来谋取任何私人利益。(4) 除本部分 B 分部允许的情况外,员工不得向任何寻求官方行动、与其有业务往来或开展受员工机构监管的活动的个人或实体索取或接受任何礼物或其他有金钱价值的物品,或其利益可能因员工履行或不履行职责而受到重大影响。(5) 员工应在履行职责时付出诚实的努力。(6) 员工不得故意作出任何未经授权的承诺或许诺,以约束政府。(7) 员工不得利用公职谋取私利。
2024年10月8日人工智能(AI)迅速获得了受欢迎程度,可访问性和适用性。持续的技术进步和快速同化大量数据的需求可能会加速AI的采用。尽管AI有希望的好处,但以安全有负责任的方式实施它,却带来了许多挑战。这对于遇到与标准统计实践不同的问题的统计从业人员尤其重要。例如,AI应用程序依赖于巨大的数据集,这些数据集通常以可能损害其完整性的方式收集,从而对数据的准确性和可靠性产生了不确定性。此外,AI应用中使用的模型与传统的统计模型实质上不同,该模型具有数十亿个参数和过度拟合的高风险,需要新颖和非标准的评估方法。此外,经常部署在自主系统中的AI应用程序比典型的统计模型更直接地与世界交互,因此影响决策过程的潜力更大。结果,ASA向统计从业人员提供了以下道德考虑,以开发和使用AI。ASA统计实践的道德准则(2022)将“统计实践”描述为包括设计,汇总,处理,分析,解释或介绍数据以及模型或算法开发和部署的活动,该活动也适用于AI的使用。ASA认为可信度应该是道德AI框架的总体目标。值得信赖的AI的特征包括解释性,公平性,隐私,安全性,可靠性,有效性,以人为本的人(优先考虑人类的价值观和福祉),人为循环(确保人类的监督纳入AI决策中)以及责任。为了接受这些特征,我们将重点放在责任制,透明度和公平性作为指导原则上。这些原则可以作为伦理发展和使用AI的成员和其他统计从业人员的指南,并帮助维持公众对统计从业人员对这些系统的贡献的信任。问责制原则:统计从业人员及其组织应能够审核和证明他们使用或帮助开发的AI系统。
捡起艾伦·图灵(Alan Turing)的遗产,他在1950年问自己一个问题:“机器可以认为吗?” proposing the test named after him and first coined in 1956 at the Dartmouth Summer Research Project on Artificial Intelligence, a seminal event for artificial intelligence as a field where a group of sci- entists set out to teach machines to use language, form concepts, self-improve, and solve problems originally reserved for humans [1, 2], Artificial In- telligence (AI) is a field of computer science aimed at creating algorithms and systems capable of mim-嘲笑人类的认知功能[3,4]。经过几次草案和修订,欧洲议会于2024年3月13日批准了《 AI法案》的最终文本,成为世界上第一个试图制定明确规则并禁止开发一个