人工智能 (AI) 和其他机器学习 (ML) 应用正日益渗透到我们生活的各个方面,医疗保健也不例外。除了新兴应用之外,AI 已经以多种方式得到应用,包括医学成像、解析和整理电子病历、优化护理轨迹、诊断、提高临床试验的入组率,甚至减少医疗错误 (1-4)。这不是一份详尽的清单;可以说,这些应用与医学领域本身一样多种多样且复杂。2018 年,纳菲尔德生物伦理委员会指出,由于 AI 在用于训练 ML 算法的数据集中重现偏见的方式,以及偏见可以“嵌入算法本身,反映 AI 开发人员的信念和偏见”的方式,AI 在医疗保健领域的使用可能存在问题 (2)。在本文中,我认为偏见是指对边缘群体有意识和无意识的负面情绪或看法,这种情绪或看法根源于历史歧视,会影响一个人的行为和思维方式。这些偏见及其对健康的负面影响已经在最近的 ImpactPro 研究等案例中得到体现,该研究发现纽约联合健康服务中心的一种算法未能以与白人患者相同的比例向黑人患者推荐复杂的健康需求计划 (5-6)。因此,医疗保健领域必须应对此类技术的普及,以纠正医疗保健系统中先前的不平等现象,这些不平等现象产生了人工智能技术目前正在重现的偏见数据 (4,7)。为此,医疗从业人员必须采取各种反偏见措施,例如隐性偏见培训、医学偏见教育和“换位思考”,并承担起 AI 技术监督者和合作者的责任。目前用于减少日常医疗互动中偏见的许多措施可以转移到 AI 中,尤其是当医疗从业人员对 ML 算法推荐的决策拥有最终决定权时。很难确定 AI 在医疗保健领域应用的通用规则,因为应用、用途和环境非常多样化,并且一直在发展。鉴于此,我将使用 ImpactPro 案例来说明 AI 对医疗保健的影响如何重申在提供医疗服务以更好地满足边缘化患者的健康需求时打击偏见的现有职责。我认为 ImpactPro 案例表明,医疗从业者有机会通过减少医院和医学研究中的偏见实践以及与边缘化社区建立信任来抵制 AI 算法中的偏见,最终目标是改善用于训练 AI 的数据,并更快地发现 AI 结果存在偏见的案例。这些途径也符合 AI 最佳实践的原则,例如《蒙特利尔人工智能负责任发展宣言》和人工智能高级专家组 (HLEG) 提出的原则。
在本文中,我们介绍了一种重工业中实用人工智能 (AI) 伦理的新方法,该方法是在欧盟 Horizons 2020 多合作伙伴项目的背景下开发的。我们首先回顾了工业 4.0 的概念,讨论了该概念的局限性,以及重工业的迭代分类的局限性,以形成一种实用的以人为本的伦理方法。然后,我们继续概述重工业的实际和潜在的人工智能伦理方法,表明当前强调广泛的高级原则的方法并不适合工业人工智能伦理。从那里,我们将自己的方法分为两部分。第一部分建议从头开始根据车间工人的时间和空间情况量身定制伦理,包括给出具体和不断发展的伦理建议。第二部分描述了伦理学家作为道德监督员的角色,他们沉浸在开发过程中,并在工业和技术 (tech) 开发伙伴之间进行解释。在介绍我们的方法时,我们大量借鉴了我们在项目用例中应用该方法的经验,作为可以做什么的例子。
Intersect,第 18 卷,第 1 期(2024) 基因组编辑的伦理与经济学 Srija Chaudhuri 都柏林上高中 摘要 体细胞改造和种系改造是可以对人体细胞进行的两种基因改造类型。体细胞改造已获得伦理批准,并正在以基因疗法的形式应用于医疗保健领域,治疗镰状细胞病等疾病。种系改造并未获得同样的批准,在某些国家的研究领域受到严格监管,多个国家完全禁止这种改造类型。种系编辑因不安全、不允许患者知情同意和提倡残疾歧视而受到批评。此外,如果种系编辑程序可用但并非每个人都能负担得起,那么患有遗传病可能成为经济状况较低的标志。无论如何,这种改造类型可以为患有无法治愈的遗传病的人提供一种方法来消除他们的后代可能遭受的痛苦。各国对生殖系编辑的统一监管,包括概述疾病治疗和性状增强之间的区别,对于避免通过司法套利滥用治疗至关重要。在这篇评论中,根据各国常见的高发单基因疾病数量和人均 GDP 对各国进行了分析,以确定哪些国家可能成为生殖系编辑利用的中心,用于临床测试和执行生殖系编辑程序的经济受益者。简介新的基因改造技术促成了新型医疗治疗的兴起。这些治疗包括修改体细胞(非生殖)和生殖细胞(生殖)人类细胞。虽然这些治疗方法的监管不同,并且仍然需要对其安全性和有效性进行测试,但使用基因改造作为治疗方法需要考虑的其他方面是改变人类基因或基因组是否合乎道德,以及各国基因改造监管的不一致将如何影响国际医疗保健行业。体细胞和生殖细胞基因改造可以进行两种类型的基因改造
•生物伦理学教育:强调生物伦理学在教育领域的重要性。•临终关怀:解决姑息治疗,临终关怀或生命终结决定中的道德考虑。•遗传学和基因组学:探索围绕遗传研究,基因编辑和个性化医学的道德问题。•AI和新兴技术:反思人工智能和/或医疗保健中其他新技术提出的道德挑战。•其他生物伦理主题:任何与生物伦理相关的主题都引起您的兴趣。欢迎所有艺术格式的提交格式数字或物理艺术品。用于数字提交,格式,包括但不限于JPG,PNG,PDF,MP3,WAV,WMA,MP4。艺术品必须是原始的,并且不得以前出版或展出。提交要求每个参与者只能提交一个条目。每个提交的内容应包括一个标题和简要说明,对艺术品背后的概念及其与所选主题的联系说明不超过100个单词。所有参与者,无论格式如何(数字或物理艺术品)都必须填写并提交签名的在线提交表(可在CUHK Bioethics网站上获得[此处])。
HAL 是一个多学科开放存取档案库,用于存放和传播科学研究文献,无论这些文献是否已出版。这些文献可能来自法国或国外的教学和研究机构,也可能来自公共或私人研究中心。
本章讨论了AI技术与专业行为的交集,探讨了律师和公司在采用和实施AI系统方面所面临的道德问题。通过研究AI集成在法律实践中的含义,本章旨在为法律专业提供维护道德规定所必需的知识和指导,同时利用AI的令人难以置信的力量。§28.02什么是人工智能?在充分了解AI工具和应用程序所带来的收益和潜在风险之前,首先需要了解AI的基础技术,包括机器学习,深度学习和生成AI的更先进技术。这些计算机科学术语通常是互换使用的,但是这些不同类型的AI系统的技术之间存在重要区别。
讨论负责人演讲:每周,两组3-4名学生将主持有关他们指定案件的讨论。学生团体将介绍20-25分钟,并监视讨论15-20分钟。案例研究材料将在画布上提供。此外,期望讨论负责人通过相关论文和/或新闻文章研究分配的案例。演示文稿应概述(i)背景信息,行为代码以及与提出的方案相关的政策(来自教科书); (ii)对场景提出的问题,想法和问题的描述; (iii)根据负责任的研究行为原则的解决方案; (iv)有关如何防止未来实践中的不当行为的见解。学生必须在演讲期间至少通过一种积极学习的形式吸引观众。
摘要:虽然人工智能可以作为研究的催化剂,利用数据分析和综合,但矛盾的是,它降低了那些缺乏科学诚信的人的界限,从而增加了抄袭事件。这强调了修补旨在评估文本相似性和引用完整性的强大软件工具的必要性,这些工具旨在保护科学伦理的核心原则。这些原则在学术旅程中得到了深刻的体现,最终为经验丰富的研究人员带来了全面的理解。作为回应,本研究提倡采取多样化的方法来提高学术界的研究伦理,通过提高认识、培养道德文化和坚持严格的科学标准。应该通过研讨会和论坛来解决这一问题,并结合对侵犯知识产权的严厉法律行动。关键词科学研究、科学伦理、人工智能、数字技术、科学诚信。
随着生成人工智能 (generative AI) 技术的快速发展,新工具不断涌入市场,其在教育、医疗保健等许多领域的应用也迅速增加。因此,伦理研究必须跟上这些发展的步伐,应对新的挑战。这样,人工智能才能造福社会,防止潜在的危害。本研究旨在确定生成人工智能使用中的伦理问题,突出突出的问题,并通过系统的文献综述提供概述。在 Scopus、Web of Science 和 ScienceDirect 数据库中进行了系统搜索,以检索研究生成人工智能伦理方面的文章,不受年份限制。搜索词为“生成人工智能”、“生成 AI”、“GenAI”或“GAI”,结合“伦理”、“道德”或“伦理”。研究是使用系统评价和荟萃分析的首选报告项目指南进行选择的。经过筛选过程,共有 43 篇文章被纳入审查。研究结果显示,所有被审查的文章都强调了“公正和公平”原则。被审查最少的道德原则是“团结”原则,它表达了社会或群体的团结,以及“尊严”原则,它意味着个人对自己和权利的价值感受。43 篇文章的作者主要来自美国(n = 31),其次是中国(n = 15)和英国(n = 13)。在审查的 43 篇文章中,有 41 篇提到了 ChatGPT,尽管只是作为一个例子。本研究回顾了有关生成式人工智能的道德使用的文献,并提出了挑战和解决方案。
本文为填补这一空白做出了一些尝试。首先,分析了学术界对全球南方国家对人工智能的看法,同时将其与全球北方国家的看法区分开来。本文对其进行了批判性分析,得出了四个“E”,表示全球南方国家对人工智能发展的威胁感知,即:提取主义、排斥、民族中心主义和执法。然后,本文对全球南方国家九个民族国家制定的人工智能政策进行了范围界定审查,即:阿根廷、巴西、智利、印度、印度尼西亚、马来西亚、毛里求斯、泰国和卡塔尔,以确定道德趋同。还强调了它们在特定国家解释中的细微差别。本文最后深入探讨了印度在与不断发展的全球数字秩序有关的关键问题上领导全球南方国家的追求。报告认为,支持以印度为主导的以发展为中心的人工智能治理模式可能最符合全球南方国家的利益。
