人工智能正在全球范围内掀起教育变革浪潮,各国纷纷出台战略规划,将人工智能纳入教育框架。2016年,美国发布《为人工智能的未来做好准备》、《国家人工智能与发展战略规划》等报告。英国于2017年发布《发展英国人工智能产业》,启动人工智能奖学金计划。新加坡于2018年启动人工智能新加坡计划,致力于打造人工智能行动者和思想者社区。div>中国通过《新一代人工智能发展规划》和《教育信息化2.0行动计划》,积极推动人工智能与教育的融合。高等教育的未来与新技术的发展以及新型智能机器的计算能力有着内在的联系[1]。人工智能发展迅速,为教育、高等教育和学习提供了巨大的潜力。人工智能能够模仿人类的反应,例如推理、判断和表现出意向性 [2] 。人工智能在高等教育中的应用通过减少冗余工作、基于人工智能提供的数据进行个性化学习和教学反思,增强了教学能力,使他们能够专注于创新和启发性的教学活动 [3] 。此外,人工智能通过音频识别和自然语言处理等技术激发学生的积极性 [4],教师机器人或“云讲师”的个性化教学可用于混合授课课程或完全在线课程 [1] 。
治疗性克隆代表了再生医学的一个有前途的途径,它有可能产生患者特异性干细胞,用于治疗各种疾病和损伤。然而,这项技术并非没有挑战,既有技术挑战,也有伦理挑战。应对这些挑战需要持续的研究、创新和对伦理影响的深思熟虑。随着我们理解和能力的提高,治疗性克隆可能成为个性化医疗的基石,为患者带来新的希望,并彻底改变我们对待医疗保健的方式。治疗性克隆的未来将取决于我们能否平衡科学进步与伦理责任,确保这项强大的技术被用于造福大众。
生成式人工智能 (AI) 的出现为各个领域带来了变革潜力,使创建复杂逼真的数字内容成为可能。然而,这一技术飞跃引发了重大的道德问题,必须加以解决,以确保负责任地部署 AI 系统。本文深入探讨了生成式 AI 的社会影响,例如大型语言模型和深度伪造,并仔细研究了它们带来的道德挑战,包括偏见的传播、错误信息的传播和对人类能动性的破坏。我们提出了一个强调透明度、问责制、安全性和人为监督的道德框架来应对这些挑战。实施该框架的建议包括对合成媒体进行水印等技术措施和平衡监管与促进有益创新的政策干预。通过倡导将道德考虑纳入技术设计和公司治理的综合方法,本文旨在促进符合社会价值观和人权的可信赖 AI 系统的开发。
背景:基于人工智能 (AI) 的计算机感知技术(例如数字表型和情感计算)有望通过提供更客观的情绪状态和行为测量方法,实现精准治疗、诊断和症状监测,从而将临床方法转变为精神病学及其他领域的个性化护理。同时,它们通常在非临床环境中从患者那里收集数据的被动和连续性质引发了与隐私和自决相关的伦理问题。随着计算机感知、人工智能和神经技术的并行发展使人们对主观状态有了新的认识,人们对神经数据的整合如何加剧此类担忧知之甚少。在这里,我们介绍了一项由 NCATS 资助的多地点研究的结果,该研究涉及将计算机感知转化为临床护理的伦理考虑,并将其置于神经伦理学和神经权利文献中。
摘要:本综述从定性和数学角度定义了算法偏见和公平性的概念。给出了算法开发中出现意外偏见或不公平时可能出现的问题的说明性示例。讨论了可解释性、可问责性和透明度对于人工智能算法开发和临床部署的重要性。这些都基于“primum no nocere”(首先,不伤害)的概念。提供了减轻任务定义、数据收集、模型定义、训练、测试、部署和反馈中的不公平和偏见的步骤。我们将讨论如何实施公平标准,以最大限度地提高效益并最大限度地减少对神经放射学患者的不公平和伤害,包括当人工智能算法被神经放射学实践接受并纳入常规临床工作流程时,神经放射学家应考虑的建议。
近年来,触觉反馈、主动电源和用于假肢控制的机器学习等假肢技术进步为改善功能、满意度和整体生活质量打开了新的大门。然而,人们很少关注假肢技术开发和转化为临床实践所涉及的伦理问题。本文基于现有文献,从作者作为假肢专家 (HG、AM、CLM、MGF) 的多学科视角以及直接与假肢使用者 (AM、CLM、MGF)、可穿戴康复技术 (MGF、BN)、机器学习和人工智能 (BN、KKQ) 和先进技术伦理 (KKQ) 合作的综合研究经验,介绍了有关伦理问题的观点。本文的目标读者包括假肢和相关技术的开发者、制造商和研究人员。我们提出了针对当前假肢技术进步的几项伦理考虑以及未来研究的主题,这些可能会为产品和政策决策提供信息,并对那些可以从假肢技术进步中受益的人们的生活产生积极影响。
国际人用药品技术要求协调会 (ICH) 概述了药品开发 (ICH Q8)、质量风险管理 (ICH Q9)、药物开发和制造 (ICH Q11) 以及药物物质和药品的持续制造 (ICH Q13) 等相互关联的领域,为制药行业提供了一个强大的框架,重点关注药物开发和制造的各个关键方面。在此框架内,人工智能 (AI) 和大数据 (BD) 的应用为加强质量保证、简化药物开发流程、提高供应链层面的可追溯性以及最终提高药品的质量和安全性提供了前所未有的机会。本文讨论了将 AI 和 BD 整合到 ICH 指南中的道德考虑和立法要求,以确保负责任的使用和可持续的业务成果。
I. 引言 本指南根据《联邦食品、药品和化妆品法》第 505 节(21 USC 355)和 21 CFR 第 312 和 314 部分,为协助业界开发寡核苷酸疗法提供建议。具体而言,本指南代表了 FDA 对寡核苷酸疗法开发过程中某些评估的建议,包括:(1) 表征 QTc 间期延长的可能性,(2) 进行免疫原性风险评估,(3) 表征肝肾功能损害的影响,以及 (4) 评估药物间相互作用的可能性。本指南就何时进行这些评估以及哪些类型的评估适合解决上述主题提供了建议。寡核苷酸疗法是一种新兴的治疗方式,正在开发的药物数量不断增加。2近年来,许多反义和小干扰 RNA(siRNA)寡核苷酸疗法已获得 FDA 批准。此外,目前正在开发许多寡核苷酸疗法,用于治疗罕见和常见疾病。寡核苷酸疗法包括各种合成修饰的 RNA 或 RNA/DNA 杂交体,它们专门设计用于与靶 RNA 序列结合以改变 RNA 表达和/或下游蛋白质表达。即使在治疗方式中,寡核苷酸疗法也可能存在多种差异,包括但不限于:
摘要 摘要 本文探讨了学生在正式评估中使用大型语言模型 (LLM)(例如 ChatGPT)的人工智能 (AI) 工具时的学术诚信考量。我们研究了这些工具的发展,并强调了 LLM 在学生数字写作及其他方面的教育中可以提供支持的潜在方式,包括写作和作文教学、人类与人工智能共同创造的可能性、支持 EFL 学习者以及改进自动写作评估 (AWE)。我们描述并展示了这些工具在创建原创、连贯的文本方面的潜力,这些文本可以避免现有技术检测方法和训练有素的学术人员的检测,这表明学生使用这些工具存在重大的学术诚信问题。通过分析 LLM 为高等教育机构 (HEI) 和学生提出的各种与学术诚信相关的问题,我们得出结论:学生是否使用 AI 工具并不决定是否存在抄袭或违反学术诚信,而是学生是否明确表示了使用。决定学生对 LLM 的任何特定使用是否可以定义为学术不端行为取决于任何特定 HEI 的学术诚信政策,这些政策必须进行更新,以考虑这些工具将如何在未来的教育环境中使用。