摘要:人工智能(AI)工具,利用先进的语言模型,获取和模仿人类文学创作。这些工具具有迅速产生大量多种多模式文学作品的能力,符合个性化的读者偏好,并与读者进行互动交流,从而促进了人类与AI之间的协作创造范式。在AI时代,作者,文学作品,读者和批评家的角色将经历重大的转变。AI文学对定义文学中传统概念的现有文学理论提出了挑战,因此需要重新建立和进步文学批评。及其跨学科属性的道德文学批评(ELC)致力于使用科学的理论方法研究文学创造的机制及其道德意义。在其原始理论框架上建立了,ELC积极解决了AI文献研究引起的问题和需求。 nie Zhenzhao对语言和文本的定义有助于研究未来的文学类型及其意义。 AI文献的叙述,美学和教育方面也将成为ELC进一步创新和发展的焦点和领域。 科学选择阶段代表了AI时代,并且随着AI转弯,ELC经历了重大的转换。 关键字:AI转;道德文学批评;科学选择; AI文献作者:Lyu Hongbo是江南大学外国研究学院讲师(中国Wuxi 214122)。,ELC积极解决了AI文献研究引起的问题和需求。nie Zhenzhao对语言和文本的定义有助于研究未来的文学类型及其意义。AI文献的叙述,美学和教育方面也将成为ELC进一步创新和发展的焦点和领域。科学选择阶段代表了AI时代,并且随着AI转弯,ELC经历了重大的转换。关键字:AI转;道德文学批评;科学选择; AI文献作者:Lyu Hongbo是江南大学外国研究学院讲师(中国Wuxi 214122)。她目前的研究兴趣是儿童图画书和道德文学批评(电子邮件:lyuhongbo@qq.com)。Fang Wenkai(通讯作者)是江南大学外国研究学院教授(中国Wuxi 214122)。 他的学术兴趣是道德的文学批评和美国CLI-FI批评(电子邮件:fangwenkai@jiangnan.edu.cn)。Fang Wenkai(通讯作者)是江南大学外国研究学院教授(中国Wuxi 214122)。他的学术兴趣是道德的文学批评和美国CLI-FI批评(电子邮件:fangwenkai@jiangnan.edu.cn)。
2024 年 4 月由 FSMB 众议院通过 执行摘要 人工智能 (AI) 具有巨大潜力,可帮助医疗保健提供者进行诊断、治疗选择、临床记录和其他任务,以提高质量、可及性和效率。但是,如果没有适当的“护栏”和理解,这些技术就会带来风险,这可能会影响临床实践中的考虑因素以及州医疗委员会的监管流程。通过采取以道德原则为基础的主动和标准化治理方法,州医疗委员会可以促进各种形式的人工智能的安全有效整合,同时优先考虑患者的健康。本报告总结了专家意见和程序,以制定 FSMB 道德和专业委员会的指导方针,以帮助医生和州医疗委员会引导负责任和合乎道德的人工智能融入,重点是 (1) 教育、(2) 强调人类责任、(3) 确保知情同意和数据隐私、(4) 主动解决责任和义务问题、(5) 与专家合作以及 (6) 将人工智能治理锚定在道德原则上。必须持续监控和改进使用人工智能的临床系统和流程。这不应在真空中进行,而应成为医生、卫生系统、数据科学家和监管机构(包括州医疗委员会)之间协作的重点。通过深思熟虑地应对人工智能在医疗保健领域带来的机遇和挑战,州医疗委员会可以促进人工智能的安全、有效和合乎道德的使用,将其作为一种工具来增强(但通常不会取代)医疗实践中人类的判断力和责任感。在履行其使命以确保患者从人工智能的应用中受益而不是受到伤害的过程中,州医疗委员会必须避免过度监管和监管过度,避免试图监管不属于其职权范围的领域。通过集中精力关注持照人使用人工智能的现状和未来,州医疗委员会可以保持监管效率,实现跨辖区在临床实践中对人工智能监管的一致性,帮助确保人工智能的益处,并在维护专业标准的同时积极保护患者。
● 算法决策缺乏透明度 ● 不法分子利用人工智能做坏事 ● 人工智能系统容易被篡改和出现数据安全问题 ● 系统容易受到偏见 ● 法律跟不上技术的发展 ● 我如何真正信任这些系统?
罗氏认识到 AI 在生命科学研究和医疗保健领域的潜力,并专注于开发一系列与 AI 相关的解决方案,以部署在医疗环境中(例如支持 AI 的诊断应用程序),用于开发药品(即优化和加速研发),用于不同的科学决策领域,以及合规地实现患者和客户体验的商业应用。目前,AI 没有统一的定义。经合组织将 AI 系统定义为“一种基于机器的系统,出于明确或隐含的目标,从收到的输入中推断如何生成输出,例如预测、内容、建议或决策,这些输出 [可以] 影响物理或虚拟环境。不同的 AI 系统在部署后的自主性和适应性水平上有所不同。”(更多)
对 Timnit Gebru 和 Google 道德 AI 团队的支持 过去三年来,加州大学伯克利分校的 AFOG 受益于 Google 道德 AI 团队的几位成员参加我们的工作组会议和研讨会。最近,该团队的联合负责人 Timnit Gebru 博士因要求在她和她的团队成员进行的研究的内部审查过程中提高透明度和程序公平性而被解雇。AFOG 小组的成员研究数字技术在社会中的作用,并寻求建立更好、更公平的系统的方法。数十年来的技术史研究表明,技术不可避免地具有政治性。它们以独特的方式构建和调解人与人之间的关系。虽然数字技术具有巨大的潜在效益,但总有缺点、风险和危害需要考虑。这些风险并非均匀分布,而是经常遵循现有权力等级制度。根据我们在此领域的研究,我们了解到:
Ankeny、Munsie 和 Leach (2022) 为 iBlastoids 提出的反思、预期和审议 (RAD) 方法虽然很有价值,但需要一个锚点来确保其方法的每个过程都已充分进行。否则,反思、预期和审议可能会偏离航向或过早结束。我们建议将 RAD 方法锚定到复杂性的道德原则上;(当前或潜在的) 类器官实体在本体论和认识论上越复杂,就越需要对该实体进行道德考量。基于 Preiser 和 Cilliers (2010) 的观点,类器官实体的复杂性可以有两个关键要素;类器官实体的特征和功能(本体论复杂性),以及我们目前对类器官实体的理解的功能(认识论复杂性)。这些复杂程度越高,RAD 方法就越需要关注这些要素——以免我们忽略潜在的道德显著特征、功能或知识。例如,对于肠道类器官,反思、预期和审议可能不需要像对于脑类器官、iBlastoids 或多细胞工程化生命系统 (M-CELS) 那样强大 (Sample 等人,2019)。这至少部分是因为脑类器官、iBlastoids 或 M-CELS 等类器官实体的复杂程度超过了肠道类器官。此外,它们的复杂特征和功能中有一些元素可能被视为道德显著的。因此,RAD 流程需要更多时间和精力来解决这些特征、功能和目前的理解。负责任的研究创新 (RRI) 框架的先前迭代将重点放在更好地