课程大纲 讲师:Kyle Ferguson,环境研究系兼职教授 电子邮箱:kyle.ferguson@nyu.edu 办公室:285 Mercer Street,902 室 虚拟办公室:Zoom(会议 ID:398 318 6573;密码:420026) 办公时间:周一和周三,下午 12:30–1:30 及预约时间 课程网站:纽约大学课程 > 伦理与环境,第 001 节 [ URL ] 课程描述:环境哲学是一门大学科,涉及形而上学、科学哲学和哲学史的问题,也涉及伦理学、美学和政治哲学等规范领域。本课程主要讨论这些规范领域。从价值理论的一些基本概念开始,我们的目标不是找到具体环境问题的明确解决方案,而是 (i) 提高您的批判性思考能力、仔细阅读的能力以及就环境问题进行良好辩论的能力;(ii) 向您介绍环境哲学中的一些主要争议;(iii) 帮助您对正在讨论的问题形成自己理性而清晰的观点。课程材料:
摘要:人工智能(AI)工具,利用先进的语言模型,获取和模仿人类文学创作。这些工具具有迅速产生大量多种多模式文学作品的能力,符合个性化的读者偏好,并与读者进行互动交流,从而促进了人类与AI之间的协作创造范式。在AI时代,作者,文学作品,读者和批评家的角色将经历重大的转变。AI文学对定义文学中传统概念的现有文学理论提出了挑战,因此需要重新建立和进步文学批评。及其跨学科属性的道德文学批评(ELC)致力于使用科学的理论方法研究文学创造的机制及其道德意义。在其原始理论框架上建立了,ELC积极解决了AI文献研究引起的问题和需求。 nie Zhenzhao对语言和文本的定义有助于研究未来的文学类型及其意义。 AI文献的叙述,美学和教育方面也将成为ELC进一步创新和发展的焦点和领域。 科学选择阶段代表了AI时代,并且随着AI转弯,ELC经历了重大的转换。 关键字:AI转;道德文学批评;科学选择; AI文献作者:Lyu Hongbo是江南大学外国研究学院讲师(中国Wuxi 214122)。,ELC积极解决了AI文献研究引起的问题和需求。nie Zhenzhao对语言和文本的定义有助于研究未来的文学类型及其意义。AI文献的叙述,美学和教育方面也将成为ELC进一步创新和发展的焦点和领域。科学选择阶段代表了AI时代,并且随着AI转弯,ELC经历了重大的转换。关键字:AI转;道德文学批评;科学选择; AI文献作者:Lyu Hongbo是江南大学外国研究学院讲师(中国Wuxi 214122)。她目前的研究兴趣是儿童图画书和道德文学批评(电子邮件:lyuhongbo@qq.com)。Fang Wenkai(通讯作者)是江南大学外国研究学院教授(中国Wuxi 214122)。 他的学术兴趣是道德的文学批评和美国CLI-FI批评(电子邮件:fangwenkai@jiangnan.edu.cn)。Fang Wenkai(通讯作者)是江南大学外国研究学院教授(中国Wuxi 214122)。他的学术兴趣是道德的文学批评和美国CLI-FI批评(电子邮件:fangwenkai@jiangnan.edu.cn)。
2024 年 4 月由 FSMB 众议院通过 执行摘要 人工智能 (AI) 具有巨大潜力,可帮助医疗保健提供者进行诊断、治疗选择、临床记录和其他任务,以提高质量、可及性和效率。但是,如果没有适当的“护栏”和理解,这些技术就会带来风险,这可能会影响临床实践中的考虑因素以及州医疗委员会的监管流程。通过采取以道德原则为基础的主动和标准化治理方法,州医疗委员会可以促进各种形式的人工智能的安全有效整合,同时优先考虑患者的健康。本报告总结了专家意见和程序,以制定 FSMB 道德和专业委员会的指导方针,以帮助医生和州医疗委员会引导负责任和合乎道德的人工智能融入,重点是 (1) 教育、(2) 强调人类责任、(3) 确保知情同意和数据隐私、(4) 主动解决责任和义务问题、(5) 与专家合作以及 (6) 将人工智能治理锚定在道德原则上。必须持续监控和改进使用人工智能的临床系统和流程。这不应在真空中进行,而应成为医生、卫生系统、数据科学家和监管机构(包括州医疗委员会)之间协作的重点。通过深思熟虑地应对人工智能在医疗保健领域带来的机遇和挑战,州医疗委员会可以促进人工智能的安全、有效和合乎道德的使用,将其作为一种工具来增强(但通常不会取代)医疗实践中人类的判断力和责任感。在履行其使命以确保患者从人工智能的应用中受益而不是受到伤害的过程中,州医疗委员会必须避免过度监管和监管过度,避免试图监管不属于其职权范围的领域。通过集中精力关注持照人使用人工智能的现状和未来,州医疗委员会可以保持监管效率,实现跨辖区在临床实践中对人工智能监管的一致性,帮助确保人工智能的益处,并在维护专业标准的同时积极保护患者。
生成人工智能(Genai)的出现和日益普及有可能改变法医精神病学和刑事司法的AI应用,传统上依赖于歧视性的AI算法。生成的AI模型标志着从以前流行的范式中通过生成看似新的现实数据并分析和集成了来自不同数据格式的大量非结构化内容的能力的显着转变。这种潜力不仅仅是重塑常规做法,例如风险评估,诊断支持以及治疗和康复计划,还可以在以前未经置换的领域(例如培训和教育)中创造新的机会。本文研究了生成人工智能对法医精神病学和刑事司法中AI应用的变革性影响。首先,它引入了生成AI及其普遍模型。之后,它回顾了法医精神病学中歧视性AI的当前应用。随后,它对生成AI的潜力进行了彻底的探索,可以通过多模式生成模型,数据生成和数据增强来改变既定的实践并引入新颖的应用。最后,它提供了与部署生成AI模型相关的道德和法律问题的全面概述,重点是他们对个人的影响以及其更广泛的社会影响。总而言之,本文旨在为在法医背景下生成AI应用的动态挑战的持续论述做出贡献,突出了潜在的机会,风险和挑战。它提倡跨学科的合作,并强调对生成AI模型进行彻底,负责任的评估的必要性,然后在广泛采用的决策中常规地做出了实质性的改变后果。
罗氏认识到 AI 在生命科学研究和医疗保健领域的潜力,并专注于开发一系列与 AI 相关的解决方案,以部署在医疗环境中(例如支持 AI 的诊断应用程序),用于开发药品(即优化和加速研发),用于不同的科学决策领域,以及合规地实现患者和客户体验的商业应用。目前,AI 没有统一的定义。经合组织将 AI 系统定义为“一种基于机器的系统,出于明确或隐含的目标,从收到的输入中推断如何生成输出,例如预测、内容、建议或决策,这些输出 [可以] 影响物理或虚拟环境。不同的 AI 系统在部署后的自主性和适应性水平上有所不同。”(更多)
密码学长期以来一直是确保通信和保护隐私的工具。但是,其作用超出了技术实施,以涵盖重要的政治和道德方面。由埃里克·休斯(Eric Hughes)于1993年撰写的Cypherpunk宣言[7],强调了加密和拥护者的继承性政治本质,以此作为确保隐私和个人自由的一种手段。同样,菲利普·罗加威(Phillip Rogaway)的[10]工作强调了密码学家的道德责任,尤其是在大规模监视和社会影响的背景下。从根本上讲,密码学可以看作是“武装”群众保护自己的群众的一种手段。1993年的宣言和罗加威的作品强调了两个要点:不信任政府和保护集体数据。这种观点在戴维·乔姆(David Chaum)的思想中得到了回应,他提出了一个依靠强大加密来保护隐私的交易模型。尽管这些想法首次阐明了40多年,但保护社会免受信息滥用的梦想仍然很遥远。Chaum警告: