下午 2:00 - 下午 4:00,Grand B 会前会议:伦理委员会的冲突解决技巧(冲突管理,第一部分) Haavi Morreim 临床伦理学 通常,伦理咨询并非源于道德困惑,而是源于冲突 - 员工对复杂情况的紧张关系、“难缠”的病人、家庭内部的争执以及无数其他情况。在这里,最佳咨询通常不是对伦理发表意见,而是解决冲突:探索情况、了解引发冲突的背景故事、帮助人们表达他们最重要的优先事项以及制定双方都同意的计划。伦理委员会和顾问必须准备好辨别哪种方法和资源最适合每次咨询。本研讨会教授临床冲突解决,包括谈判、促进和协助谈判。研讨会首先介绍一套关键的技能“工具”,例如:管理期望、影响标签、规范化、积极倾听和探究细节。这些核心技巧有助于建立成功解决问题所依赖的信任,从而使冲突双方达成可行的协议。练习场景交织在一起,因此参与者可以熟练使用每项技能。研讨会以两部分练习结束,重点关注家庭动态的复杂问题。在第一部分中,小组咨询团队将“聚在一起”讨论如何最好地处理这种情况。在汇报之后,小组将进行冲突解决对话。每个人都将参加所有练习,然后对每个练习进行广泛的汇报。演讲者是一位经验丰富且频繁的调解员,既在法庭上,也在临床环境中。她为临床医生教授为期 4 天的冲突解决/调解培训,共同教授了为律师设计的为期 5 天的调解培训,还为住院医生提供全天的“沟通训练营”培训。下午 2:00 - 下午 5:30,Grand A HEC-C 复习课程 Abram Brummett、Maggi Budd、Anca Dinescu、Amanda Hine、David A. Oxman 临床伦理学 由 ASBH HEC-C 复习课程工作组成员开发和呈现,本课程将通过使用示例问题和讨论考试内容大纲,全面回顾核心参考文献和四个内容领域。该课程将具有高度互动性,与会者有机会测试他们的知识并将信息与内容大纲和核心参考文献联系起来作为复习框架。 3.5 小时的课程将包括以下每个方面的讨论和练习测试问题: 医疗伦理问题和概念:大局 医疗伦理问题和概念:临床遭遇 医疗保健系统和健康法 临床环境 当地医疗保健组织和政策 每位与会者都将收到一份 HEC-C 学习指南,其中包含课程结束后示例问题的详细分析。 下午 3:00 - 下午 6:00,Grand C 超越案例讨论:培训委员会成员为临床伦理工作做出贡献 教育/跨专业性 Leah Eisenberg、Joan Henriksen 医疗保健伦理委员会 (EC) 受益于包含多种学科观点,但临床医生志愿者在临床伦理方面的教育可能不一致。通常,委员会教育侧重于理论知识和案例讨论,很少强调实践技能。即使是不打算领导道德咨询的道德委员会成员 (ECM) 也应该接受基于技能的培训,以便他们更好地了解道德咨询的过程、所涉及的复杂性以及顾问提出道德问题的方式如何影响随后的分析和建议。 该研讨会将提供易于理解的动态工具,用于教授 ECM 如何构建和编写道德问题。我们在一起的时间将是互动的,使用对话、反思和动手活动来练习所涉及的离散步骤。练习将强调指出利益相关者及其价值观的重要性,并展示如何定义正在考虑的行动来指导其余的咨询。我们将邀请参与者讨论他们在培训 EMC 时遇到的障碍,并分享我们自己的障碍,包括无法回答的问题、消极的咨询请求,以及 ECM 在日常工作和思考临床伦理之间“转换角色”时面临的困难。研讨会的领导者是经验丰富的临床伦理学家,他们定期为具有各种学科背景的 ECM 开设有关伦理咨询的技能课程。我们已经看到了在向 ECM 教授临床伦理真正涉及的内容时什么方法有效(什么方法无效),以便他们可以提高有意义地参与 EC 的能力。动态工具,用于教导 ECM 如何构建和编写伦理问题。我们在一起的时间将是互动的,使用对话、反思和动手活动来练习所涉及的离散步骤。练习将强调命名利益相关者及其价值观的重要性,并展示如何定义正在考虑的行动来指导其余的咨询。我们将邀请参与者讨论他们在培训 EMC 时遇到的障碍并分享我们自己的障碍,包括无法回答的问题、消极的咨询请求以及 ECM 在日常工作和思考临床伦理之间“换角色”时面临的困难。研讨会负责人是经验丰富的临床伦理学家,他们定期为具有各种学科背景的 ECM 开设有关伦理咨询的技能课程。我们已经看到了在向 ECM 教授临床伦理真正涉及的内容时什么有效(和什么无效),以便他们可以提高有意义地参与 EC 的能力。动态工具,用于教导 ECM 如何构建和编写伦理问题。我们在一起的时间将是互动的,使用对话、反思和动手活动来练习所涉及的离散步骤。练习将强调命名利益相关者及其价值观的重要性,并展示如何定义正在考虑的行动来指导其余的咨询。我们将邀请参与者讨论他们在培训 EMC 时遇到的障碍并分享我们自己的障碍,包括无法回答的问题、消极的咨询请求以及 ECM 在日常工作和思考临床伦理之间“换角色”时面临的困难。研讨会负责人是经验丰富的临床伦理学家,他们定期为具有各种学科背景的 ECM 开设有关伦理咨询的技能课程。我们已经看到了在向 ECM 教授临床伦理真正涉及的内容时什么有效(和什么无效),以便他们可以提高有意义地参与 EC 的能力。
摘要 简介 人工智能为糖尿病洞察做好准备和公平 (AI-READI) 是一个关于 2 型糖尿病 (T2DM) 的数据收集项目,旨在促进广泛使用人工智能和机器学习 (AI/ML) 方法来研究健康发生 (从 T2DM 过渡到健康恢复力)。促进 T2DM 健康恢复力的根本原因是其在世界成年人口中的患病率高达 10.5%,并且是许多不良健康事件的贡献者。方法 AI-READI 是一项横断面研究,目标招募对象为 4000 名 40 岁及以上的人,按自我报告的种族/民族(亚裔、黑人、西班牙裔、白人)、2 型糖尿病(无糖尿病、糖尿病前期和生活方式控制的糖尿病、用口服药物或非胰岛素注射治疗的糖尿病和胰岛素控制的糖尿病)和生理性别(男性、女性)进行三重平衡(Clinicaltrials.org 批准号 STUDY00016228)。数据以多变量协议收集,包含 10 多个领域,包括生命体征、视网膜成像、心电图、认知功能、持续血糖监测、体力活动、家庭空气质量、收集血液和尿液进行实验室检测以及包括健康的社会决定因素在内的社会心理变量。研究地点有三个:阿拉巴马州伯明翰、加利福尼亚州圣地亚哥和华盛顿西雅图。伦理与传播 AI-READI 旨在为 AI/ML 目的建立数据收集、准备和共享的标准、最佳实践和指南,包括生物伦理学家的指导。遵循可查找、可访问、可互操作、可重复使用的原则,AI-READI 可被视为未来开发其他针对 AI/ML 的医疗/健康数据集的典范。AI-READI 为理解 2 型糖尿病健康机制的新见解打开了大门。AI-READI 联盟正在通过出版物传播设计和实施 AI-READI 数据集的原则和过程。鼓励下载和使用 AI-READI 数据的人在科学文献中发表他们的研究结果。
追求人工智能(AGI)吸引了研究人员和行业领导者,并承诺了机器具有类似人类认知能力的未来。但是,这项雄心勃勃的努力充满了多方面的挑战和道德困境,需要仔细检查。这项关键评论调查了AGI研究的景观,确定了关键的障碍和道德考虑,同时概述了潜在的途径。首先,技术挑战在通往AGI的道路上巨大。这些涵盖的基本问题,例如开发能够在不同领域概括的强大学习算法,以及可以表现出类似于人类智能的自适应和自主行为的工程系统。此外,确保AGI系统的安全性和可靠性提出了强大的障碍,从算法偏见到在意外情况下发生灾难性结果的潜力。道德考虑渗透到AGI开发和部署的每个方面。问责制,透明度和控制表面作为中心关注的问题,因为将决策权放在自治系统上的意义引起了深刻的道德困境。此外,广泛采用的社会经济后果,包括工作流离失所和不平等,需要仔细的审查和积极的缓解策略。应对这些挑战需要跨学科利益相关者的共同努力。计算机科学家,伦理学家,政策制定者和公众之间的合作对于为AGI的负责任开发和部署建立强大的框架至关重要。此外,培养一项包容性的对话,优先考虑道德原则和社会价值观,这对于塑造未来的未来至关重要,即AGI增强人类能力,同时维护潜在风险。虽然对AGI的追求具有巨大的承诺,但其认识需要一种整体方法,可以解决与道德方面的考虑。通过绘制优先考虑安全性,透明度和道德治理优先级的路径,我们可以利用AGI的变革潜力,同时确保其与人类价值观和利益的一致性。
通过《法律与当代问题》这样的跨学科出版物来探讨算法决策和人工智能 (AI) 的新兴用途问题似乎很合适。毕竟,这些文章的核心 AI 工具正在全球几乎每个行业和每个角落部署。这本小册子汇集了哲学、伦理学、数据科学、计算机科学和法律领域的领先思想家,他们来自德国、比利时、英国、哥伦比亚和美国。这种国际化和跨学科的方法为探索社会技术系统提供了特殊价值,在这些系统中,AI 影响权利和责任的有意义的决定、分配和分配。正是因为 AI 影响个人和职业机会、正当程序和法治,任何脱离它所塑造的系统而进行的狭隘探索——短视的技术调查可能无法包括更广泛的伦理和社会学审查——都可能是误导和潜在有害的。如此狭隘的探索不仅可能无法优先考虑我们珍视的权利和价值观,还可能削弱我们管理人工智能的能力以及它对我们希望保护的社会和政治体系的影响。因此,理想的情况是像《法律与当代问题》这样的论坛,将律师、伦理学家、技术专家、工程师和其他人聚集在一起,跨学科地考虑这些社会技术系统。在寻求积极的人工智能未来时,需要一个村庄。然而,如此庞大的话题也需要一些限制。正如本书的标题“黑箱算法与法治”所暗示的那样,我们在这里施加了两个限制。首先,我们关注被称为“黑箱人工智能”的特定人工智能子集。在其文章《黑箱社会:控制金钱和信息的秘密算法》中,特约作者 Frank Pasquale 指出,黑箱系统就是那些“被秘密逻辑所殖民”的系统。1 他在本卷中的文章补充道,“‘黑箱人工智能’是指任何自然语言处理、机器学习、文本分析或类似软件,它们使用数据主体无法访问的数据,或部署同样无法访问的算法,或部署过于复杂而无法简化为一系列数据主体可理解的规则和规则应用的算法。”换句话说,
近年来,人工智能 (AI) 与人机交互 (HRI) 的融合取得了重大进展,彻底改变了人类与机器人的协作和共存方式。本综述全面概述了人工智能驱动的 HRI 的最新突破,并指出了未来的挑战。近年来,人工智能驱动的能力激增,增强了人机交互。机器学习算法使机器人能够适应用户的偏好和行为,创造个性化和直观的交互。自然语言处理 (NLP) 促进了人与机器人之间的无缝通信,实现了语音命令和情境感知响应。计算机视觉的进步赋予机器人增强的感知能力,使它们能够识别和解释人类的手势、情绪和面部表情。强化学习在使机器人能够从人类反馈中学习并实时优化其行为方面发挥了关键作用。社交辅助机器人利用人工智能提供情感支持和陪伴,特别是在医疗保健和老年护理环境中。尽管取得了这些进步,但人工智能驱动的 HRI 领域仍然存在挑战。需要仔细考虑道德问题,包括隐私问题和负责任地使用人工智能来影响人类行为。确保人工智能驱动的机器人系统的安全仍然至关重要,需要采取强有力的措施来防止恶意攻击和意外后果。人机信任仍然是一个关键挑战,需要透明的人工智能算法和有效的沟通策略。人工智能研究人员、机器人专家、心理学家和伦理学家之间的跨学科合作对于解决 HRI 复杂的社会技术方面至关重要。人工智能和人机交互的融合具有巨大的潜力,可以重新定义我们日常生活的各个方面。这篇评论重点介绍了人工智能驱动的 HRI 的最新进展,强调需要进行跨学科努力来应对挑战并确保负责任地开发和部署人工智能驱动的机器人系统。随着研究人员不断创新,人工智能和人机交互的动态格局预示着未来人类和机器人之间的无缝协作和共存将成为我们社会结构不可或缺的一部分。
詹姆斯·乔丹诺(James Giordano)博士,姆菲尔(Mphil)是神经病学和生物化学系的教授;神经伦理学研究计划的负责人;网络智能中心生物技术,生物安全和道德计划的主任;该计划的脑科学与全球法律与政策的联合主任;乔治敦大学军事医学伦理学子计划主席。他是美国国防医学伦理中心的美国海军战争学院,纽波特,RI和生物伦理学家的生物安全,技术和道德项目的高级研究员。他还是SMA分支机构的高级科学咨询会员,IEEE Brain Initiative神经伦理学计划的联合职员,五角大楼和荣誉主席。佐丹奴教授此前曾在美国特种作战司令部(USSOCOM)担任多诺万生物安全研究员;作为神经伦理学的任命成员,国防高级研究项目局(DARPA)的法律和社会问题咨询小组;作为欧盟人类大脑项目的研究研究员和任务负责人,涉及双重用途脑科学;作为卫生与公共服务部秘书人类研究保护咨询委员会(SACHRP)的任命成员;作为经济合作与发展组织的高级顾问(OECD)。弗吉里特学者佐尔达教授在德国慕尼黑的路德维希 - 马西米利人大学被授予JW Fulbright访问教授职位,目前在德国科伯格的科堡应用科学科学大学的生物技术,健康促进,健康促进和伦理学教授。他以前曾是英国牛津大学神经伦理学中心的国际会员。佐丹奴教授是325篇论文,7本书,22本书和25篇关于脑科学,全球生物安全性和伦理的政府白皮书,他是《人工智能伦理学期刊》(Springer)和哲学,伦理学,人文和人文(BMC/Springerer)的人工智能伦理学期刊(Springer)和主编(Springer-In-Springer)的副编辑。佐丹奴教授是前美国海军官员,担任航空生理学家,研究生理学家和研究心理学家的名称,他曾在美国海军和海军陆战队任职。认可他的成就,他当选为欧洲科学与艺术学院,并被任命为皇家医学学会(英国)的海外研究员。
生物伦理学的范围不受时间框架的限制。回顾性地理解过去医疗实践的伦理层面(例如 Lerner 和 Caplan 2016)与解决当前正在发生的生命伦理问题同样重要。然而,还有另一个角度需要考虑,即面向未来的角度。近几十年来生物伦理话语中的迫在眉睫的问题类别(事前伦理)主要以环境问题和可持续医学 1 的概念为特征(Kuře 2008;Schick 2016)。虽然这些生物伦理问题尚未完全体现出来,但它们的重要性在于,引发这些问题的基础要素在当代社会中已经很明显。为了探索医学工程或仍在开发中的复杂技术(如脑机接口 (BMI))的伦理影响,生物伦理学家 (Brody 2003;Chambers 1999)、文学理论家 (Squier 2004;Wald 2008) 以及叙事医学学者 (Charon and Montello 2002) 都要求对此类新兴生物伦理问题进行文学描述。本文探讨了生物伦理学与推想小说的交集,重点关注玛格丽特·阿特伍德的推想小说《羚羊与秧鸡》(2003) 中描绘的基因工程技术的警示元素。本文旨在研究推想小说在解决小说中使用基因改造技术所带来的生物伦理问题方面的作用,并概述推想小说如何进一步促进对新兴技术的伦理、社会和文化影响的更广泛讨论。玛格丽特·阿特伍德的文学作品以思辨性叙事为特点,其中包含科学或社会变革的伦理含义。《使女的故事》(1985)及其续集《遗嘱》(2019a)描绘了一个反乌托邦的未来,生殖技术和父权制破坏了女性自主权。其他作品如《心在最后》(2015)表明阿特伍德倾向于将思辨性与社会批评相结合。《洪水之年》(2009)和《疯狂亚当》(2013a)扩展了《羚羊与秧鸡》中呈现的生物灾难;这三部小说都发生在同一个宇宙中,构成了疯狂亚当三部曲。《羚羊与秧鸡》创造性地探索了基因工程及其随之而来的社会影响,并描绘了围绕生物技术的道德问题、环境破坏和不负责任的科学活动的不利影响。由于它介绍了阿特伍德后期小说中探讨的生物伦理问题,因此关注这部作品可以让我们了解基因工程技术的发展方向。
与此同时,很明显,人工智能领域已发布的人工智能伦理原则和技术工具对日常生活中销售、购买和使用的人工智能产品的影响微乎其微(Schiff 等人,2020 年;Vakkuri 等人,2020 年)。作为一名通过杜克大学道德人工智能实验室创建技术人工智能伦理方法的研究人员,以及作为一名竭尽全力培养下一代数据科学家负责任地使用人工智能的教育工作者,我一直在努力解决这种有记录的脱节。这种脱节是由于许多相互依存的因素造成的,这些因素并不总是显而易见的。其中一些因素,比如当前优先考虑股东而不是公民的金融生态系统,或由于弱势群体在人工智能技术行业代表性不足而导致的权力动态,已经在其他地方得到了广泛讨论(Washington 和 Kuo,2020 年;Kalluri,2020 年;Battersby,2021 年)。我写这篇评论的动机是,有一个同样重要的因素受到的关注相对较少。与前面提到的需要人工智能从业者投入和行动但可能最好通过社会科学和伦理学进行分析的问题的解决方案不同,我旨在提出的解决方案需要与社会科学家和伦理学家合作,但必须由那些负责日常创造和扩展人工智能技术的人主导。我想在这里关注的问题是,有助于缓解人工智能相关伦理挑战的技术工具并没有被创造人工智能产品并将这些产品交到消费者手中的人使用或获得(Schiff 等人,2020 年;Vakkuri 等人,2020 年;Rakova 等人,2021 年)。在继续之前,让我先明确一点:技术工具不足以缩小人工智能道德出版物与实践之间的差距,因为它们不会解决导致不道德使用人工智能的所有经济、社会和心理现象。然而,我确实认为它们是任何全球伦理人工智能解决方案的必要组成部分。它们也是缩小伦理人工智能出版与实践差距最具可扩展性和实用性的机制之一,特别是考虑到人工智能产品的快速生产速度与公共政策机制实施速度缓慢之间的巨大差距。那些已经将大部分工作投入到人工智能和人工智能应用的系统研究的人处于特权地位,可以制定流程和激励措施,使技术伦理人工智能工具更易于获取和有效。因此,我的目标是让这个人工智能研究界意识到阻碍已发布的伦理人工智能技术工具“转化”为实践的一些障碍,提供具体步骤
特里斯坦·哈里斯被《大西洋月刊》称为“硅谷最接近良知的人”。他曾在谷歌担任设计伦理学家三年,致力于开发一个框架,探讨技术应如何“合乎道德地”引导数十亿人远离屏幕的思想和行为。他现在是人道技术中心的联合创始人,该中心的使命是扭转“人类降级”的趋势,重新将技术与人性结合起来。此外,他还与联合创始人阿扎·拉斯金共同主持了 Your Undivided Attention 播客。《滚石》杂志将特里斯坦评为“塑造世界的 25 人”之一,并因其在技术改革方面的工作被《财富》杂志评为 2018 年 40 位 40 岁以下精英。2016 年,特里斯坦离开谷歌,致力于通过非营利性计划“Time Well Spent”改革注意力经济,该计划呼吁业界“竭尽全力”吸引注意力,并提出了设计解决方案。 2018 年 1 月,马克·扎克伯格将“时间花得值”作为 Facebook 的设计目标。2018 年 5 月,苹果和谷歌分别推出了“数字健康”计划和“时间花得值”功能,目前这些功能已在 iOS 和安卓手机上推出。特里斯坦花了十多年的时间研究劫持人类思维和行为的因素。从童年的魔术师到在斯坦福说服技术实验室研究说服技术的工作,特里斯坦开始关注道德和人道技术的必要性。他对注意力经济的研究始于 2013 年,当时他在谷歌内部制作的幻灯片广为流传,警告科技行业为吸引人类注意力而展开的军备竞赛,以及公司对其重组社会的方式所负有的道德责任。特里斯坦的作品曾在 TED、大西洋月刊、60 分钟、纽约时报、美联社、华尔街日报等多家媒体上发表。 Tristan 曾向各国元首、科技公司 CEO 和美国国会议员介绍过注意力经济。在加入 Google 之前,Tristan 是 Apture 的联合创始人兼 CEO,该公司于 2011 年被 Google 收购。Apture 让数百万用户能够通过庞大的发布商网络获得即时、动态的解释。Tristan 在 Apple、Wikia、Apture 和 Google 工作期间获得了多项专利。他毕业于斯坦福大学,获得计算机科学学位,专注于人机交互,同时在 BJ Fogg 教授的斯坦福说服技术实验室涉足行为经济学、社会心理学、行为改变和习惯养成。
但是,对于启发,规范,验证和验证,有最小的工具支持。这是一项具有挑战性的任务,因为需要参与此过程的专家(伦理学家,律师,监管机构,最终用户等)的非技术和各种背景。我们的软件Sleec-TK是一种用户友好的工具包,采用正式方法,允许利益相关者在验证和验证Sleec要求的验证和验证中了解和解决问题。Sleec-TK是一种公开可用的工具包,可由非技术专家使用,可在[1-3]中支持该过程和技术。由Sleec-TK机械化的Sleec框架包括规则启发过程[1]以及规范,验证和验证技术[2]。[3]中的技术报告介绍了我们的理论基础和过程,以实现Sleec要求的规范,一致性验证和验证。它讨论了Sleec-TK软件中使用的领域特定语言(DSL)和该语言的正式语义,并采用了定时版本的CSP(交流顺序过程)[4]。[2]中描述了我们工具的初始版本,该版本仅支持Sleec语言建模,一致性和冗余验证。我们在这里描述的版本实现了语义的更新版本,该版本提供了增加的可伸缩性,并已得到了广泛的验证。此外,它通过对SLUEC规则的系统模型的一致性验证得到了增强(即,图中所示的Sleec一致性插件1是我们软件中的新组件)。此外,对于Sleec-TK,我们用7个Sleec规范文件验证了规则和语言,与利益相关者一起涵盖了199个规则。从规范思想的角度[5,6]的角度,在开发自主系统方面有重要的工作,包括基于用户的道德选择的透明度[7],解释性和数据驱动的个性化工具[8]。我们Sleec语言的工作还考虑了启发和调试的替代方法[9]。sleec-tk与规范的操作[1] [10]有关,支持自动化过程,以验证和验证捕获这些规范的规则,通过其在𝑡𝑜𝑐𝑘-CSP中描述的语义机械化(定时过程代数[4,11])。sleec-tk被用作Eclipse环境的一组插件,但包括用于Sleec规则验证的独立版本。存储库中的readme.md文件提供了用于下载,安装和使用软件的说明,并提供示例。规则的定义是通过图形界面提供有关任何句法或打字问题的指导的图形界面。在后台,生成𝑡𝑜𝑐𝑘-CSP脚本以支持冲突和冗余的检查。通过在后台使用CSP型号Checker FDR4 [12],以按下按钮进行。验证是通过与Robotool 1 [13]集成而进行的,这是一种使用域特异性符号Robochart建模和验证移动和自治机器人的工具。SLEEC规则可以作为Robochart模型的文档定义属性的一部分,用于自动验证和报告。