1 浙江大学医学院精神卫生中心,杭州,中国,2 渥太华大学精神卫生研究所心智、脑成像和神经伦理学系,加拿大安大略省渥太华,3 乌普萨拉大学研究伦理与生物伦理学中心,瑞典乌普萨拉,4 渥太华大学数学与统计学系,加拿大安大略省渥太华,5 成瘾与精神健康中心(CAMH),加拿大安大略省多伦多,6 多伦多大学精神病学系,加拿大安大略省多伦多,7 伦敦城市大学心理学系数学神经科学与心理学中心,英国伦敦,8 麻省理工学院皮考尔学习与记忆研究所,美国马萨诸塞州剑桥,9 麦吉尔大学计算机科学系,加拿大魁北克省蒙特利尔,10 蒙特利尔学习算法研究所(MILA),加拿大魁北克省蒙特利尔,11英国伦敦国王学院精神病学、心理学和神经科学,12 英国伦敦威康人类神经影像中心,13 英国伦敦大学学院神经病学研究所
人类免疫系统使用大量的分子机制库来防止细胞内病原体。尽管专门的免疫细胞在成功防御方面具有至关重要的作用,但最初的识别和减轻感染通常发生在非免疫细胞内。大多数哺乳动物细胞谱系均固定了独立于专业免疫细胞操作的细胞自主先天免疫机制1。这些细胞自主机制使细胞能够认识到它们已感染,然后激活各种抗菌和抗病毒因子的表达,以遏制感染1,2(Box 1)。长期以来,许多免疫机制被认为是后生动物3的进化创新,但最近的证据表明,细胞自治的先天免疫系统的关键组成部分已经从细菌基因4-9演变而来。与动物和植物相似,细菌细胞还使用细胞自主的免疫机制,使它们能够在噬菌体感染10、11中生存。最广泛的
摘要 背景 过继转移具有增强的抗体依赖性细胞毒作用 (ADCC) 能力和对 CD38 靶向性抗性的自然杀伤 (NK) 细胞有可能增强达雷木单抗 (DARA) 的临床抗骨髓瘤活性。因此,我们试图开发一种有效的基于 CRISPR/Cas9 的基因编辑平台,以破坏离体扩增的 NK 细胞中的 CD38 表达 (CD38 敲除 (KO)),并同时为 CD38 KO NK 细胞配备高亲和力 CD16 (CD16-158V) 受体。方法 使用 Cas9 核糖核蛋白复合物生成 CD38 KO 人 NK 细胞。通过结合信使 RNA (mRNA) 转染 CD38 KO NK 细胞和在 CD38 位点插入靶向基因以介导基因敲入 (KI),扩展了该平台。在体外和 MM.1S 异种移植小鼠模型中测试了这些基因编辑的 NK 细胞在 DARA 存在下持续存在和介导 ADCC 的能力。结果在体外扩增的 NK 细胞中实现了高效的 CD38 基因破坏,而不会影响其增殖或功能能力。CD38 KO 赋予了对 DARA 诱导的 NK 细胞自相残杀的抗性,在体外和 MM.1S 异种移植小鼠模型中,在 DARA 存在下,能够持续存在并增强对骨髓瘤细胞系的 ADCC。CD38 KO NK 细胞可以通过转染编码 CD16-158V 受体的 mRNA 进一步修饰,从而增强 DARA 介导的 ADCC。最后,我们观察到针对 CD38 基因座的同源定向修复模板促进了有效的 2 合 1 CD38 KO 与截短 CD34 报告基因和 CD16-158V 受体的 KI 结合,CD38 KO /CD16 KI NK 细胞在体外和体内均表现出 DARA 介导的 ADCC 的进一步增强。结论使用体外扩增的 CD38 KO /CD16 KI NK 细胞进行过继免疫治疗有可能提高 DARA 的临床疗效。通过将互补的基因工程策略整合到 CD38 KO 制造平台中,我们生成了具有显著增强的 CD38 定向抗肿瘤活性的 NK 细胞,为在临床上探索这种免疫治疗策略奠定了坚实的基础。
适应性偏好形成是指一个人调整自己的偏好以匹配可用的选项的过程[27]。正如第一批研究表明的那样,越来越多地使用推荐算法来预先选择在线内容或选项,可以导致这种适应性偏好[28]。这种现象可能会因自动化偏见而得到强化,即人类倾向于偏爱来自计算机的建议
适应性偏好形成是指一个人调整自己的偏好以匹配可用的选项的过程[27]。正如第一批研究表明的那样,越来越多地使用推荐算法来预先选择在线内容或选项,可以导致这种适应性偏好[28]。这种现象可能会因自动化偏见而得到强化,即人类倾向于偏爱来自计算机的建议
过去十年,人工智能 (AI) 在各个领域取得了指数级的进步。技术越来越智能,越来越自主,决策能力也越来越强。这些技术包括自动驾驶汽车、无人机、人形机器人等先进技术,以及语音代理、社交媒体或娱乐应用程序等我们每天接触的各种系统。自主智能系统的先进功能具有许多优势,例如自动执行冗余任务、支持更好的个性化、增强预测和提供决策支持。然而,在某些情况下,这些技术也对人类自主性构成威胁,因为它们过度优化了工作流程、超个性化,或者没有给用户足够的选择、控制或决策机会。此外,由于它们本质上是黑箱的,它们还带来了道德挑战,例如缺乏透明度和问责制。随着自主智能技术在我们的日常生活中越来越普及,这些问题导致了如何解决人类和机器自主性之间的摩擦的难题。以人为本的人工智能研究人员一直在开发模型和方法,以使用可解释性、玻璃盒 ML 模型和其他以用户为中心的方法来实现公平、透明和可追溯的人工智能技术。然而,在确定能够让我们开发基于人工智能的技术而不危及人类控制、代理和自主权的方法方面仍然存在差距。目前还不清楚人类和机器自主性之间的紧张关系在不同的应用环境中如何变化,以及来自不同领域的研究人员如何看待这种紧张关系(例如,计算机科学、哲学和伦理学、心理学、社会科学、人机交互等)。本文集是 2020 年 NordiCHI 会议上就同一研究主题举行的国际研讨会的延伸贡献(研讨会网站)。它通过将人机交互(A6)、临床决策支持系统(A4)、家庭自动化(A7)、无人机自主管理(A3)等各个领域的观点引入到人工智能的日常应用(A5),扩展了自主性的概念。此外,它还从监管角度 (A2) 和哲学角度 (A1) 深入了解了人工智能对人类自主性的挑战。下面我们将向读者简要介绍每一项贡献,从领域通用概念分析到领域特定实证研究。
摘要 社交机器人是可以与人类进行社交互动的机器人。随着社交机器人及其驱动的人工智能 (AI) 变得越来越先进,它们可能会承担更多的社交和工作角色。这具有许多重要的伦理含义。在本文中,我们重点关注其中最核心的一个,即社交机器人对人类自主性的影响。我们认为,由于社交机器人的物理存在和社交能力,它们很有可能增强人类的自主性,同时也有几种抑制和不尊重人类自主性的方式。我们认为,社交机器人可以通过帮助我们实现更有价值的目标、做出更真实的选择和提高我们的自主能力来提高人类的自主性。我们还认为,社交机器人有可能损害人类的自主权,因为它反而会让我们自己实现更少的有价值的目标,做出更少的真实选择,降低我们的自主能力,使我们的自主权更加脆弱,并且不尊重我们的自主权。社交机器人对人类自主权的影响总体上是积极的还是消极的,将取决于我们未来对社交机器人的设计、监管和使用。
本研究涉及人类自主权的社会技术基础。借鉴最近关于人工智能伦理的文献、关于自主权维度的哲学文献以及独立的哲学审查,我们首先提出了一个人类自主权的多维模型,然后讨论了人工智能系统如何支持或阻碍人类自主权。由此浮现出的是一幅具有哲学动机的自主权图景,以及个人自主权在算法系统背景下提出的规范性要求。从同意到数据收集和处理,到计算任务和界面设计,到制度和社会考虑,必须考虑与社会技术系统相关的各个方面,以便全面了解人工智能系统对人类自主权的潜在影响。很明显,人类代理如何通过强制或操纵来阻碍彼此的自主权,或者他们如何尊重彼此的自主权。人工智能系统可以促进或阻碍人类的自主性,但它们真的可以尊重或不尊重一个人的自主性吗?我们主张一种哲学观点,即人工智能系统——虽然不是道德主体或责任承担者,也不能真正尊重或不尊重——却受所谓的“应有规范”的支配。这解释了人工智能系统所面临的规范性。负责任的人(设计者、用户等)有职责和应有的规范,这些职责和规范与这些应有的规范相对应。
Pushparaj,K.,Ky,G.,Ayeni,A。J.,Alam,S。&Duong,V。N.(2021)。源自功能性磁共振成像的空中交通控制器中人类自动化信任的量子启发模型,与行为指标相关。航空运输管理杂志,97,102143-。https://dx.doi.org/10.1016/j.jairtraman.2021.102143
未经同行评审认证)是作者/资助者。保留所有权利。未经许可不得重复使用。此预印本的版权所有者(此版本于 2020 年 5 月 21 日发布。;https://doi.org/10.1101/2020.05.18.103176 doi:bioRxiv preprint
