摘要 — 飞机上的许多无线通信系统缺乏标准的安全机制,从根本上来说,它们很容易受到攻击。随着价格合理的软件定义无线电的出现,一种新的威胁出现了,使各种攻击者能够轻松干扰无线航空电子系统。虽然这些漏洞是已知的,但利用它们的具体攻击仍然是新的,尚未得到很好的理解。尤其是它们对受攻击飞机的操纵及其安全性的动能影响。为了调查这一点,我们邀请了 30 名空客 A320 型飞行员在模拟器场景中飞行,在这些场景中,他们的航空电子设备受到了攻击。我们实施并分析了对三个安全相关系统的新型无线攻击:交通防撞系统 (TCAS)、近地警告系统 (GPWS) 和仪表着陆系统 (ILS)。我们发现,所有三种分析的攻击场景都通过转向、规避操作和转移造成了重大的控制影响和中断成本。它们进一步增加了工作量,增加了对受影响系统的不信任,并且在 38% 的情况下导致受攻击的安全系统完全关闭。所有飞行员都认为这些场景很有用,93.3% 的飞行员认为无线攻击的模拟器训练很有价值。
上下文:证据表明,血浆葡萄糖水平可能影响认知能力,但这尚未系统地审查和量化。目的:本综述的目的是研究葡萄糖和蔗糖与安慰剂相比对健康人类认知的潜在影响。数据来源:截至2019年12月,搜索了电子数据库和网络科学。手动检查选定文章的参考列表。研究选择:比较葡萄糖或蔗糖与安慰剂的随机对照试验或对认知作用的跨越试验。数据提取:2位作者独立选择了潜在的合格文章。通过Cochrane协作工具评估了偏见的风险。标准化的平均差异(SMD)是从随机效应的荟萃分析中获得的,用于报告相同结果的研究子样本。结果:确定了37次试验,其中35个研究了与安慰剂对认知有关的葡萄糖消耗的影响。两项研究发现葡萄糖对认知没有影响,而其他研究则发现结果不同。37项研究中只有3项研究了蔗糖摄入的影响,报告结果混合了。荟萃分析显示,与对照组相比,葡萄糖的显着积极作用,但仅当在平行设计研究中使用语言表达测试(直接单词召回)(SMD¼0.61; 95%CI,0.20-1.02; i2¼0%)。二十四个研究被归类为在选择程序中具有高偏见的高风险。结论:有限的证据表明,葡萄糖对执行口头任务的个体的有益作用。需要进行标准化认知测量值的高质量试验,以更好地确定葡萄糖或蔗糖对认知的影响。系统审查注册:Prospero注册号CRD42019122939。
这篇讨论论文由考尔斯基金会在 EliScholar(耶鲁大学学术出版数字平台)免费提供给您,供您免费访问。它已被 EliScholar(耶鲁大学学术出版数字平台)的授权管理员接受并收录在考尔斯基金会讨论论文中。如需更多信息,请联系 elischolar@yale.edu。
2025年2月20日,星期四 - 2025年2月21日,星期五,研讨会将讨论人工智能在扩大研究能力中的作用,尤其是对于稀有疾病,同时探索了诸如防止医疗保健危害的关键挑战,并确保了高级技术资源的可用性和可负担性。小组讨论和远见运动将以研究AI,实验室自动化和机器人技术的整合,以提高化学科学在传统药物发现中的作用的思想领袖。DAY 1: THURSDAY, FEBBRUARY 20, 2025 (ALL TIMES ARE US EASTERN) Breakfast is available for purchase in the cafeteria (3 rd Floor) 08:00AM–09:00AM Optional: Early Morning Coffee Provided by the Academies for registered in-person attendees 09:00AM–09:05AM Opening Remarks Michael Janicke , Chemical Sciences Roundtable, National Academies of Sciences, Engineering, and Medicine Session One |药物发现:“现在的未来”该小组将重点关注AI/ML,机器人技术和自动化等先进工具如何改变化学实验室,以有效地进行药物发现过程。09:05 AM – 09:10 AM会议介绍和概述Andrew White,CSR和Rochester大学(每位发言人15分钟,可供背景和开幕词)09:10 AM – 10:10 AM – 10:10 AM Alexandra Snyder Charen,Alexandra Snyder Charen,Alexandra Snyder Charen,生成生物医学詹姆斯·詹姆斯·李09:05 AM – 09:10 AM会议介绍和概述Andrew White,CSR和Rochester大学(每位发言人15分钟,可供背景和开幕词)09:10 AM – 10:10 AM – 10:10 AM Alexandra Snyder Charen,Alexandra Snyder Charen,Alexandra Snyder Charen,生成生物医学詹姆斯·詹姆斯·李
为什么AI与像医疗保健这样的复杂社会技术系统之间没有简单的拟合度,尽管医生具有专业技能,但它们与所有人类相同的局限性,而认知科学可以为理解提供基础。这首先要认识到AI将永远不会成为复杂的社会技术系统的简单拟合度。首先,对AI可以执行的任务的理解是误导的。经常建立AI模型,而无需担心应解决的任务;而且他们的发展缺乏将使用它们的人的意见,在这种情况下,卫生系统中的从业者。第二,AI模型没有能力使用上下文或含义来告知他们的决策。这是有问题的,因为上下文批判性地决定了患者的结局质量。例如,以前检测败血症的AI算法因不了解部署的人口特征而错过了很大比例的病例。18,19然而,在同一人群中工作的医生将能够利用他们对不同人群中败血症率不同的知识(基于经验),以识别准确诊断败血症所需的症状。20此外,用于训练AI的数据集通常不会保持最新状态,以反映他们试图进行分类的人口的多样性或疾病,从而大大限制了技术的适应性和保质期。
可以与人类协调零拍摄的培训代理是多代理增强学习(MARL)的关键任务。当前的算法专注于培训模拟的人类合作伙伴政策,然后将其用于培训合作者。模拟人类是通过克隆在人类数据集上的行为而产生的,或者通过使用MARL来创建模拟药物群体。但是,这些方法通常很难产生有效的合作者,因为所学的人类未能涵盖现实世界中人们采用的各种策略。我们表明,学习人类伴侣的生成模型可以有效地解决这个问题。我们的模型学习了人类的潜在变量表示,可以被视为编码人类的独特策略,意图,经验或风格。可以从任何(人类或神经政策)代理商相互作用数据,在先前工作中提出的统一方法灵活训练此生成模型。通过从潜在空间进行抽样,我们可以使用生成模型来生产不同的合作伙伴来训练合作者。我们评估了我们的方法 - 在熟练的情况下(伽马)的精力充沛,这是一种充满挑战的合作烹饪游戏,已成为零击协调的标准基准。我们对真正的人类队友进行了评估,结果表明,无论是在模拟人群还是人类数据集上训练生成模型,伽玛都会始终提高性能。1此外,我们提出了一种从生成模型中进行后验采样的方法,该方法偏向人类数据,使我们仅使用少量昂贵的人类交互数据有效地提高了性能。
机器人和其他人工智能 (AI) 系统被广泛视为对其行为负责的道德主体。随着人工智能的普及,这些看法可能会通过对一个人工智能的态度对其他人工智能的态度的道德溢出而纠缠在一起。我们在两个预先注册的实验中测试了人工智能或人类主体看似有害和不道德的行为如何影响对其他人工智能或人类的态度。在研究 1 (N = 720) 中,我们通过表明不道德的行为增加了对主体(聊天机器人或人类助手)及其所属群体(所有聊天机器人或人类助手)的负面道德主体(即不道德行为)的归因并减少了对主体(聊天机器人或人类助手)及其所属群体(所有聊天机器人或人类助手)的积极道德主体(即道德行为)和道德耐心(即值得道德关注)的归因,建立了人机交互中的道德溢出效应。人工智能和人类环境之间的溢出效应没有显着差异。在研究 2(N = 684)中,我们测试了当代理被赋予一个名字并被描述为人工智能或人类,而不是具体描述为聊天机器人或个人助理时,溢出效应是否持续存在。我们发现溢出效应在人工智能环境中持续存在,但在人类环境中不存在,可能是因为人工智能由于其相对于人类的外群体地位而被认为更加同质化。这种不对称表明了一种双重标准,即当一个代理在道德上逾越时,人工智能会比人类受到更严厉的评判。随着多样化、自主的人工智能系统的激增,人机交互的研究和设计应该考虑到这样一个事实:对一种人工智能的体验很容易推广到对所有人工智能的看法,并产生负面的人机交互结果,例如信任度降低。
1. 我们的愿景 未来工作(FoW)正在经历一场人工智能系统(广义上是机器或企业)为人类谋福利的演变。这里的工作指的是由人工智能系统实现的物理和虚拟工作场所中所有形式的有偿和无偿劳动。这包括众包平台(如 Amazon Mechanical Turk)、在线劳动力市场(如 TaskRabbit 和 Qapa),也包括物理工作场所的常规工作。将人类带回 FoW 的前沿将增加他们对人工智能系统的信任,改变他们的看法,将其作为自我提升的源泉,确保更好的工作绩效,并积极影响社会和国家的社会和经济成果。为实现这一目标,物理和虚拟工作场所需要捕捉人类的特征、行为和不断变化的需求,并为所有人提供就业机会。
人类需要计算范式的进步。这方面的一些例子是,无处不在的计算提供了更高的移动性,云计算提供了更好的功能,而社交计算提供了更好的交互性。这些例子中的每一个都引入了人类的隐性或显性需求,并试图通过特定方法实现这些需求。但是,人类可能会对应用程序进行更多的研究。聊天机器人就是一个例子,因为当我们没有足够的空间或时间时,这个机器人被用来维持与社交联系人的关系。为此,它通过计算我们的思维模式、行为和其他重要信息来不断与我们的联系人互动。当然,这个主题有很多有趣的研究,这引发了对一种新的计算范式“预期计算”的讨论。这种计算范式表明了与开发能够预测特定用户需求的应用程序相关的主题。它还与新应用程序一起使用,以预期用户的问题执行操作或向用户发送建议。这不仅是人工智能的一个例子,也是创新的一个例子(即预测加行动)。它还可以表达为发展社会福祉的关键,以及实现“先服务后要求”理想的一种方式。 这种现象将被视为在计算机科学主题中提出挑战性问题的机会。考虑到社交网络和大数据内容中存在的无价群体智慧,出现了使有前途的智能技术能够发现个人需求、生成公司商业模式并提出最佳生活发展建议的机会。因此,大数据的性质也从多个角度对依赖社交大数据的方法和技术提出了重要挑战。这些考虑了算法的有效性、计算速度、能源效率、用户隐私、服务器安全性和系统可扩展性。本研究主题的主要目标是收集 14 篇报告与深度神经网络或机器学习方法相关的原创贡献的论文,用于构建预测系统。张等人的论文题为“一种增强儿童阅读体验和偏好的图书互动方案”。研究书籍与5-6岁儿童之间的互动,考虑阅读选择、测量阅读时间和情感反应以增加他们的阅读知识,并根据这些互动开发书籍。
* 乔治华盛顿大学法学院知识产权和技术法 Eugene L. 和 Barbara A. Bernard 教授。感谢 JP Schnabel 和 Alexa Adalian 提供的出色研究协助。我们还要感谢以下人员对本文早期草稿的出色反馈:Rebecca Crootof、Ben Green、Aziz Huq、Margot Kaminski、James Lau、Michael Risch 和 Alicia Solow-Niederman。** Hideyuki Matsumi 或 Yuki 是布鲁塞尔自由大学 (VUB) 法律、科学、技术和社会研究小组 (LSTS) 以及健康和老龄化法律实验室 (HALL) 的博士候选人/研究员。纽约律师协会成员。本论文是为题为“新人工智能:ChatGPT 和其他新兴技术的法律和伦理影响”的研讨会准备的,该研讨会由《福特汉姆法律评论》主办,并由福特汉姆大学法学院神经科学与法律中心共同赞助,于 2023 年 11 月 3 日在福特汉姆大学法学院举行。