由于 QIS 的时间跨度长且本质上是跨学科的,因此其发展面临着特殊的问题。该领域的研究人员在传统学科的边缘工作,因此有时很难获得资金或发展自己的事业。最优秀的学生被 QIS 带来的兴奋所吸引,但他们不确定如何在传统的学术部门内追求这种兴趣。最令人担忧的是,那些通过 QIS 研究获得高级学位的优秀年轻科学家经常被迫离开该领域,因为缺乏稳定的资金来支持他们的工作……
Beppe Brivec 2024 年 9 月 1 - 简介:奥卡姆剃刀和概括 我将要在本节中写的内容仅指休谟问题,而不是古德曼悖论,古德曼悖论是一个更普遍的问题,它涉及归纳法,但不仅仅涉及归纳法。 让我们比较一下假设 A“所有祖母绿都是绿色的”与假设 B“所有祖母绿细分为绿色和蓝色”,后者指出不仅有绿色祖母绿,还有蓝色祖母绿。 假设 A 和 B 是不相容的。 我们不知道先验理由来偏爱一个假设而不是另一个假设;因此,我们寻找后验理由来偏爱一个假设而不是另一个假设。 [尾注 1]。在“所有 F 都是 G”这种科学概括中,F 的数量被假定为无限数(如果 F 的数量是有限数,那么休谟问题将很容易通过概率计算(客观概率)来处理),因此,不可能检验所有 F。因此,如果 A 为真,B 就永远无法证伪(因为不可能检验所有 F,所以不可能检验所有绿宝石;因此,我们永远无法证明没有蓝色绿宝石)。相反,如果 B 为真,A 被证伪并非不可能(观察蓝色绿宝石会证伪 A)。换句话说,A 的真实性意味着 A 和 B 都不可能证伪;相反,B的真实性并不意味着A不可能被证伪。因此,目前A和B都未被证伪是A的必然结果,而不是B的必然结果。所以,押注A比押注B更合理,我们宁愿押注A而不是押注B。换句话说,A的真实性意味着A和B都不可能被证伪;相反,B的真实性并不意味着A不可能被证伪。命题A必然意味着预测A和B都未被证伪;命题B不一定意味着预测A和B都未被证伪。目前的证据是A和B都未被证伪:假设A必然预测A和B都未被证伪;假设B不一定预测A和B都未被证伪。所以,押注A比押注B更合理。
第一部分:概述 • 自动驾驶系统保证面临的挑战 • VerifAI 和 Scenic 概述 • 模拟和道路上基于场景的正式测试案例研究 第二部分:教程 • 使用 Scenic 进行空间建模、数据生成和基于 ML 的感知调试 • 使用 Scenic 和 VerifAI 进行时空场景建模、测试、证伪、调试和再训练 • 展望
根据对模拟论证最常见的解释,我们很可能生活在祖先模拟中。有趣的是,在所有模拟空间中,某些模拟家族是否比其他模拟家族更有可能出现。我们认为,计算复杂性给出了一个自然的概率度量:更简单的模拟更有可能运行。值得注意的是,这使我们能够从我们生活在模拟中的事实中提取实验预测。例如,我们表明,人类很可能无法实现星际旅行,人类也不会在宇宙中遇到其他智慧物种,从而解释了费米悖论。另一方面,任何这些预测的实验证伪都将构成反对我们的现实是模拟的证据。
人们通常认为大脑和计算机之间的关系只是一种比喻。然而,真正的计算系统几乎可以在任何媒介中实现;因此,人们可以认真对待大脑确实可以计算的观点。但是,如果没有经验标准来判断什么使物理系统真正成为计算系统,计算就仍然是一个视角问题,尤其是对于那些没有明确设计和设计为计算机的自然系统(例如大脑)。从真实的物理计算机示例(模拟和数字、当代和历史)中考虑,可以清楚地知道这些经验标准必须是什么。最后,将这些标准应用于大脑表明了我们如何将大脑视为计算机(可能还是模拟计算机),这反过来又阐明了这一说法既具有启发性又可证伪。
然而,这些产品引发的伦理问题是多方面的。首先,这些技术是否有效:它们是否真的能预测未来的能力,它们的招聘判断是否真的稳健(可重复且不可证伪)(Bayerischer Rundfunk,2021 年)。然而,即使 AI/HR 技术能像制造商声称的那样发挥作用,在人力资源领域使用 AI 也会引发重大的伦理和法律问题(Bogen & Rieke,2018 年;Sánchez-Monedero 等人,2020 年;Tambe 等人,2019 年)。与 AI 的其他应用领域类似,这些问题包括与歧视、隐私、可解释性和问责制有关的担忧。对于求职者和工作者来说,人类尊严的多个维度都受到威胁,包括他们的个人自主权。鉴于工作在人们生活中的重要性,这些以及其他围绕人力资源领域使用 AI 的伦理问题对个人和整个社会都至关重要。
态势感知 (SA) 已经取代传统的“方向舵和操纵杆”技能,成为空战中取胜的主要因素 (Endsley,1995;Svenmarckt 和 Dekker,2003)。态势感知通常被定义为一个人对当前状况的感知 (SA 级别 1)、对当前状况的理解 (SA 级别 2) 和对近期事件的预测 (SA 级别 3) 的三级结构 (Endsley,1995)。态势感知作为一个概念可能是有争议的。例如,Dekker 和 Hollnagel (2004) 将该概念描述为“民间模型”,并采用还原论方法,认为态势感知可以分解为可测量的具体组成部分 (例如决策、感知、理解和长期记忆)。他们还认为,态势感知不容易被证伪 (另见 Flach,1995)。即使承认 SA 确实存在,该概念的科学性仍有待商榷。例如,它存在于用户的认知中,还是更广泛系统的突发属性,以及最合适的测量方法是什么(有关更多详细信息,请参阅 Salmon 等人,2008 年;Endsley,2015 年;Stanton 等人,2017 年;Nguyen 等人,2019 年的广泛评论)?尽管如此,很明显,SA 的概念已成为评估系统和人类表现的重要指标。正如 Wickens (2008) 指出的那样“……人们可以说,该构造在理论和应用中的使用增加证明了
态势感知 (SA) 已经取代传统的“方向舵和操纵杆”技能,成为空战中取胜的主要因素 (Endsley,1995;Svenmarckt 和 Dekker,2003)。态势感知通常被定义为一个人对当前状况的感知 (SA 级别 1)、对当前状况的理解 (SA 级别 2) 和对近期事件的预测 (SA 级别 3) 的三级结构 (Endsley,1995)。态势感知作为一个概念可能是有争议的。例如,Dekker 和 Hollnagel (2004) 将该概念描述为“民间模型”,并采用还原论方法,认为态势感知可以分解为可测量的具体组成部分 (例如决策、感知、理解和长期记忆)。他们还认为,态势感知不容易被证伪 (另见 Flach,1995)。即使承认 SA 确实存在,该概念的科学性仍有待商榷。例如,它存在于用户的认知中,还是更广泛系统的突发属性,以及最合适的测量方法是什么(有关更多详细信息,请参阅 Salmon 等人,2008 年;Endsley,2015 年;Stanton 等人,2017 年;Nguyen 等人,2019 年的广泛评论)?尽管如此,很明显,SA 的概念已成为评估系统和人类表现的重要指标。正如 Wickens (2008) 指出的那样“……人们可以说,该构造在理论和应用中的使用增加证明了
态势感知 (SA) 已经取代传统的“方向舵和操纵杆”技能,成为空战中取胜的主要因素 (Endsley,1995;Svenmarckt 和 Dekker,2003)。态势感知通常被定义为一个人对当前状况的感知 (SA 级别 1)、对当前状况的理解 (SA 级别 2) 和对近期事件的预测 (SA 级别 3) 的三级结构 (Endsley,1995)。态势感知作为一个概念可能是有争议的。例如,Dekker 和 Hollnagel (2004) 将该概念描述为“民间模型”,并采用还原论方法,认为态势感知可以分解为可测量的具体组成部分 (例如决策、感知、理解和长期记忆)。他们还认为,态势感知不容易被证伪 (另见 Flach,1995)。即使承认 SA 确实存在,该概念的科学性仍有待商榷。例如,它存在于用户的认知中,还是更广泛系统的突发属性,以及最合适的测量方法是什么(有关更多详细信息,请参阅 Salmon 等人,2008 年;Endsley,2015 年;Stanton 等人,2017 年;Nguyen 等人,2019 年的广泛评论)?尽管如此,很明显,SA 的概念已成为评估系统和人类表现的重要指标。正如 Wickens (2008) 指出的那样“……人们可以说,该构造在理论和应用中的使用增加证明了
信息物理系统 (CPS) 已广泛应用于安全关键领域,例如汽车系统、航空电子设备、医疗设备等。近年来,人工智能 (AI) 越来越多地被用于控制 CPS。尽管人工智能 CPS 很受欢迎,但公开的基准测试却很少。人们对不同工业领域的人工智能 CPS 的性能和可靠性也缺乏深入了解。为了弥补这一差距,我们提出了七个领域的行业级 CPS 公共基准,并通过最先进的深度强化学习 (DRL) 方法为它们构建人工智能控制器。在此基础上,我们进一步对这些人工智能系统与传统系统进行系统评估,以确定当前的挑战和未来的机遇。我们的主要发现包括:(1) AI 控制器并不总是优于传统控制器;(2) 现有的 CPS 测试技术(具体来说,证伪)不足以分析支持 AI 的 CPS;(3) 构建一个混合系统,在 AI 控制器和传统控制器之间进行战略性组合和切换,可以在不同领域实现更好的性能。我们的结果强调了对支持 AI 的 CPS 的新测试技术的需求,以及对混合 CPS 进行更多研究以实现最佳性能和可靠性的需要。我们的基准、代码、详细评估结果和实验脚本可在 https://sites.google.com/view/ai-cps-benchmark 上找到。