您的年龄组是多少? 您在工作中使用人工智能系统吗? 您在日常任务中使用人工智能工具(例如虚拟助手、机器学习算法)的频率是多少? 您主要使用哪种类型的人工智能? 您是否认为人工智能降低了您在无人帮助的情况下解决问题的能力? 您认为人工智能系统提高了您的批判性思维能力吗? 人工智能如何影响了您的解决问题的能力? 您对人工智能的依赖是否影响了您在非人工智能辅助任务中进行逻辑和批判性思考的能力? 在教育环境中,您如何看待使用人工智能来辅助学习和决策? 如果人工智能处理大多数逻辑任务,哪种认知能力可能会随着时间的推移而减弱? 人工智能如何影响您参与需要深度逻辑思维的任务? 您认为长期持续依赖人工智能会降低人类的整体逻辑能力吗?
最近,在豪斯多夫维数为 2+ ϵ 的分形格上构造了一类分形表面码 (FSC),此类码可采用容错非 Clifford CCZ 门 [1]。我们研究了此类 FSC 作为容错量子存储器的性能。我们证明了在豪斯多夫维数为 2 + ϵ 的 FSC 中,存在针对位翻转和相位翻转错误具有非零阈值的解码策略。对于位翻转错误,我们通过对分形格中孔洞的边界进行适当的修改,将为常规 3D 表面码中的串状综合征开发的扫描解码器应用于 FSC。我们对 FSC 的扫描解码器的改进保持了其自校正和单次特性。对于相位翻转错误,我们采用针对点状综合征的最小权重完美匹配 (MWPM) 解码器。对于具有豪斯多夫维数 DH ≈ 2 . 966 的特定 FSC,我们报告了扫描解码器在现象噪声下的可持续容错阈值(∼ 1 . 7% )和 MWPM 解码器的代码容量阈值(下限为 2 . 95% )。后者可以映射到分形晶格上限制希格斯跃迁临界点的下限,该下限可通过豪斯多夫维数进行调整。
摘要 量子范式呈现出一种称为退化的现象,这种现象可以潜在地提高量子纠错码的性能。然而,在评估稀疏量子码的性能时,这种机制的影响有时会被忽略,逻辑错误率并不总是能被正确报告。在本文中,我们讨论了以前存在的计算逻辑错误率的方法,并提出了一种受经典编码策略启发的基于陪集的有效方法来估计退化错误并将其与逻辑错误区分开来。此外,我们表明,所提出的方法为 Calderbank-Shor-Steane 码系列提供了计算优势。我们使用这种方法证明,退化错误在特定的稀疏量子码系列中很常见,这强调了准确报告其性能的重要性。我们的结果还表明,文献中提出的改进解码策略是提高稀疏量子码性能的重要工具。
随着 2019 年航空环境保护委员会 (CAEP/11) 非挥发性微粒物质质量和非挥发性微粒物质数量发动机排放标准的通过,国际民用航空组织 (ICAO) 的全套环境标准已趋于完善。然而,现在的挑战是在考虑到技术进步的高速发展的情况下,使这一系列法规在 CAEP 工作计划内保持最新状态。此外,为满足越来越严格的监管水平,需要在噪音、燃油效率/二氧化碳排放和发动机排放方面进行技术改进,其综合性显而易见。国际民航组织独立专家最近对技术目标进行的审查是一次综合审查,承认噪音与各种排放法规 2 之间的相互依存关系日益重要。
量子计算已证明可以对许多经典计算问题产生指数加速。这引起了许多新领域,例如量子算法和量子密码学(即shor [Sho94]和Grover [gro96])。尽管量子算法在理论上的表现良好,但实际应用也很容易受到环境(温度,辐射,光等)的计算错误的影响。量子计算的批评者也将其视为与经典同行相比的主要缺点[AAR13]。直到1995年,Peter Shor [Sho95]首先表明可以通过构建第一个量子误差校正代码来纠正量子错误。这一发现证明,通过使用量子错误校正代码,我们可以使量子计算足够缩放以运行构算算法。
连续变量(CV)系统在实现通用量子计算的实现中引起了越来越多的关注。最近的一些实验表明,使用CV系统将值编码为捕获的离子机械振荡器并执行逻辑门的可行性[C. C. Flühmann等。,自然(伦敦)566,513(2019)]。必不可少的下一步是保护编码的量子函数免受量子反应的影响,例如,由于机械振荡器及其环境之间的相互作用而引起的运动反应性。在这里,我们提出了一种方案,以抑制单模谐波振荡器的量子反应性,该方案是通过引入非逆势泄漏消除操作员(LEO)的特定设计来编码Qubits的。值得注意的是,我们的非扰动狮子座可用于分析无近似值的精确运动方程。它还允许我们证明这些LEO的有效性仅取决于时间域中的脉冲序列的积分,而脉冲形状的详细信息在适当选择时间段时并没有显着差异。此控制方法可以在任意温度和任意系统轴耦合强度下应用于系统,这使其对于一般的开放量子系统非常有用。
本文探讨了人工智能 (AI) 遏制问题,特别是针对为通用人工智能 (AGI) 和超级智能创建有效保障措施的挑战。我认为,完全控制(定义为完全可预测人工智能行为并完全遵守安全要求)是无法实现的。本文回顾了五个关键约束:不完整性、不确定性、不可验证性、不可计算性和不可纠正性。这些限制基于逻辑、哲学、数学和计算理论,例如哥德尔不完备定理和停机问题,它们共同证明了遏制人工智能是不可能的。我认为,不应追求完全遏制人工智能,而应将资源分配给风险管理策略,这些策略承认人工智能的不可预测性并优先考虑自适应监督机制。
摘要 在认知、计算和神经科学领域,从业者经常推理计算模型代表或学习什么,以及实例化什么算法。这种推理的假定目标是将有关所讨论模型的主张概括为有关思维和大脑以及这些系统的神经认知能力的主张。这种推理通常基于模型在任务上的表现,以及该表现是否接近人类行为或大脑活动。在这里,我们展示了这种论证如何使模型与其目标之间的关系复杂化;我们强调人工神经网络 (ANN),尽管任何落入相同推理模式的理论-大脑关系都存在风险。在本文中,我们在一个正式框架——元理论演算——内对从 ANN 到大脑再返回的推理进行建模,以便就如何广泛理解和使用模型以及如何最好地正式描述它们及其功能展开对话。为此,我们从已发表的记录中表达了关于模型在一阶逻辑中的成功和失败的主张。我们提出的形式化方法描述了科学家在裁决理论时制定的决策过程。我们证明,将文献中的论证形式化可以揭示理论与现象之间关系的潜在深层问题。我们讨论了这对认知科学、神经科学和心理学研究的广泛意义;当模型失去以有意义的方式在理论和数据之间进行调解的能力时,这意味着什么;以及这对我们的领域在进行高级科学推理时部署的元理论演算意味着什么。
摘要 — 卫星极易受到太空中敌对故障或高能辐射的影响,这可能导致机载计算机出现故障。过去几十年来,人们探索了各种辐射和容错方法,例如纠错码 (ECC) 和基于冗余的方法,以缓解软件和硬件上的临时软错误。然而,传统的 ECC 方法无法处理硬件组件中的硬错误或永久性故障。这项工作引入了一种基于检测和响应的对策来处理部分损坏的处理器芯片。它可以从永久性故障中恢复处理器芯片,并利用芯片上可用的未损坏资源实现连续运行。我们在目标处理器的芯片上加入了基于数字兼容延迟的传感器,以便在发生故障之前可靠地检测到芯片物理结构上的传入辐射或故障尝试。在检测到处理器算术逻辑单元 (ALU) 的一个或多个组件出现故障后,我们的对策采用自适应软件重新编译来重新合成受影响的指令,并用仍在运行的组件的指令替换这些指令,以完成任务。此外,如果故障范围更广,并妨碍了整个处理器的正常运行,我们的方法将部署自适应硬件部分重新配置来替换故障组件并将其重新路由到芯片的未损坏位置。为了验证我们的说法,我们在 28 nm FPGA 上实现的 RISC-V 处理器上部署了高能近红外 (NIR) 激光束,通过部分损坏 FPGA 结构来模拟辐射甚至硬错误。我们证明我们的传感器可以自信地检测到辐射并触发处理器测试和故障恢复机制。最后,我们讨论了我们的对策带来的开销。