引言土著健康在包括新西兰,澳大利亚和加拿大在内的各个国家中被认为是最重要的。土著健康的重点是确保所有社会群体的同等健康机会,特别关注过去机会较少的土著人民。1先前对土著社区的研究工作旨在解决这些差异,并取得了不同水平。这些干预措施的有效性的关键在于研究人员结合了秘密知识,信念和世界观以创造具有文化恰当的健康干预措施。2评估了在土著社区中卫生保健干预的有效性,我们借鉴了六个研究,这些研究重点是改善新西兰3和加拿大的土著健康。4本文首先概述了在具有文化适当的健康干预措施的设计中,特别是与Māori文化有关的概念的重要性,介绍了这些研究。接下来,我们采用动机 - 运动能力(MOA)框架来确定推动行为变化的关键成功因素,包括个人采取行动的意愿(动机),对环境的看法(机会)以及与动作相关的技能或知识。在机会的概念下,我们仅关注技术的作用 -
感觉终末器官特征和中枢神经系统对复杂的多感觉刺激的反应活动越来越多地与人类在类似刺激条件下报告的身体运动感知相关。将身体运动刺激引起的感觉单元活动与头部或眼睛稳定等有目的的运动活动联系起来显然是恰当的。将潜在的感觉转导和这些传入信号的高级处理与运动感知的产生联系起来也同样重要。在人们充分认识到我们用眼睛看、用耳朵听之后很长一段时间,空间定向知觉的起源仍然是个谜。19 世纪初,人们仍认为平衡感与颅骨内液体的移动有关,因为头部方向受重力影响而改变。也许弗卢恩斯 (55) 所做的为空间定向建立感觉基础的最关键实验。他证明了半规管在姿势稳定性和平衡方面的重要作用,并顺便将半规管的刺激与晕动症的发生联系起来。然而,19 世纪中叶的物理学家和自然科学家马赫却将半规管和耳石系统的物理特性与倾斜和旋转的定量感知测量联系起来。在他的
摘要:当飞机被视为最终产品时,它具有复杂的结构和众多需要管理的部件。复杂性要求多功能设计活动,而多功能设计需要协作的工作方式才能持续成功。这种协作方法只能借助并行工程技术来实现。目前,在 CAD 工具的数字环境中执行了几项独特的设计活动。产品各部件之间的位置信息和相互关系由关联物理 CAD 链接提供。设计活动期间对 CAD 链接的要求为使用主几何模型作为飞机形状的官方来源和所有相关参与者的几何参考铺平了道路。必须在产品生命周期管理工具中管理主几何模型,以便从概念、设计和制造到产品的服务和处置有效地实施和使用模型。当试图在 CAD 环境中在主几何模型和产品 3D 模型之间建立关联时,可能会观察到一些不恰当的情况。本文将研究这些案例,并通过具体的例子提出潜在的解决方案,这些解决方案是经验教训活动的结果。
摘要:当飞机被视为最终产品时,它具有复杂的结构和众多需要管理的部件。复杂性要求多功能设计活动,而多功能设计需要协作的工作方式才能持续成功。这种协作方法只能借助并行工程技术来实现。目前,在 CAD 工具的数字环境中执行了几项独特的设计活动。产品各部件之间的位置信息和相互关系由关联物理 CAD 链接提供。设计活动期间对 CAD 链接的要求为使用主几何模型作为飞机形状的官方来源和所有相关参与者的几何参考铺平了道路。必须在产品生命周期管理工具中管理主几何模型,以便从概念、设计和制造到产品的服务和处置有效地实施和使用模型。当试图在 CAD 环境中在主几何模型和产品 3D 模型之间建立关联时,可能会观察到一些不恰当的情况。本文将研究这些案例,并通过具体的例子提出潜在的解决方案,这些解决方案是经验教训活动的结果。
信息或电磁发散。自1996年第一次出版关于时机攻击的首次出版物以来,这种称为侧道攻击的新一代攻击在很大程度上引起了研究界的关注[20]。攻击的可能性很多,鉴于在敏感计算过程中设备可以披露的各种信号:功耗[19,24],磁场[11],温度[5]甚至声音[1]。 读者被转介给[15],以进行有关侧通道攻击的广泛介绍。 本文重点介绍了一个特定类别的侧通道攻击:恰当的攻击。 这些攻击是基于从CPU缓存内存泄漏的定时信息。 的确,当目标算法使用SEN-SINDIVE信息时,它将秘密数据加载到缓存内存中。 可以利用间谍保护的攻击者间接检查缓存mem-yry的内容,可以推断出目标算法已操纵哪些数据。 Tsunoo等人首先引入了缓存攻击。 在[35]中打破DES。 后来,在流行的缓存攻击中,使用缓存信息来打破AES [3],以及RSA的RSA:Flush+Reload [38]。 在本文中,我们将使用后一种攻击的改进:冲洗+冲洗攻击[14],它更隐形,产生更多的结果。 更具体地,我们在本文中研究了对ECDSA的OpenSSL实现的缓存时间攻击,ECDSA是用于数字签名的椭圆曲线算法。 OpenSSL [27]是用于实现加密协议的开源工具包。攻击的可能性很多,鉴于在敏感计算过程中设备可以披露的各种信号:功耗[19,24],磁场[11],温度[5]甚至声音[1]。读者被转介给[15],以进行有关侧通道攻击的广泛介绍。本文重点介绍了一个特定类别的侧通道攻击:恰当的攻击。这些攻击是基于从CPU缓存内存泄漏的定时信息。的确,当目标算法使用SEN-SINDIVE信息时,它将秘密数据加载到缓存内存中。可以利用间谍保护的攻击者间接检查缓存mem-yry的内容,可以推断出目标算法已操纵哪些数据。缓存攻击。在[35]中打破DES。后来,在流行的缓存攻击中,使用缓存信息来打破AES [3],以及RSA的RSA:Flush+Reload [38]。在本文中,我们将使用后一种攻击的改进:冲洗+冲洗攻击[14],它更隐形,产生更多的结果。更具体地,我们在本文中研究了对ECDSA的OpenSSL实现的缓存时间攻击,ECDSA是用于数字签名的椭圆曲线算法。OpenSSL [27]是用于实现加密协议的开源工具包。使用C实现的功能库通常用于实现安全套接字层和传输层安全协议,还用于启用OpenPGP和其他加密标准。
摘要。人们期待人工智能能改善人类在各个领域的决策能力,尤其是高风险、困难的任务。然而,人类对人工智能建议的依赖往往是不恰当的。解决这个问题的常用方法是向决策者提供有关人工智能输出的解释,但迄今为止结果好坏参半。人们往往不清楚何时可以适当地依赖人工智能,何时解释可以提供帮助。在这项工作中,我们进行了一项实验室实验(N = 34),以研究人类对(可解释的)人工智能的依赖程度如何取决于不同决策难度引起的心理负荷。我们使用脑电图(Emotiv Epoc Flex 头罩,32 个湿电极)来更直接地测量参与者的心理负荷,而不是自我评估。我们发现,决策的难度(由诱发的心理负荷表明)强烈影响参与者适当依赖人工智能的能力,这通过相对自力更生、相对人工智能依赖以及有无人工智能的决策准确性来评估。虽然依赖对于低脑力负荷决策是合适的,但参与者在高脑力负荷决策中容易过度依赖。在这两种情况下,解释都没有显著影响。我们的结果表明,应该探索常见的“推荐和解释”方法的替代方案,以帮助人类在具有挑战性的任务中做出决策。
量子计算是一个快速发展的领域:制造的量子比特数量不断增加,战略路线图也在定期发布 [1]。硬件的进步让人们开始热烈讨论量子霸权是否已经实现 [2]。到目前为止,这些开创性的实验依赖于基于超导体、冷原子和囚禁离子的量子比特。硅自旋量子比特仍然落后,到目前为止只演示了双量子比特门 [3](勉强建造了一个四量子比特的 Ge 量子处理器 [4])。关键在于,人们认为基于硅(或 SiGe)的量子比特在个体规模上非常有前景:i)已经测量了创纪录的自旋寿命 [5];ii) 据报道,在各种硅/氧化硅和硅/锗器件中都实现了高保真单量子比特和双量子比特门 [3];iii) 已经实现了快速操作 [5]。非常恰当的是,这些量子比特应该受益于半导体行业的成熟,从而实现大规模生产。图 1 提供了几个实验系统的相关性能指标的基准。在本文中,我们将探讨在大规模上充分发挥其潜力的过程中仍然存在的材料和集成挑战。
原告迈克尔·恩里克斯于 1989 年入伍海军,担任医务兵。在服役的三十二年中,他多次晋升,并最终于 2018 年 3 月晋升为上尉 O-6 军衔。2020 年 12 月 22 日,在收到多起投诉并进行正式调查后,调查委员会建议将原告从海军中除名,保留其之前的指挥官 O-5 军衔。海军记录更正委员会审查了委员会的决定,并于 2023 年 1 月 19 日发布了一份报告,建议不采取任何纠正措施。海军部长最终批准了这一决定,原告被从海军中除名。目前,法院正在审理双方关于行政记录的判决交叉动议。原告声称,出于多种原因,他脱离军队是不恰当的,因为海军档案修正委员会在建议不采取纠正措施时,据称是武断、反复无常且违反法律和证据的。基于以下理由,法院部分批准、部分驳回原告关于行政记录的判决动议,并认定其部分无效,部分批准和部分驳回政府关于行政记录的判决交叉动议。
摘要 人工智能 (AI) 正在改变医疗保健和医学实践,因为数据驱动的科学和机器学习技术尤其有助于各种医疗和临床任务。这些进步也引发了许多问题,尤其是关于公众信任的问题。为了应对这些问题,公共机构、政策制定者和引领人工智能发展的科技公司一直在集中精力解决所谓的“公众信任赤字”。本文认为,将信任作为这项新技术与公众之间建立关系的基础,在最好的情况下是无效的,在最坏的情况下是不恰当的甚至是危险的,因为它会分散人们对积极保证信任真正需要的东西的注意力。我们认为,与其为如何促进信任而苦恼,这种关系可能会让信任者变得脆弱和暴露,不如将精力集中在确保由强有力的法律和监管框架支持的依赖这一艰难而动态的过程上。从那里,信任可以出现,但不仅仅是一种达到目的的手段。相反,信任是实践中需要努力实现的目标;也就是说,这是持续的道德关系应有的结果,在这种关系中,有适当的、可执行的和可靠的监管基础设施,以便不断地解释和适当纠正问题、挑战和权力不对称。
随着使用机器学习技术的应用程序的传播,人们越来越关注此类应用程序在道德和社会层面上可能造成的后果。人工智能无疑是一个充满巨大挑战的领域,但也是一个与对人们的权利和自由的影响有关的问题的领域。由于我们的目标是开发值得信赖的人工智能,因此从性别、种族、个人和社会发展的角度对人工智能工具、算法和技术进行分析是恰当的。特别是,欧盟委员会的《值得信赖的人工智能伦理指南》1 列出了人工智能系统为值得信赖应满足的七个关键要求:人类代理和监督、技术稳健性和安全性、隐私和数据治理、透明度、多样性、非歧视和公平、社会和环境福祉、问责制。让我们考虑一下性别层面,这并未明确包含在欧盟委员会指南中。为了在创新内容中构建性别创新,以“利用性别、性别和交叉分析的创造力进行创新和发现”,正如该领域最杰出的专家 Londa Schiebinger 所言[1]2,必须从根本上改变假设,并针对发现的创新提出新的科学问题[2]。在解决人工智能领域性别创新问题时,我们必须