美国宇航局艾姆斯研究中心于 20 世纪 90 年代初对超音速商用客运斜全翼概念进行了设计研究。这项研究的参与者包括美国宇航局艾姆斯研究中心在斜翼设计方面拥有长期专业知识的工作人员,以及来自西雅图波音商用飞机公司和加州长滩道格拉斯飞机公司的工程师,以及斯坦福大学的研究团队。行业合作的目的是确保研究中包含现实世界的设计约束,并获得行业设计专业知识。斯坦福大学的团队建造并试飞了一架 17 英尺跨度的斜全翼无人机,展示了 3% 负静态稳定性的飞行。设计研究最终产生了两种机翼设计,称为 OAW-3 和 DAC-1。OAW-3 机翼由 NASA Ames 团队设计,代表了基于配置约束和任务性能指标的高度优化设计。DAC-1 机翼由道格拉斯飞机公司的团队设计。它是一种经典的椭圆形平面形状,具有高度的气动形状优化,但设计并未根据整体任务性能指标进行优化。虽然两个机翼都在 9 x 7 超音速风洞中进行了测试,但只有 OAW-3 机翼拥有完整的控制面和发动机舱。本报告中描述的风洞数据仅在 NASA OAW-3 配置上获得。
最近,人们对使用语言模型 (LM) 进行人机协作的兴趣日益浓厚。为了向人类解释其推理过程,最先进的 LM 已被证明能够流畅地用自然语言生成自由文本理由 (FTR),例如通过思路链提示。尽管如此,这些生成的 FTR 能够多有效地为人机协作提供人类效用,即帮助人类解决 NLP 任务,仍不清楚。为了研究是什么让 FTR 对人类有用,本文分析了人类效用与各种 LM/FTR 属性之间的关系。首先,尽管 LM 通常会经过微调/提示以联合生成任务标签和 FTR,但我们发现 LM 的任务性能与人类效用几乎没有相关性,而 LM 大小是人类效用的正向预测指标。其次,我们观察到某些 FTR 属性对是人类效用的强正向预测因素,例如,高效用的 FTR 往往既简洁又包含新信息。第三,我们表明,给定任务实例的高效用 FTR 可以提供可迁移的知识,帮助人类推广到解决新实例。通过揭示 FTR 在实际环境中对人类效用的性质,我们的研究结果可以帮助指导未来设计 LM 和 FTR 生成策略的工作,以实现更强的人机协作。
在足够大的对象分类数据集上进行训练时,特定的人工神经网络模型可以合理匹配核心对象识别 (COR) 行为和灵长类视觉腹侧流 (VVS) 中的潜在神经反应模式。机器学习的最新发现表明,在更大的数据集上训练更大的模型并投入更多的计算预算可以提高任务性能,但目前尚不清楚规模如何影响大脑对齐。我们在此研究了灵长类 VVS 建模的缩放定律,这些定律涉及以受控方式训练的 300 多个模型中数据集和模型大小的计算最优分配。为了评估模型的大脑对齐,我们使用了一组涵盖整个 VVS 和 COR 行为的基准。我们发现,虽然增加模型参数的数量最初会改善大脑对齐,但更大的模型最终会导致收益递减。增加数据集大小可以从经验上持续改善对齐,但我们推断,这里的规模对于非常大的数据集也会趋于平稳。将我们对模型和数据大小的最佳计算预算分配与缩放定律相结合,我们预测单凭规模不会导致大脑与当前架构和数据集的一致性取得实质性进展。
数据质量是产品满足用户需求的能力。用户需求并不相同,并且取决于每个应用领域(例如制图、森林监测、照片解译)。因此,举例来说,检测和量化地球环境变化的能力取决于能够提供经过校准(已知准确度和精度)且随时间变化的地球表面特征一致测量的传感器。校准和验证(通常称为 Cal/Val)对应于更新和验证机载和地面配置参数和算法的过程,以确保满足产品数据质量要求。为了满足基准产品质量要求,将系统地应用明确定义的校准和验证 (Cal/Val) 计划。作为补充,将通过明确的质量控制程序确保对最终产品质量进行操作监控。Cal/Val 活动将与其他 CEOS(地球观测卫星委员会)合作伙伴协调合作进行,并符合 CEOS 认可的质量保证战略,即地球观测质量保证框架 (QA4EO)。有关 CEOS 和 QA4EO 的更多信息,可分别在 http://www.ceos.org/ 和 http://qa4eo.org/ 上找到。本文件中介绍的校准和验证活动由 Sentinel-2 任务性能中心 (MPC) 负责,该中心正在整合 Sentinel-2 有效载荷数据地面段 (PDGS) 的一部分(参见[OCD]、[SRD]、[SMICD] 和 [PSD])。
在额叶控制下,感觉皮层的振荡在细心制备过程中进行了异步。在这里,在与任何性别的人类中同时进行脑电图的选择性注意力研究中,我们首先证明,在背心注意网络的中部额叶区域与腹侧视觉感觉皮层[Fortal-Sensory同步(FSS)之间的同步性降低了,具有更大的任务性能。然后,在健康成年人的双盲,随机对照研究中,我们实施了预期的A FSS信号的闭环神经反馈(NF),超过10 d的训练。我们指的是将在认知任务中集成为认知NF(CNF)的快速NF的闭环实验方法。我们表明,CNF在训练过程中对预期的FSS度量进行了重大试验调制,刺激引起的A / H反应的可塑性以及对响应时间(RT)的福利转移(RT)的转移,以改进持续注意的标准测试。在第三项研究中,我们在注意力缺陷多动障碍(ADHD)中实施CNF培训,对预期A FSS信号进行逐审调制以及对持续注意RTS的显着改善。这些第一个发现证明了快速认知任务集成的NF的基本机制和翻译实用性。
摘要:便携式功能近红外光谱(FNIRS)系统有可能在自然环境中对大脑进行成像。实验研究对于验证此类FNIRS系统至关重要。工作记忆(WM)是一个短期活动内存,与信息的临时存储和操纵相关联。前额叶皮层(PFC)脑面积与WM的加工有关。,我们使用我们的实验室开发的便携式FNIRS系统,磨损的25名大学生的N-BACK WM任务中评估了PFC大脑。我们设计了一个实验协议,具有32个N-BACK WM任务块,具有四个不同的伪随机任务困难级别。通过实验数据和由于这些任务引起的评估大脑反应计算大脑的血液动力学反应。我们观察到由WM负载增加引起的增量平均血液动力学激活。与右PFC相比,在WM任务中,左PFC区域更加激活。任务性能被认为与血液动力学反应有关。实验结果证明了磨损系统在认知负载成像中的功能。由于便携式FNIRS系统是可穿戴的,并且可以无线操作,因此可以在自然主义环境中测量认知负载,这也可能导致开发用户友好的脑computer接口系统。
在这种情况下,表型会导致对同时进行活动和睡眠时间的首选时间的个体差异(Lara等,2014)。已经确定了三种主要的昼夜节律类型或计时型:早晨型('larks'),中等型(中性')和夜间类型('owls')(Adan et al。,2012; Di Milia et al。,2013年,2013年)。根据此一般分类,已经描述了任务性能的差异,这是Chronotype和days time time的函数。Lara等。 (2014年)证明,当根据特定的昼夜节目(即,在早晨进行了测试的早晨型组和晚上测试的晚间测试),在一天中的最佳时间进行测试时,执行任务绩效达到了最佳水平。 最近的两项研究探索了学校表现(Goldin等,2020),以及认知表现(即运动学习,工作记忆和注意力)与脑生理学(Salehinehinejad等,2021年)之间的相互作用,也提供了类似的结果。Lara等。(2014年)证明,当根据特定的昼夜节目(即,在早晨进行了测试的早晨型组和晚上测试的晚间测试),在一天中的最佳时间进行测试时,执行任务绩效达到了最佳水平。最近的两项研究探索了学校表现(Goldin等,2020),以及认知表现(即运动学习,工作记忆和注意力)与脑生理学(Salehinehinejad等,2021年)之间的相互作用,也提供了类似的结果。
摘要 - 认知理论在设计人类计算机界面和沉浸式系统时会为我们的决策提供信息,使我们能够研究这些理论。这项工作通过使用经典可视化问题研究内部和外部用户行为来探讨沉浸式环境中的感官过程:视觉比较和聚类任务。我们开发了一个沉浸式系统来执行用户研究,从不同的渠道收集用户行为数据:用于捕获外部用户互动的AR HMD,功能性近红外光谱(FNIRS)用于捕获内部神经序列以及用于参考的视频。为了检查感官,我们评估了界面的布局(平面2D与圆柱3D布局)以及任务的挑战水平(低认知负荷)的挑战水平如何影响用户的交互,这些交互作用如何随时间变化以及如何影响任务绩效。我们还开发了一个可视化系统,以探索所有数据通道之间的关节模式。我们发现,增加的相互作用和脑血液动力学反应与更准确的性能有关,尤其是在认知要求的试验上。布局类型没有可靠地影响交互作用或任务性能。我们讨论了这些发现如何为沉浸式系统的设计和评估提供信息,预测用户绩效和互动,并从体现和分布式认知的角度提供有关感官的理论见解。
通过皮质视觉神经植物对大脑的直接电刺激是一种有前途的方法,可以通过诱导对局部光(称为“磷烯”的局部光)感知来恢复视力障碍的基本视力。除了将复杂的感官信息凝结成低时空和空间分辨率下的有意义的刺激模式外,为大脑提供安全的刺激水平至关重要。我们提出了一个端到端框架,以学习安全生物学约束中最佳刺激参数(振幅,脉冲宽度和频率)。学习的刺激参数将传递给生物学上合理的磷酸模拟器,该模拟器考虑了感知到的磷光的大小,亮度和时间动力学。我们对自然导航视频的实验表明,将刺激参数限制为安全水平不仅可以维持磷光元素的图像重建中的任务性能,而且始终导致更有意义的磷光视觉,同时提供了对最佳刺激参数范围的见解。我们的研究提出了一种刺激生成的编码器,该编码器学习刺激参数(1)满足安全性约束,(2)使用高度实现的磷光模拟器来最大化图像重建和磷光解释性的合并目标,以计算刺激的时间动力学。端到端学习刺激参数以这种方式实现了关键的生物安全限制以及手头硬件的技术限制。
大型语言模型(LLM)在为增强学习(RL)任务设计奖励功能方面显示出巨大的潜力。但是,获得高质量奖励代码通常涉及人类干预,大量LLM查询或重复的RL培训。为了解决这些问题,我们提出了卡片,即迭代生成和改进奖励功能代码的LLM驱动奖励设计框架。具体来说,卡包括生成和验证代码的编码器,而评估器则提供动态反馈,以指导编码器改进代码,从而消除了对人类反馈的需求。除了过程反馈和轨迹反馈外,我们还引入了轨迹偏好评估(TPE),该评估(TPE)基于轨迹偏好评估当前的奖励函数。如果代码失败了TPE,则评估器会提供偏好反馈,避免在每次迭代时进行RL培训,并使奖励功能与任务目标更好地保持一致。对Meta-World和Maniskill2的经验结果表明,我们的方法在任务性能和令牌效率之间取得了有效的平衡,在所有任务中都优于或匹配基线。在12个任务中的10个任务中,卡表现出与经过专家设计的奖励训练的政策更好或可比的性能,我们的方法甚至超过了3个任务的Oracle。