人工智能 (AI) 有可能显著提高人类在各个领域的表现。理想情况下,人类与人工智能之间的协作应产生互补团队绩效 (CTP),这是他们任何一方都无法单独达到的绩效水平。然而,到目前为止,CTP 很少被观察到,这表明人们对互补性的原理和应用理解不足。因此,我们开发了一个互补性的一般概念,并形式化了其理论潜力以及在决策情况下的实际实现效果。此外,我们将信息和能力不对称确定为互补性的两个主要来源。最后,我们在两项实证研究中说明了每个来源对互补潜力和效果的影响。我们的工作为研究人员提供了决策中人机互补性的全面理论基础,并表明利用这些来源是设计有效的人机协作(即实现 CTP)的可行途径。
尽管在全球高等教育机构内的定量研究能力发展方面取得了重大进展,但越来越多的证据表明,与采用这种研究方法有关的员工和学生之间担心和焦虑。评估在定量研究人员社区内建立机构能力的挑战和挑战,作者(也是教师)使用反思性期刊来解开我们作为机构/大学环境中教育工作者的经验。为了捕捉我们的教学过程和参与的质细微差别,作者对与定量研究中建立机构能力有关的关键问题进行了个人思考,与包容/排斥相关的实验以及解决我们社区中提出差距所需的策略。进行了协作分析,以告知关键主题的研究。相关的发现指出,在建立和管理能力以促进教学策略的持续调整/改进时,需要教育工作者保持正念和负责,并使用更灵活的交付方式,以进行跨学科干预措施。
摘要:无人机有望自主运行,但它们也会与人类互动以共同解决任务。为了支持民用人机协作团队,我们提出了一种分布式架构,其中图像识别、与人类协调以及飞行控制决策等复杂操作不是在无人机上进行,而是远程进行。这种架构的好处是可用于图像识别的计算能力增强,并有可能集成人机界面。缺点是,需要进行通信,导致命令接收延迟。在本文中,我们讨论了分布式方法的设计考虑因素、智能手机上的示例实现以及书架库存的具体用例。此外,我们报告了通过 Wi-Fi 连接的定制无人机通过实验得出的关于消息传递和命令响应延迟的初步见解。
机器学习(ML)模型越来越多地用于各种应用程序,从电子商务的推荐系统到医疗保健的诊断预测。在本文中,我们提出了一个新颖的动态框架,用于思考ML模型在表现性的人类ML协作系统中的部署。在我们的框架中,ML建议的引入更改了人类决策的数据生成过程,这只是代理地面真理,然后将其用于培训模型的未来版本。我们表明,这种动态过程原则上可以收敛到不同的稳定点,即ML模型和人+ML系统具有相同的性能。相对于实际地面真理,这些稳定点中的一些是最佳的。我们对1,408名参与者进行了经验用户研究,以展示此过程。在研究中,人类在机器学习预测的帮助下解决了背包问题的实例。这是一个理想的环境,因为我们可以看到ML模型如何学会模仿人类的决策以及该学习过程如何收敛到稳定点。我们发现,对于许多ML性能,人类可以改善ML预测,以动态达到最大背包值的92%的平衡性能。我们还发现,如果人类合理地遵循ML建议,平衡性能可能会更高。最后,我们测试货币激励措施是否可以提高人类决策的质量,但我们找不到任何积极的影响。我们的结果对在人类决策可能偏离无可争议的基础真理的情况下部署ML模型具有实际意义。
摘要:人机自主团队 (HAT) 范式最近出现,用于设计混合团队,其中人类操作员与自主人工智能体合作。一个主要的挑战是将这个自主代理转变为一个更好的队友,使其能够与人类更多地相互依赖。所呈现的工作探索了两个轴线,得到了工业合作(在运输和工业系统领域)、学术伙伴关系(特别是南澳大利亚)和博士生指导的支持。第一个轴涉及认知状态的监控,以便使机器具有检测人类遇到的困难的能力。为了回答这个问题,提出了一种全局方法,从生理和行为数据的融合角度对操作员的心理负荷进行分类。然后通过研究认知控制的概念及其与心理负荷的关系,探索人类实施的调节机制。
摘要在过去几十年中,环境问题以及减少化石燃料的使用并用可再生能源(RESS)代替它们以面对温室气体(GHG)排放率不断提高的全球趋势。建筑物消耗了大量的能源,因此,它们负责全温室气体排放的明显部分。因此,当我们谈论能源系统的脱碳化时,建筑物是需要考虑的能源系统的重要部门。使用RESS,智能技术以及信息和通信技术以及能源效率的提高,是许多努力,可以提高建立在脱碳途中的作用。在新环境中,建筑物不是能源系统的被动参与者,他们能够积极发挥作用并参与能量良好的运营。尽管他们能够以最佳的方式管理资源并满足居民的当地能源需求,但他们可以参与能源和平衡市场,并支持网络运营商作为服务提供商。在本文中,我们对活跃建筑物的概念,挑战和前景进行了全面的评论,为希望开始在这一领域工作的学术界和行业的研究人员铺平了道路。
人机协作的安全性和效率通常取决于人类如何适当地校准对人工智能代理的信任。过度信任自主系统有时会导致严重的安全问题。尽管许多研究都关注系统透明度在保持适当信任校准方面的重要性,但在检测和缓解不当信任校准方面的研究仍然非常有限。为了填补这些研究空白,我们提出了一种自适应信任校准方法,该方法包括一个通过监控用户的依赖行为来检测不适当校准状态的框架和称为“信任校准线索”的认知线索,以提示用户重新启动信任校准。我们使用无人机模拟器在在线实验中评估了我们的框架和四种类型的信任校准线索。共有 116 名参与者使用无人机的自动检查功能执行了坑洼检查任务,其可靠性可能因天气条件而波动。参与者需要决定是依靠自动检查还是手动进行检查。结果表明,自适应地呈现简单提示可以显著促进过度信任期间的信任校准。