摘要 道德考量是我们社会的组成部分,它促进合作、帮助和为更大的利益而牺牲。人工智能的进步使得人们更需要研究涉及此类系统开发和实施的道德考量。将道德融入基于人工智能的程序对于防止隐私泄露和决策偏见等负面结果至关重要。人机协作 (HAIT) 带来了额外的挑战,因为为其提供依据的道德原则和道德理论尚未被机器计算;人类必须保持“知情”才能仲裁道德考量。为此,人类判断和决策模型(例如代理-行为-后果 (ADC) 模型)对于指导人工智能队友的道德指导功能以及阐明人类如何以及为何(不)信任机器至关重要。本文将研究 ADC 模型在 HAIT 环境中的应用,以及在人工智能环境中使用以人为中心的道德模型所带来的挑战。由 ADC 模型决策树赋能的 AI 算法既能灵活适应各种道德框架,又能适应不同的环境和背景情况,因此我们相信这项研究为将道德原则应用于 HAIT 的挑战提供了一种新颖的解决方案。关键词:人机协作 (HAIT)、代理-行为-后果 (ADC) 模型、护理机器人、道德、信任、人工智能 (AI)
摘要 Teaming.AI旨在克服灵活性不足这一以人为本的AI协作的限制因素,其设想是一个集成两者优势的团队框架,即人类智能的灵活性以及机器智能的扩展和处理能力。在Teaming.AI中,这将通过采用构建人与AI系统之间交互的团队模型以及动态支持团队模型以应对流程、监管和上下文知识的知识图来实现。我们希望开发的Teaming.AI平台能够让人类团队成员更好地理解和控制制造环境中的自动化服务和决策支持,从而实现人与AI之间更加信任的协作。关键词 1 故障检测和诊断、决策和认知过程、以人为本的自动化、知识建模、基于知识的系统
提高态势感知能力。人类态势感知能力对于有效的 MDO 性能至关重要,包括对 AI 的监督。因此,需要将支持个人和团队态势感知能力在指挥和控制行动中的方法扩展到 MDO,并且需要使用 AI 来支持信息集成、优先级排序和跨联合作战空间的路由的方法,以及提高对对抗性态势感知攻击的抵御能力的方法。需要改进 AI 系统的人类态势感知能力的方法,以及在人机团队中创建共享态势感知的研究。需要探索 AI 系统应在多大程度上同时具有自我意识和对其人类队友的意识,以确定对整体团队绩效的益处。未来的 AI 系统将需要拥有综合态势模型,以适当地了解当前情况并预测未来情况以供决策制定。
人工智能正逐渐进入军事行动,该学科的进步推动了战场自主性在质量和数量上的提升。这意味着作战人员将越来越多地与具有越来越先进的自主能力的机器共存。随着机器从简单的工具跃升为合作队友,人机协作将成为现代战争的核心。空军的忠诚僚机概念表明,人与机器之间的互动质量对于成功的人机协作与机器的技术复杂程度同样重要。了解如何确保人与机器之间的信任至关重要。人工智能和机器学习将使信任变得更加必要和更难实现,而与神经技术的融合可能会进一步使任务复杂化,带来新的挑战。
STARS 引用 STARS 引用 Lakhmani, Shan,“人机协作中的透明度和沟通模式”(2019 年)。电子论文和学位论文。6407。 https://stars.library.ucf.edu/etd/6407
机器人和人工智能 (AI) 为实现军事转型和优势提供了另一个转折点。然而,机器的性能还不如人脑。正如约翰·博伊德 (John Boyd) 明智地指出的那样,“机器不会打仗。人类确实会,而且他们会运用自己的头脑。’因此,要实现这一潜力,就需要了解人类和机器的相对优势,以及它们如何最佳地协同运作以战胜对手。开发正确的人机团队组合——将人类和机器有效地整合到我们的作战系统中——是关键;我们不应忘记,我们正在与对手竞争以释放这一优势。随着新技术能力的加速发展,时间正在流逝。
本研究旨在更好地理解人机自主团队中的信任,发现信任与团队绩效相关。在一项实验中,研究人员采用了“绿野仙踪”方法,模拟了在遥控飞机系统环境中作为团队成员的自主代理。这项研究的具体重点是人机自主团队的团队绩效和团队社交行为(特别是信任)。结果表明:1)低绩效团队对自主代理的信任程度低于中绩效和高绩效团队;2)随着时间的推移,低绩效、中绩效和高绩效团队对自主代理的信任度都在下降;3)除了人类团队成员对自主代理的信任度较低外,低绩效和中绩效团队也对其人类团队成员的信任度较低。1. 简介近年来,人机交互已在众多研究界得到研究,包括人为因素、信息科学和计算机科学,以及多个不同的焦点(沟通、意识、信任等)。鉴于技术
这些团队的适配,让机器与人类更加“兼容”。探索了两条途径。一是涉及使用 CWA 方法和 IDM 技术离线提高机器的协作技能。另一个感兴趣的是人机合作的在线适应,其中自主系统可以是团队内的队友,也可以是团队之上的教练。最后,在法国和国外正在进行的举措的支持下,研究途径是开放的。它们涉及巩固用于监测认知状态的多层次和神经人体工程学方法,在人类和自主代理之间构建透明的对话,考虑瞬态情况和纵向情况,并扩大规模以研究更复杂的情况这些混合团队的配置。
智能和复杂系统在我们的工作场所和家中越来越常见,为交通、健康和教育领域提供直接帮助。在许多情况下,这些系统的性质在某种程度上是普遍存在的,并影响着我们做出决策的方式。传统上,我们了解人类在团队中工作的好处,以及当这个团队无法工作时相关的陷阱和成本。然而,我们可以将自主代理视为一个合成合作伙伴,它扮演着传统上只属于人类的角色。在这些新的人机自主团队中,我们可以看到不同级别的自动化和决策支持,这些级别包含在明确的任务和目标层次中。然而,当我们开始研究更自主的系统和软件代理的性质时,我们看到一种伙伴关系,它可以根据任务的背景提出不同的权威结构。这可能因人或代理是否领导团队以实现目标而有所不同。本文研究了 HAT 组成的性质,同时研究了它在航空业中的应用以及如何评估对此类系统的信任。
估计此信息收集的公共报告负担平均为每份回应 1 小时,包括审查说明、搜索现有数据源、收集和维护所需数据以及完成和审查此信息收集的时间。请将有关此负担估计或此信息收集的任何其他方面的评论(包括减轻此负担的建议)发送至国防部华盛顿总部服务处信息行动和报告局 (0704-0188),1215 Jefferson Davis Highway, Suite 1204, Arlington, VA 22202-4302。受访者应注意,尽管法律有任何其他规定,但如果信息收集未显示当前有效的 OMB 控制编号,则任何人均不会因未遵守信息收集而受到任何处罚。请不要将您的表格寄回上述地址。1.报告日期 (DD-MM-YYYY) 03-05-2022