免责声明 本信息由美国政府机构赞助,作为工作记录而编写。美国政府及其任何机构或其任何员工均不对所披露的任何信息、设备、产品或流程的准确性、完整性或实用性做任何明示或暗示的保证,也不承担任何法律责任或义务,也不表示其使用不会侵犯私有权利。本文以商品名、商标、制造商或其他方式提及任何特定商业产品、流程或服务并不一定构成或暗示美国政府或其任何机构对其的认可、推荐或支持。本文表达的作者的观点和意见不一定代表或反映美国政府或其任何机构的观点和意见。
125 磅聚能弹头 D (IR) 485 磅 220 千克 H (TV) 466 磅 211 千克 300 磅爆炸破片弹头 E (激光) 645 磅 293 千克 F、F2、G、G2 (IR) 670 磅 304 千克 J、JX、K (TV) 654 磅 297 千克 单轨发射器 LAU-117 135 磅 61 千克跟踪机载或地基激光指示器照射目标时反射的激光能量。它于 1980 年代设计,用于摧毁装甲目标和提供战线以外的近距离空中支援。它的模拟 SAL 导引头提供远程锁定、发射后不管的能力,并包含安全功能,通过长距离飞行和在失去激光指示时停用弹头来避免附带损害它在需要高可靠性和外科手术杀伤力的动态作战行动中仍然非常有效。
我们对最近在人工智能开发中使用的“人在环”、“人在环”、“人在环外”和“人指挥”等术语进行了广泛的研究,并研究了它们的伦理含义和隐含假设。通过追溯“人类……”这些术语的历史和发展,我们探索了它们从一开始就存在的背景和用法。随后,我们讨论了这些术语的起源及其最近在监督概念下为人工智能开发重新命名所产生的伦理观。借鉴布鲁诺·拉图尔的某些见解,我们认为拉图尔的“被遗忘的道德中介”融入到我们的技术中,在人类作为自动化系统的一个组成部分与人类监督角色交替出现的观点中具有相似性。我们认为,通过广泛强调人类参与技术生产社区,可以恢复人类与技术之间更合乎道德的关系。最后,我们提出了一个灵活的新量表,即 IGP 量表,以评估这种参与。
摘要:目的:为机器学习 (ML) 应用提供人机交互综述,以指导如何最好地结合人类领域的专业知识和 ML 方法的计算能力。该综述侧重于医学领域,因为医学 ML 应用文献强调了医学专家与 ML 方法合作的特殊必要性。方法:在 Scopus 和 Google Scholar 上使用术语“人在环”、“人在环机器学习”和“交互式机器学习”进行范围界定文献综述。我们的综述包括 2015 年至 2020 年发表的同行评审论文。结果:我们设计了四个问题来调查和描述 ML 应用中的人机交互。这些问题是“为什么人类应该参与其中?”,“人机交互在 ML 过程中发生在哪里?”,“谁是参与其中的人?”和“人类如何在人机交互 ML (HILML) 中与 ML 交互?”。为了回答第一个问题,我们描述了人类参与机器学习应用的重要性的三个主要原因。为了解决第二个问题,我们在三个主要算法阶段研究了人机交互:1. 数据生成和预处理;2. 机器学习建模;3. 机器学习评估和细化。为了回答第三个问题,我们描述了人类在人机交互中专业水平的重要性。为了回答第四个问题,我们将 HILML 中的人机交互次数分为三类。我们在论文的最后讨论了 HILML 未来研究的开放机会。
人类操作员是稳定、安全的电力系统不可或缺的一部分。虽然人们越来越关注自动化改进,但理解和培训人类操作员的重要性可能被低估了。本文讨论了一个通过评估人类相对于使用最优控制理论确定的参考操作员模型的表现来增强操作员培训计划的项目。除了建立一个简单的基于计算机的操作员工作站以供将来培训之外,本文还介绍了人在环电力系统实验的最优控制响应设计方法。介绍了整个系统模型。将最优控制器综合方法应用于模型系统并设计最优控制器。然后将最优控制器的性能与人类受试者的性能进行比较。
Roketsan 开发了一种带有电子安全与武装机制的机载飞行终止系统,并已成功完成三次开发飞行。COTS 产品用于塑造 FTS 的架构,该系统已被证明是一种可行、可重新配置且快速的解决方案,适用于计划飞行测试活动的紧凑时间表。结果表明,FTS 能够在飞行器失控时通过终止飞行来保护生命和财产。它能够取代当前的人在环系统或与它们并行运行。FTS 可在飞行前根据靶场安全机构和用户商定的任务特定规则进行配置,以保护公众并确保任务成功。本文讨论了该项目的动机,描述了开发方法,并概述了架构和与 RCC 319 标准的兼容性。
摘要 第五代 (5G) 移动网络支持广泛的服务,这些服务具有多样化且严格的 QoS 要求。随着向第六代移动网络的演进,这种情况将进一步加剧。不可避免地,5G 及以后的移动网络必须提供更严格、差异化的 QoS 保证,以满足未来应用日益增长的需求,而传统的人在环服务编排和网络管理方法无法满足这些需求。在本文中,我们阐述了我们对 5G 及以后移动网络闭环服务编排和网络管理的愿景。我们扩展了 MAPE(即、监控、分析、规划和执行)控制环以促进闭环自动化,并讨论了人工智能/机器学习在其实现中的典型作用。我们还发起了针对 5G 及更高移动网络闭环自动化的开放式研究挑战。
摘要 本演讲探讨了一种智能辅助 (IA) 方法,通过解决与未经检查的人工智能 (AI) 应用相关的风险,在法律领域利用大型语言模型 (LLM)。我们强调理解人工智能和 IA 之间的区别的重要性,后者涉及人在环的决策过程,这有助于降低风险并确保负责任地使用这种快速发展的技术。以 ChatGPT 和 GPT-4 为主要示例,我们展示了它作为人工智能和 IA 应用程序的双重角色,展示了它在各种法律任务中的多功能性。我们特别关注最近报道的探索,特别是在使用 LLM 解决多项选择题回答、法律推理、案件结果预测和总结等任务方面。我们认为,要完全实现“增强智能”,需要一个推理和知识库组件,使 IA 系统能够有效地支持人类用户的决策过程。
人工智能 (AI) 4 大型语言模型 (LLM) 4 代理 AI 4 AI 安全 4 AI 系统 5 算法 5 对齐 5 应用程序编程接口 (API) 5 自动化偏差 5 基准 6 偏差 6 聊天机器人 6 ChatGPT 6 Claude 6 云计算 6 认知偏差 7 计算 7 计算机视觉 7 上下文窗口 7 Copilot for Microsoft 365 7 数据 8 数据科学 8 可解释 AI (XAI) 8 微调 8 基础模型 8 生成 AI 8 GPT 9 护栏 9 幻觉 9 人在环 9 机器学习 9 模态 10 模型 10 多模态 10 自然语言处理 (NLP) 10 预训练 10 提示 10 提示工程 11 强化学习 11 负责任的 AI 11 检索增强生成 (RAG) 11监督学习 12 Token 12 训练数据 12 Transformer 模型 12 无监督学习 12 用例 12
摘要 — 尽管人们有兴趣在本科课程中传播道德问题和社会背景以推进公共利益技术 (PIT) 目标,但在研究生阶段的干预措施仍然基本上未被探索。这可能是由于不同的人工智能 (AI) 研究轨道对其与社会背景的界面的构想方式相互冲突。在本文中,我们追踪了社会技术研究在三个不同的人工智能研究子领域的历史出现:人工智能安全、公平机器学习 (Fair ML) 和人在环 (HIL) 自主性。我们表明,对于每个子领域,对 PIT 的看法源于过去将技术系统整合到规范社会秩序中面临的特殊危险。我们进一步探究这些历史如何决定每个子领域对概念陷阱的反应,如科学和技术研究文献中所定义。最后,通过对这些当前孤立的领域进行比较分析,我们提出了人工智能社会技术研究生教学统一方法的路线图。