这些微小的生物可以利用其软体体系来促进机车的促进,[5]持续记忆,[6]和计算。[7,8]这种模式在更大的生物中也存在:通过利用其肌肉骨骼系统的机制,脊椎动物也可以实现一种体力智力[9,10],从而将认知资源释放出来,以提高认知资源来获得高级理性。[1,11]软机器人技术的建立是出于设计能够类似地利用这种身体上的物理智力来简化其环境相互作用并减轻生活中的计算负担的明确目的。[12]然而,尽管软物质工程在生物启发的功能中取得了很大进步的发展,但这些材料的整体转移到具有真正生物启发的自主权的软机器人中,仍然在很大程度上未实现。在此障碍的核心是软机器人控制。软机器人的Chie量集中在功能性,可变形材料的制造[13,14]和致动[15,16] [17-19],[17-19]在每个区域中驱动了实质性的创新。相比之下,软机器人感知的发展较少,[20,21]学习,[22,23]和对照。[24 - 26]
人们希望机器人航天器能够在未知的动态环境中进行探索。欧罗巴着陆器任务概念就是这样一个任务,它需要处理极其有限的寿命和能源供应,管理长时间停电的间歇性通信,面临众多环境危险,最终距离地球太远而无法依赖人类控制。迄今为止,没有任何任务能够达到所需的自主性水平,也没有任务能够像这次任务一样,在通信限制、不确定性和任务概念复杂性方面达到同等水平。因此,必须证明自主性的可行性,然后才能委托它进行关键任务规划。在本文中,我们提出了一个自主软件原型,它可以展示和测试不同规划人员和执行人员在有限的人类干预下执行复杂、以科学为中心的任务的能力。原型使用分层效用模型,用于最大化预期的科学回报量以及地面施加的任务目标数量。我们展示了该系统如何处理复杂太空任务中预期的一些自主任务,例如决策、现场数据采集和分析、数据优先级排序、资源管理和故障响应处理(无论是在模拟中还是在实际硬件上)。通过几个基于场景的实验,我们展示了不同的规划人员和执行人员如何应对欧罗巴着陆器任务概念的挑战。我们还展示了该系统可以与硬件原型配合使用,进行自主现场测试。
可信赖的自治:建立对自主系统的信任的基础和过程。1.0目的:该白皮书的目的是建议并为可信赖的自治定义指标。自治在全球范围内越来越多地寻求人工智能(AI),机器人,机器人车辆(即机器人空气,地面和水车)以及其他用于军事和民用应用的系统,并且自治技术对不受限制的环境和无耐药的操作变得迅速变得适应。随着对自主权的日益增长的需求,技术进步很快就会满足,人们对可信赖的自主权的期望越来越多,以减轻对AI霸主和机器人启示的恐惧。2.0信任哲学家几个世纪以来一直考虑到信任和可信赖的意义,专注于人类,其含义仍然是模糊的。信任很重要,但也很危险。信任要求我们依靠他人,无论是人类还是自动机器。如果其他人保证提供我们想要的东西,我们就不需要信任他们。,但我们的风险是他们将无法提供我们想要的东西,因此我们的信任放错了位置。在机器,尤其是自主机器的背景下,没有普遍接受的“信任”定义,因此与此类系统相关的人倾向于对信任的看法有所不同。一种观点是,信任必须在有意识的实体之间,例如人类或人与自主(认知)机器(不仅是自动机)之间的信任。相互性要求,尽管人类必须能够信任自主机器人,但机器人也必须能够信任人类。此外,信任本质上涉及风险和危险。完全确定一个实体可以完成要求的目标,那么信任就无需。仅在完成要求的任务的完成时才需要信任。尽管含糊不清,但我们将在务实的应用中定义人们与自主系统之间的信任。2.1信任的关键变量信任的确定是客观和主观的,具有心理和社会学特征。信任的水平或数量形成连续性,信任的范围从高到低。在某个时候,可信赖变成不信任。有几个包括信任的变量,可以用作信任的指标。这些变量或指标不具有相等的价值,有些变量比其他指标更重要。确定信任级别的信任的关键变量下面列出了,不一定按重要性顺序列出,然后对每个信任的简短讨论,描述了它们如何影响受信任的自治。
摘要许多由密集数据驱动的公司平台设计和控制的许多数字技术在我们的许多日常活动中都变得无处不在。这引起了政治和道德的关注,他们可能如何威胁我们的个人自主权。但是,在这方面,其超设计(感觉运动)接口所起的特定作用并没有给予太多哲学关注。在本文中,我们的目标是提供一个新颖的框架,可以在感觉运动互动上进行个人自身自身,并从那里直接解决技术设计如何影响个人自主权。为此,我们将从实施的感应方法中汲取认知,重点关注习惯的中心概念,被理解为感觉运动方案,在网络关系中,会引起感觉运动代理。从感觉运动代理作为更复杂形式的个人自治形式的基础,我们的方法为我们分析与技术的关系(一般而言),并区分自主性增强的建立和自动化技术。我们认为,通过赞成/妨碍某些习惯的(网络)而不是其他习惯,技术可以直接在我们本地和全球的个人自主权上行动。考虑到这一点,我们然后讨论当前的数字技术通常是如何设计为自治的(就像设计中的“黑暗模式”一样),并素描一些有关如何构建更多自治数字技术的想法。
过去十年,地缘政治发展以及世界各主要经济体对此的政策反应对经济开放和全球化进程提出了挑战,并对中央银行运作的经济环境产生了影响。欧洲再次爆发战争以及 2022 年俄罗斯入侵乌克兰引发的能源冲击是一系列事件中的最新事件,这些事件促使欧盟 (EU) 制定了其开放战略自主 (OSA) 议程。本报告是从中央银行的角度对这些发展进行广泛评估的尝试。它分析了欧盟的经济相互依存关系及其对贸易和金融的影响,重点关注能源、关键原材料、食品、外国直接投资和金融市场基础设施等具有战略重要性的方面。在此背景下,本报告讨论了欧盟 OSA 政策议程的相关方面,该议程涵盖贸易、工业和国家援助措施,以及欧盟加强和保护内部市场和进一步发展经济和货币联盟 (EMU) 的举措。本文重点介绍了在这种背景下出现的一些政策选择和权衡,以及对欧洲央行货币政策和其他政策的可能影响。
Rohan Thakker*,Michael Paton*,Bryson Jones*,Guglielmo Daddi*,Rob Royce*,Michael Swan*,Marlin Strub*,Marlin Strub*,Sina Aghli,Harshad Zade,Yashwanth Nakka,Tiago Vaquero,Tiago Vaquero,Joseph Bowkett,Joseph Bowkett,Joseph Bowkett,Daniel Lorish,Daniel Lorish,Jackan nyny tristan jackan nyny顾客,Jenny顾客,Jenny顾客,Jenny顾客,Jenny顾客,JENNY顾客,JENNY顾客,Jenny Triser顾问Hasseler,Carl Leake,Benjamin Nuernberger,PedroProença,William Talbot,Kyohei Ottsu,Andrew Orekhov†,Philippe Tossi,Matthew Gildner,Matthew Gildner,Abhinandan Jain,Rachel Etheredge,Rachell Etheredge,Rachel Etheredge,Matthew,Matthew,Matthew,Masher Howie Choset bubins,Masher burel burel burel bureldick• ono *这些作者为这项工作做出了同样的贡献。‡美国加利福尼亚州帕萨迪纳,加利福尼亚理工学院机械与土木工程系†美国宾夕法尼亚州匹兹堡的卡内基梅隆大学,美国宾夕法尼亚州匹兹堡:NASA喷气推进实验室,加利福尼亚理工学院,加利福尼亚州帕萨迪纳,美国加利福尼亚州,美国加利福尼亚州。‡美国加利福尼亚州帕萨迪纳,加利福尼亚理工学院机械与土木工程系†美国宾夕法尼亚州匹兹堡的卡内基梅隆大学,美国宾夕法尼亚州匹兹堡:NASA喷气推进实验室,加利福尼亚理工学院,加利福尼亚州帕萨迪纳,美国加利福尼亚州,美国加利福尼亚州。
8 月 24 日至 25 日,作战测试与评估局局长办公室 (DOT&E) 首席人工智能 (AI) 官 Kristen Alexander 博士召开了一次研讨会,重点讨论了人工智能 (AI) 和自主 (AI-A) 系统的测试与评估。研讨会旨在根据 2023 年 DOT&E 实施计划开展工作,为旨在随时间变化的武器系统和其他防御系统的 T&E 开创性方法。研讨会与首席数字和人工智能办公室 (CDAO) 以及国防部副部长 (USD) 下属负责研究和工程 (R&E) 的三个办公室联合举办:可信人工智能和自主性首席主任、测试资源管理中心 (TRMC) 和开发测试、评估和评估 (DTE&A)。研讨会得到了弗吉尼亚理工大学、国防分析研究所 (IDA) 和约翰霍普金斯大学应用物理实验室 (JHU APL) 的支持。近一百人参加了研讨会,他们代表了整个国防部 (DOD) 的测试和评估 (T&E) 企业的广度。这些参与者的聚集代表着一个利益共同体的建立,该共同体由国防部服务部门、国防部长办公室 (OSD)、非营利组织、学术机构和行业组成,他们在推进 AI-A 系统的 T&E 定义、文档和应用方面拥有共同的利益和平等。
越来越多的国家正在开发军事人工智能能力,其中可能包括使用人工智能实现自主功能和系统。人工智能的军事应用可以而且应该合乎道德、负责任,并加强国际安全。人工智能的军事应用必须遵守适用的国际法。特别是,在武装冲突中使用人工智能必须符合各国在国际人道主义法下的义务,包括其基本原则。人工智能能力的军事应用需要负责任,包括在军事行动期间在负责任的人为指挥和控制系统内使用人工智能。人工智能军事应用的原则性方法应包括仔细考虑风险和利益,还应尽量减少意外偏见和事故。各国应采取适当措施,确保负责任地开发、部署和使用其军事人工智能能力,包括实现自主功能和系统的能力。这些措施应在军事人工智能能力的整个生命周期的相关阶段实施。支持国认为,在开发、部署或使用军事人工智能能力(包括实现自主功能和系统的能力)时,应实施以下措施:
然而,在实际的酒店中,情况要比这复杂得多。例如,系统如何知道新物体是人而不是狗?如果系统可以将物体识别为人,那么它如何知道他/她是酒店客人,而不是送货或保安等服务的服务提供商?为了适应新物体或情况,系统必须首先对新物体进行特征化,因为没有它,代理将不知道如何适应或响应。在这种情况下,需要进行一些分类或相似性比较来确定它是否是带有行李的人。如果物体看起来像人但没有行李,则机器人不会响应或学习识别该人,因为这与其执行任务无关。如果新奇的物体看起来像动物,它应该通知酒店员工并学习识别该物体,以便下次看到时它不再是新奇的。简而言之,对于每个表征,都有相应的响应或适应策略,可以是 NIL(即什么也不做)。这个讨论表明,要进行表征,代理必须已经拥有丰富的世界知识。最后,做出错误的决定也会有风险。随着经典学习的成熟,我们应该超越现有范式,研究如何让代理学习