多模式的大型语言模型(LLMS)在大量数据集中受过培训的多模型在许多情况下变得越来越有能力。但是,此类模型的capabilies通常在狭窄的任务中进行评估,就像标准的机器学习模型接受了针对特定目标的训练一样。,我们通过将最新的LLM代理通过其步调进行一般任务来解决不同的策略,以解决三个受欢迎的游戏 - Wordle,Face Quiz和Flashback。这些游戏很容易被人类解决,但他们要求一定程度的自我意识和更高层次的能力来实验,从错误中学习并计划。我们发现LLM代理在这些一般任务中表现出不同的性能。他们缺乏从错误和自我纠正能力中学习的意识。llms在最复杂的认知子任务中的性能可能不是其在现实世界环境中部署的限制因素。相反,重要的是要通过包含多个齿轮任务的一般测试来评估吸气LLM的功能,从而使它们能够解决完整的现实世界应用。
功能运动障碍(FMD)是运动异常,随着时间的流逝,不一致,与运动障碍的典型特征不一致。代理意识(SOA)是控制自己的运动动作以及通过外部事件的过程。受损的自机被认为是FMD病理生理学的关键因素。虽然已经提出了几种理论模型来解释SOA,但主动推理模型提供了一个全面的框架,可以同时整合感觉运动和认知过程。来自FMD的神经成像研究的证据表明,与SOA相关的大脑区域的功能异常,尤其是右颞叶交界处(TPJ)和补充运动区域(SMA)。实验范式(如故意结合和感觉衰减)显示了FMD的代理损失。本评论探讨了有关FMD中SOA损害的理论模型和当前证据。
摘要 - 在现实世界中的代理商,例如自动驾驶的环境中的不确定性,尤其是由于感知不确定性。,尽管在不确定性下,这些算法通常不会了解其环境中当前所包含的不确定性,但强化学习专门用于自主决策。另一方面,感知本身的不确定性估计通常是在感知域中直接评估的,例如,基于摄像机图像的假阳性检测率或校准误差。它用于决定面向目标的动作的用途在很大程度上仍未被研究。在本文中,我们研究了代理人的行为如何受到不确定的看法的影响,以及如果有关此不确定性的信息,该行为如何改变。因此,我们考虑了一项代理任务,在该任务中,代理商在不与其他道路使用者发生碰撞的情况下驾驶路线会得到奖励。对于受控实验,我们通过在告知后者的同时扰动给定代理的感知来引入观察空间中的不确定性。我们的实验表明,以扰动感知建模的不可靠的观察空间会导致代理的防御驾驶行为。此外,当将有关当前不确定性的信息直接添加到观测空间时,代理会适应特定情况,并且一般而言,在同一时间占风险的同时,可以更快地完成其任务。索引术语 - 不确定性量化,增强学习,语义分割
JérémyAlbouys-Perrois,Nicolas Sabouret,Yvon Haradji,Mathieu Schumann,Benoit Charrier等。集体自我消费的多代理模拟:存储系统的影响和大型能源交换的影响。能源与建筑物,2022,254,pp.111543。10.1016/j.enbuild.2021.111543。hal- 03505248
摘要 - 近年来,使用运动图像的大脑计算机界面(BCI)显示出一些局限性在控制质量方面。为了改善这项有前途的技术,一些研究旨在与其他技术(例如眼睛跟踪)开发混合BCI,这些技术显示出更可靠的可靠性。但是,在机器人控制中使用眼动仪可能会自身影响机构感(SOA)(SOA)和用于运动图像(MI)区域的大脑活动。在这里,我们探讨了代理意识与运动皮层活动之间的联系。为此,我们使用了投影在表面上的虚拟臂,该虚拟手臂由运动捕获控制或使用眼迹器凝视控制。我们发现,在凝视控制任务期间,电动机皮层有一项活动,并且对预计的机器人臂的控制会带来显着差异,这与观察机器人移动的情况有很大的差异。
代理人人工智能(AI)系统可以自主追求长期目标,做出决策并执行复杂的多转弯工作流程。与传统的生成AI不同,该AI反应提示,代理AI主动协调过程,例如自主管理复杂的任务或做出实时决策。从咨询角色转变为积极执行的挑战,确定了法律,经济和创造性的框架。在本文中,我们探讨了三个相互关联的领域的挑战:创造力和知识产权,法律和道德考虑以及竞争影响。我们分析的核心是AI生成的创意产出中的新颖性和有用性之间的张力,以及AI自治引起的知识产权和作者挑战。我们重点介绍了责任归因和责任的差距,这些差距和责任造成了“道德脆弱区”,即在多个参与者之间扩散问责制的条件,使最终用户和开发商处于不稳定的法律和道德立场。我们研究了两面算法市场的竞争动力,在该市场中,卖方和买家都部署了AI代理,可能会减轻或放大默认合谋风险。我们探索了在代理AI网络(“算法社会”的发展)内发生紧急自我调节的潜力 - 提出了关键问题:这些规范在多大程度上与社会价值观保持一致?可能会产生什么意外后果?如何确保透明度和问责制?应对这些挑战将需要跨学科的合作来重新定义法律责任制,将AI驱动的选择与利益相关者价值观保持一致,并保持道德保障。我们主张平衡自治与问责制的框架,确保各方都能在保留信任,公平和社会福利的同时利用代理AI的潜力。
代理人人工智能(AI)系统可以自主追求长期目标,做出决策并执行复杂的多转弯工作流程。与传统的生成AI不同,该AI反应提示,代理AI主动协调过程,例如自主管理复杂的任务或做出实时决策。从咨询角色转变为积极执行的挑战,确定了法律,经济和创造性的框架。在本文中,我们探讨了三个相互关联的领域的挑战:创造力和知识产权,法律和道德考虑以及竞争影响。我们分析的核心是AI生成的创意产出中的新颖性和有用性之间的张力,以及AI自治引起的知识产权和作者挑战。我们重点介绍了责任归因和责任的差距,这些差距和责任造成了“道德脆弱区”,即在多个参与者之间扩散问责制的条件,使最终用户和开发商处于不稳定的法律和道德立场。我们研究了两面算法市场的竞争动力,在该市场中,卖方和买家都部署了AI代理,可能会减轻或放大默认合谋风险。我们探索了在代理AI网络(“算法社会”的发展)内发生紧急自我调节的潜力 - 提出了关键问题:这些规范在多大程度上与社会价值观保持一致?可能会产生什么意外后果?如何确保透明度和问责制?应对这些挑战将需要跨学科的合作来重新定义法律责任制,将AI驱动的选择与利益相关者价值观保持一致,并保持道德保障。我们主张平衡自治与问责制的框架,确保各方都能在保留信任,公平和社会福利的同时利用代理AI的潜力。
hal是一个多学科的开放访问档案,用于存款和传播科学研究文件,无论它们是否已发表。这些文件可能来自法国或国外的教学和研究机构,也可能来自公共或私人研究中心。
在本文中,我们提出了一个模块化系统,用于代表和推理,并具有自动驾驶汽车交通规则的法律方面。我们专注于英国高速公路法规(HC)的子集。随着人类驾驶员和自动化车辆(AV)将在道路上进行交互,尤其是在城市环境中,我们声称应该存在一个可访问,统一的高级计算模型,并适用于两个用户。自动驾驶汽车引入了责任转变,不应带来缺点或增加人类驾驶员的负担。我们开发了模型的“硅中”系统。提出的系统由三个主要组成部分构建:使用逻辑英语编码规则的自然语言接口;序言中规则的内部表示;以及基于Netlogo的基于多机构的仿真环境。三个组件相互作用:逻辑英语被转化为序言(以及一些支持代码); Prolog和Netlogo接口通过谓词。这样的模块化方法使不同的组件能够在整个系统中承担不同的“负担”。它还允许交换模块。给定的NetLogo,我们可以可视化建模规则的效果,并使用简单的动态运行方案验证系统。指定的代理商监视车辆的行为,以确保合规性和记录可能发生的潜在违规行为。然后,验证者利用有关潜在违规行为的信息,以确定违规行为是否应处以惩罚,在异常和案件之间进行区分。
罗马气候最佳(RCO)和后期的古董小冰河时代(Lalia)对罗马帝国的兴衰产生了什么影响?我们的文章提出了一种基于代理的建模(ABM)方法,以评估气候变化对南部高卢南部葡萄园,橄榄树和谷物农场的利润的影响,这是罗马时期的主要财富来源。该ABM模拟了一个农业生态系统模型,该模型从古气候数据中处理潜在的农业产量值。该模型计算出销售农作物的农业剥削的收入,其年度体积根据气候和市场价格而变化。通过从收入中扣除运营和运输成本来计算不同农业剥削的潜在利润。我们得出的结论是,罗马时期的温暖和潮湿的气候可能对公元前2世纪和公元3世纪之间的葡萄酒和橄榄农场的盈利能力产生了极为有益的影响,但对谷物生产的影响较小。随后,在古董晚期的冰河时代晚期(公元4世纪),农场的潜在盈利能力显着下降。将我们的模型结果与考古数据进行比较,使我们能够讨论这些气候波动对农业和经济增长的影响,然后从古物的开始到结束。