本研究涉及人类自主权的社会技术基础。借鉴最近关于人工智能伦理的文献、关于自主权维度的哲学文献以及独立的哲学审查,我们首先提出了一个人类自主权的多维模型,然后讨论了人工智能系统如何支持或阻碍人类自主权。由此浮现出的是一幅具有哲学动机的自主权图景,以及个人自主权在算法系统背景下提出的规范性要求。从同意到数据收集和处理,到计算任务和界面设计,到制度和社会考虑,必须考虑与社会技术系统相关的各个方面,以便全面了解人工智能系统对人类自主权的潜在影响。很明显,人类代理如何通过强制或操纵来阻碍彼此的自主权,或者他们如何尊重彼此的自主权。人工智能系统可以促进或阻碍人类的自主性,但它们真的可以尊重或不尊重一个人的自主性吗?我们主张一种哲学观点,即人工智能系统——虽然不是道德主体或责任承担者,也不能真正尊重或不尊重——却受所谓的“应有规范”的支配。这解释了人工智能系统所面临的规范性。负责任的人(设计者、用户等)有职责和应有的规范,这些职责和规范与这些应有的规范相对应。
AFRL 正在使用名为强化学习 (RL) 的机器学习工具来训练智能代理在环境中采取行动,目标是最大化整体长期回报。RL 基于操作性条件作用的心理学概念,例如,可用于通过正强化和负强化来训练狗。由于 RL 在具有高维状态空间、复杂规则结构和未知动态的环境中表现出色,因此在本项目中使用了 RL。使用传统的、强大的决策工具很难制定可靠且高性能的解决方案。然而,RL 已证明能够在从围棋等棋盘游戏、星际争霸等实时战略游戏到阿尔法空战等军事交战场景等突破性领域创造出优于人类的代理。
制定使用生成人工智能 (GAI) 的法律迫在眉睫。2022 年年底,OpenAI 向国际公众推出了其突破性的软件 ChatGPT,每月有 18 亿用户使用。从来没有一项技术应用如此迅速地取得成功。在本文中,作者概述了人工智能 (AI) 的历史,讨论了当今生成人工智能 (GAI) 技术的使用方式,并描述了 GAI 在所有学习领域的教育中的未来应用。重点是分析 GAI 的优点和缺点,特别关注人类代理与机器代理的考虑。作者研究了避免当前使用 GAI 出现问题的方法。还考虑了人类未来可以使用 GAI 的方式,同时保持自己的权力、自主权和控制力。为了支持这一点,马歇尔·麦克卢汉的电子媒体定律被修订为“生成人工智能定律”,以帮助从幼儿园到高等教育的教育工作者在“GAI时代”进行教学。
如前所述,依靠静态预训练数据完成任务的体系结构缺乏集成跨模式数据的能力(Ye等,2023)。当人形机器人处理听力,触摸或反应不一致时,这直接引起语义歧义(Pramanick&Rossi,2024)。尽管某些研究尝试了多模式融合技术,但进展仍然有限,不足以为人形机器人提供与人类相同的适应能力(Yuan等,2024)。为了解决这一差距,这项研究提出了一个多幕科推理体系结构作为创新解决方案。它旨在利用多幕科推理来优化类人类机器人在当前技术缺点基于视觉,听觉和触觉数据的跨模式中认知自主权的关键挑战。
引入AI支持工具提出了有关医学实践规范取向以及重新考虑其基本概念的问题。讨论中核心的其中一个概念之一是医生的自主权及其在面对高功率AI应用的适当性。在本文中,根据概念分析进行了对医师自主权的差异化。有人认为,医师的决策自治是有目的的自主权。医师的决策自治从根本上锚定在医学精神中,目的是促进患者的健康和福祉,并防止他或她受到伤害。从这种目的的角度来看,医生的自主权不是出于自身的缘故而受到保护,而只能在此范围内比其他手段更好。我们认为,今天,鉴于AI支持工具的现有局限性,医生仍然需要医生的决策自治。可能会在面对AI支持的情况下进行决策自主权行使决策自治,我们详细阐述了三个条件:(1)有关AI支持及其陈述的足够信息,(2)足够的能力,足以将AI陈述整合到临床决策中,以及(3)自愿性的上下文,在合理的情况下,与合理的情况下,偏离了AI,AI支持。如果医生应履行其促进患者健康和福祉的道德义务,则应以促进或至少维护医生的决策自治的方式进行设计。
当装备成栖息地时,SLS核心级液体氧气罐是一种压力容器,可用于支持深空中的人类探索。可以用这种栖息地(称为共同栖息地)作为其核心元素来构建探索航天器。这款航天器不仅仅是一种过境工具,它是一种深空勘探工具,这是一个微重力科学实验室,能够在整个太阳能系统中与船上人员进行研究。由Leo仓库提供的推进剂,初步轨迹和V估计值表明,航天器可以执行飞行或轨道宣教式的飞行或轨道任务,其轨迹足够接近太阳,以与汞的轨道相交,或者以足够远的速度飞行以通过主皮带小星钉Vesta飞行。然而,其主要任务是支持火星的人类探险。许多(虽然不是全部)加压和未压力的元素,这些元素构成了深空勘探工具,也可以用于月球和火星的地面大本营中。在传统的太空科学学科的其他方面,该航天器为小行星检索和人工重力研究提供了独特的潜力。三个发射用于部署航天器,但三十九个发射用于向轨道运送推进剂,以充分为航天器加油以进行深空任务。描述了火星船员任务中的关键操作,以说明如何使用车辆并列出了前向工作以使航天器概念成熟。
•本体论的“思想理论”方法•现象学“深度生成模型”方法•可用的许多不同的数据集和开源代码•许多不同的指标用于评估预测性能•预测模型是为生成现实的人类人类
这些微小的生物可以利用其软体体系来促进机车的促进,[5]持续记忆,[6]和计算。[7,8]这种模式在更大的生物中也存在:通过利用其肌肉骨骼系统的机制,脊椎动物也可以实现一种体力智力[9,10],从而将认知资源释放出来,以提高认知资源来获得高级理性。[1,11]软机器人技术的建立是出于设计能够类似地利用这种身体上的物理智力来简化其环境相互作用并减轻生活中的计算负担的明确目的。[12]然而,尽管软物质工程在生物启发的功能中取得了很大进步的发展,但这些材料的整体转移到具有真正生物启发的自主权的软机器人中,仍然在很大程度上未实现。在此障碍的核心是软机器人控制。软机器人的Chie量集中在功能性,可变形材料的制造[13,14]和致动[15,16] [17-19],[17-19]在每个区域中驱动了实质性的创新。相比之下,软机器人感知的发展较少,[20,21]学习,[22,23]和对照。[24 - 26]
摘要 近几十年来,技术变革引人注目,包括旨在促进老年人和残疾人自主权的辅助技术领域。个人自主权之所以成为可能,要归功于通过相互认可的人权(公民和政治、经济、社会和文化、第三代)提供的道德和法律保护。当前的技术变革可能会改变个人自主权的行使,危及个人自主权的规范保护,因为其中一些权利目前需要技术中介才能实现。如今,联合国《残疾人权利公约》(CRPD)已成为定义和保护残疾人(主要是老年人)自主权的国际规范框架,并包含重要的技术发展参考。新的辅助技术可用于记录生理变量或监测生活习惯,被认为是促进个人自主权的设备。健康监测可能会影响隐私、身份、完整性和个人数据的保护。因此,有必要将伦理反思从《残疾人权利公约》扩展到隐私和数据保护的相关法规(《通用数据保护条例》[GDPR] 和《隐私条例草案》ePrivacy)以及《GDPR》第 35 条规定的数据保护影响评估 (DPIA),这对于辅助技术领域尤其重要。在本文中,我们展示了技术变革如何影响个人自主权的某些方面、其规范保护、隐私和护理。
摘要 - 共享自主权是一种机器人控制方法,可帮助人类用户实现其预期目标,同时利用机器人自主权的精确和效率。在共享的自主权中,用户输入和自主帮助合并以有效控制机器人,而无需用户提供直接和精确的控制输入。共享自主权中的一个持续问题是如何确定用户输入和自主算法之间的仲裁。由于用户所需的帮助量的可变性,必须通过考虑用户的偏好,物理能力和专业知识来开发以用户为中心的算法来提供定制和自适应帮助。在本文中,我们提出了一种共享的自主方法,该方法在用户的任务绩效和专业水平中都可以自适应地调整运行时的帮助量。我们在辅助控制问题中验证了我们的方法,在该问题中,人用户在模拟的环境中对机器人臂进行了操作,以执行对象到达和掌握任务。结果表明,与直接近距离和仅考虑与任务相关的指标的两种基线仲裁方法相比,我们的方法协助用户实现更高的效率来完成对象到达和掌握任务。