引言 对创造力和意图的伦理关怀 自动化在社会中的传统作用是通过外包日常任务来让人类生活更轻松,并且按照传统,它取代人类的工作以降低成本、增加利润。例如,推荐系统利用语言模型来吸引用户参与预测文本系统。然而,由于它改变了人们的写作方式,这种媒介受到了许多批评。研究发现,这些系统让人变得“像机器一样”——从其意图就可以看出这一点(Varshney 2020b)。这促使人们在实施自动化时要伦理关怀人类的属性——其中之一就是创造力。事实上,早在 1964 年,技术学者刘易斯·芒福德 (Lewis Mumford) 就引用了歌德的《魔法师的学徒》来论述:“首先,让我质疑这样一种观点,即自动化在任何意义上都是最终的利益,它在各个方面都如此有益,因此必须加快这一进程并坚持不懈地扩展到每个领域……”如果人类有机体仅按照这一原则发展,……人类将失去思维能力”(Mumford 1964)。在精神分析中,创造力是驱动艺术体验的表达要素或自然人类冲动(Zweig 2012)。它让观众感到惊讶,因为它突破了被认为是现实体验的界限。令人惊讶的是,它推动了创造力的产生,这一点可以通过好奇机器人的人工智能创造系统将其用作创造性行动的内在动机来检验(Saunders et al. 2010)。人工智能艺术,
我们的分析表明,自治不是唯一的目标,而是与绿色船的发展协同作用。对这两个概念的投资都会带来总体的财务收益,从而为船东创造了积极的业务案例。好处包括由于船员分配和新的船舶设计的缺席/减少而导致的货物容量增加。的确,与改造现有船只相比,新的船设计有可能更有效地解锁该协同作用。共同可以增强运输系统的安全性和弹性,并通过更好的任务管理和控制来减少排放。它可以有助于改善海员的工作条件,并最终
自主驾驶或遥控驾驶船舶的引航:操作概念(ConOps)需要考虑从远程操作中心(ROC)操作的引航员,以及如何满足港口当局的安全、法律和环境保护要求;远程引航的可接受性和信任度;关键的安全问题是建立和维护 SA 以及处理紧急情况,例如失去连接或放弃 ROC,导致推力或转向功能丧失;还需要考虑船舶本身、燃料和货物的风险。当要求引航员控制 MASS 时,例如过渡到远程操作以进入港口,需要考虑责任或义务变化方面的潜在法律影响。
摘要 - 本文描述了一种称为仙人掌的输入空间建模和测试生成方法(具有组合测试的挑战性自治),该方法为自主系统创建了一系列“挑战场景”。尽管自主系统的参数空间是广泛的,但仙人掌有助于使用组合测试以及通过将专家判断到场景的制定中减少参数空间。可以在适当的测试基础结构(例如模拟器或循环测试)上执行所得场景。仙人掌可用于锻炼系统,作为获得符合ISO 21448或UL 4600等标准的努力的一部分。该方法用于生成商用自动驾驶汽车感知系统的测试方案。索引术语 - 跨越测试,输入建模,Au ossos Systems,自动驾驶汽车
传统的自由模型通常会隔离自主权,从而导致概念上的显着差距。自由主义者的自由意志强调完全独立于外部决定因素,这是一种理想化和不受约束的代理形式。这种观点忽略了自主权固有地受到系统性和关系影响的方式。另一方面,兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。 坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。 虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。 关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。 共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。兼容允许在确定性的边界内自由意志,但会降低自主权,仅与内部欲望相结合,无法说明能够实现道德化增长和反思性决策的机制(Wisniewski等人,2019年)。坚硬的决定论认为所有人类行为都是由外部因素决定的,它否认了自由的存在。虽然在逻辑上保持一致,但这种观点忽略了人类通过有意识的努力来反思和重塑其行为的可观察能力。关系方法(例如关系自主权和集体意图)正确地强调了社会关系在塑造自主权中的作用,但经常将这些影响降低到次要重要性,忽略了人类决策的相互联系和系统性的维度(Christman,1990; Mackenzie&Stoljar,2000; 2000年)。共同解决了自由意志的发展,关系和道德方面(Frankfurt,1971)。
摘要 - 质量自治有望彻底改变广泛的工程,服务和流动性行业。超密集的自主代理之间的协调复杂的沟通需要新的人工智能(AI)在第五代(5G)和第六代(6G)移动网络中实现无线通信服务的管弦乐队。在特定的安全和任务关键任务中,合法需要透明的AI决策过程,以及一系列人类最终用户(消费者,工程师,法律)的量化质量质量质量(QOT)指标。我们概述了6G的值得信赖的自主权的概念,包括基本要素,例如可解释的AI(XAI)如何产生信任的定性和定量方式。我们还提供了与无线电资源管理和相关的关键绩效指标(KPI)集成的XAI测试协议。提出的研究方向将使研究人员能够开始测试现有的AI优化算法,并开发新的算法,认为应该从设计到测试阶段内置信任和透明度。
[草稿] Joseph B. Lyons,Kerianne Hobbs,Steve“ Cap” Rogers,Scott H. Clouse,“负责(使用)AI的负责人”,了解人类在社会技术生态系统中负责任地部署人类在智能技术中的作用[在草案中] Kerianne Hobbs,Bernard Li,“航空航天控制中的人类AI团队的安全,信任和道德考虑”,AIAA Scitech,2024年1月8日至124日,佛罗里达州奥兰多。
Abstract —Human trust in social robots is a complex attitude based on cognitive and emotional evaluations, as well as a behavior, like task delegation.While previous research explored the features of robots that influence overall trust attitude, it remains unclear whether these features affect behavioral trust.Additionally, there is limited investigation into which features of robots influence cognitive and emotional attitudes, and how these attitudes impact humans' willingness to delegate new tasks to robots.This study examines the interplay between competence, autonomy, and personality traits of robots and their impact on trust attitudes (cognitive and affective trust) and trust behavior (task delegation), within the context of task-oriented Human- Robot Interaction.我们的发现表明机器人能力是信任的关键决定因素,影响认知,情感和行为信任。相比之下,机器人人格特征只会显着影响情感信任,而不会影响认知信任或信任行为。In addition, autonomy was found to moderate the relationship between competence and cognitive trust, as well as between personality and affective trust.最后,发现认知信任会积极影响任务授权,而情感信任并未显示出显着影响。This paper contributes to the literature on Human-Robot Trust by providing novel evidence for the design of robots that can interact effectively with humans and enhance their trust.