想象一个世界,聊天机器人是对危机的第一批响应者,有效地解决问题并提供关键信息。ChatGpt展示了Genai(生成人工智能)的能力 - 及时及时地回答与危机相关的问题时,有动力的聊天机器人,从而取代了在危机交流中的人类。但是,公众对此类消息的反应仍然未知。为了解决这个问题,这项研究招募了参与者(n 1 = 399,n 2 = 189和n 3 = 121),并进行了两个在线小插图实验和一项定性调查。结果表明,当组织未能处理与危机相关的请求时,利益相关者表现出更高的满意度和较低的责任归因于聊天机器人提供指导(与调整)信息,因为他们被认为更有能力。但是,当组织满足要求时,提供调整的聊天机器人(与指导信息)会导致更高的满意度和由于更高的感知能力而导致的责任降低。第二次涉及公共紧急危机情况的实验表明,无论提供的信息(指导或调整)如何,利益相关者对高竞争(与低能力)聊天机器人表现出更高的满意和积极的态度。定性研究进一步证实了实验发现,并提供了改善危机聊天机器人的见解。这项研究还为组织提供了实用的指导,以基于上下文在危机管理中战略性地整合聊天机器人和人类代理商。这些发现通过将情境危机的交流理论扩展到非人类接触点,并通过机器启发式镜头将对使用聊天机器人的使用提供更深入的理解,从而有助于文献。
我们寻求一名有兴趣探索西欧不平等,政党政治和政策需求政治化关系的博士候选人。该项目询问,经济和社会不平等是否会影响选举的偏好和行为以及政策需求。特定的子问题可能会集中在社会制度的上下经历上,以及它们如何影响公民如何思考不平等政治,与劳动力和/或社会中经历和感知的不平等相关的不平等和责任归因的方式,以及各种公民群体的范围,以促进公民的群体,并肯定地构成公民的范围。从经验上讲,该项目将与调查数据合作,并配有管理数据和有关策略曲目的数据。
本文批判性地研究并分析了AI在国际仲裁中的特定应用,AI在仲裁中的作用以及在国际仲裁领域应用AI在应用程序中出现的相关问题,例如算法偏见,数据安全性,数据安全性,责任归因和责任分析的申请过程和相关建议的证据分析。在这个AI时代,我们需要了解AI在国际仲裁的应用中的复杂性,并试图通过在利用技术创新的利益和维护仲裁的核心原则之间达到平衡来解决问题,同时保留公平原则和公平仲裁。只有以这种方式,先进的技术才能促进更有效,更可持续的国际争端解决。
作者采用了 Floridi (2016) 开发的一种机制。在这项工作中,Floridi 将责任问题从开发人员本身的意图转移到他们的分布式道德行为对道德患者的影响。Wolf 等人从略微不同的方向出发,提出一个论点,即软件的一些特性可以用作指南,以更好地区分软件开发人员可能对软件的下游使用承担责任的情况和软件开发人员可能不承担该责任的情况。该软件责任归因系统 (SRAS)(我们在此称之为)的重要特征包括:与硬件的接近程度、风险、数据敏感性、对未来用户群体的控制程度或了解程度,以及软件的性质(通用与特殊用途)。随后的一篇论文,Grodzinsky 等人 (2020) 提供了一些证据,表明这些特征及其对责任评估的影响与文献中的一些来源一致。
代理人人工智能(AI)系统可以自主追求长期目标,做出决策并执行复杂的多转弯工作流程。与传统的生成AI不同,该AI反应提示,代理AI主动协调过程,例如自主管理复杂的任务或做出实时决策。从咨询角色转变为积极执行的挑战,确定了法律,经济和创造性的框架。在本文中,我们探讨了三个相互关联的领域的挑战:创造力和知识产权,法律和道德考虑以及竞争影响。我们分析的核心是AI生成的创意产出中的新颖性和有用性之间的张力,以及AI自治引起的知识产权和作者挑战。我们重点介绍了责任归因和责任的差距,这些差距和责任造成了“道德脆弱区”,即在多个参与者之间扩散问责制的条件,使最终用户和开发商处于不稳定的法律和道德立场。我们研究了两面算法市场的竞争动力,在该市场中,卖方和买家都部署了AI代理,可能会减轻或放大默认合谋风险。我们探索了在代理AI网络(“算法社会”的发展)内发生紧急自我调节的潜力 - 提出了关键问题:这些规范在多大程度上与社会价值观保持一致?可能会产生什么意外后果?如何确保透明度和问责制?应对这些挑战将需要跨学科的合作来重新定义法律责任制,将AI驱动的选择与利益相关者价值观保持一致,并保持道德保障。我们主张平衡自治与问责制的框架,确保各方都能在保留信任,公平和社会福利的同时利用代理AI的潜力。
代理人人工智能(AI)系统可以自主追求长期目标,做出决策并执行复杂的多转弯工作流程。与传统的生成AI不同,该AI反应提示,代理AI主动协调过程,例如自主管理复杂的任务或做出实时决策。从咨询角色转变为积极执行的挑战,确定了法律,经济和创造性的框架。在本文中,我们探讨了三个相互关联的领域的挑战:创造力和知识产权,法律和道德考虑以及竞争影响。我们分析的核心是AI生成的创意产出中的新颖性和有用性之间的张力,以及AI自治引起的知识产权和作者挑战。我们重点介绍了责任归因和责任的差距,这些差距和责任造成了“道德脆弱区”,即在多个参与者之间扩散问责制的条件,使最终用户和开发商处于不稳定的法律和道德立场。我们研究了两面算法市场的竞争动力,在该市场中,卖方和买家都部署了AI代理,可能会减轻或放大默认合谋风险。我们探索了在代理AI网络(“算法社会”的发展)内发生紧急自我调节的潜力 - 提出了关键问题:这些规范在多大程度上与社会价值观保持一致?可能会产生什么意外后果?如何确保透明度和问责制?应对这些挑战将需要跨学科的合作来重新定义法律责任制,将AI驱动的选择与利益相关者价值观保持一致,并保持道德保障。我们主张平衡自治与问责制的框架,确保各方都能在保留信任,公平和社会福利的同时利用代理AI的潜力。
Christian List 提出了一个基于责任差距的论点,即“监管机构应允许在高风险环境中使用自主人工智能 [AI],前提是它们被设计为道德……代理人和/或存在某种责任转移协议”(2021:1213)。以下内容认为,对“道德”人工智能的要求过于繁重,责任转移协议无法提供与其在群体环境中使用平行的合理“后盾”(1215)。协议只有通过应用独立合理的群体责任归因规范才能合理地填补责任差距,这样人工智能就不会面临独特的监管规范。激发 List 的条件 List 对其条件的论证主要基于避免责任差距的需要。简而言之,需要确保有人对通常归因于人类行为的伤害负责。私法通过要求某些团体问责机制来填补团体代理案件中的责任空白。List 的条件是作为推论提供的。根据 List,团体和人工智能都表现出不同的有意代理。这是它们之间的“主要相似之处”(1221)。像国家、公司或企业这样的团体和真正自主的人工智能满足代理的基本条件,即表征(例如,信念)和动机(例如,愿望)状态的结合以及采取行动的能力(1219)。他们可以采取我们通常认为是人类故意采取的行动,但这些行动不能合理地归因于特定的人类决定。“美国”可以参与与“俄罗斯”的战略互动,而这些互动并非完全归因于他们的高管(1215-1216)。同样,例如,自适应机器学习医疗工具可以执行无法归因于任何人的操作。它们可以通过根据现实世界数据改变性能,以开发人员无法预测的方式提供更准确的医疗状况诊断。List 认为,如果群体和人工智能的行为不能完全归因于个人,则存在责任差距的风险。继 Johannes Himmelreich (2019) 之后,List 认为,如果一个实体(例如,公司、人工智能)执行的行为如果由人类执行则会触发责任(例如,漏油、误诊治疗),但没有人可以对该行为承担全部责任(例如,公司/人工智能不能承担责任,个人也不对其行为承担全部责任),则会出现差距。这样的个人只对他们发挥规范性重要作用(例如,制定、授权或设计)的相关行为负责,并且只在他们的角色有助于做出行动决定的范围内负责。即使运营商、所有者、监管者、制造商等都勤勉行事,人工智能也可能造成危害。让任何人对所有危害负责是不公平的(1223、1225-1226)。就像在团体代理案件中一样,这似乎是不可避免的:拥有不完全归因于人类的代理权就是拥有团体代理权的含义,类似的东西应该告诉我们如何理解不同于其用户/创造者的“完全自主”人工智能。1 高风险案件中的责任差距(“根据社会标准定义”,但包括许多军事、医疗和金融案件(1228-1230))允许“不负责任的”决策,并可能导致受害者无法找到适当的补救措施(1239)。List 主张对“道德”人工智能进行法律要求,使其适合“承担责任”(1239),以避免此类结果。