摘要人工智能(AI)在组织中的作用从从执行常规任务到监督人类雇员的根本上改变了。虽然先前的研究重点是对此类AI主管的规范看法,但员工对他们的行为反应仍未得到探索。我们从关于AI厌恶和赞赏的理论中汲取了理论,以应对该领域内的歧义,并调查员工是否以及为什么遵守人类或AI主管的不道德指示。此外,我们确定了影响这种关系的员工特征。为了告知这一辩论,我们进行了四个实验(总n = 1701),并使用了两种最先进的机器学习算法(因果林和变形金刚)。我们始终发现,与人类监督相比,员工对AI的不道德指示更少。此外,个人特征(例如遵守没有异议或年龄的趋势)构成了重要的边界条件。此外,研究1还确定了主管的感知思维是一种解释机制。,我们通过在两项预注册的研究中通过实验操作来对该介体进行进一步的见解,通过操纵两个AI(研究2)和两个人类主管之间的思维(研究3)。在(预注册)研究4中,我们在激励实验环境中复制了AI主管对AI主管的不道德指示的阻力。我们的研究对人类行为的“黑匣子”对AI主管,尤其是在道德领域中的“黑匣子”产生了见解,并展示了组织研究人员如何使用机器学习方法作为强大的工具来补充实验研究,以创造出更加细粒度的见解。
摘要:虽然人工智能 (AI) 越来越多地应用于决策过程,但道德决策对 AI 应用提出了挑战。鉴于人类无法总是就正确的做法达成一致,人们将如何看待人工智能系统的道德决策,以及如何在人机协作中归因于责任?在本研究中,我们调查了专家类型(人类 vs. 人工智能)和专家自主性水平(顾问 vs. 决策者)如何影响信任、感知责任和依赖。我们发现参与者认为人类在道德上更值得信赖,但能力不如人工智能。这体现在参与者对人工智能的依赖上:人工智能的建议和决定比人类专家更容易被接受。然而,人工智能团队专家被认为比人类更不负责任,而人工智能系统的程序员和销售商则被认为负有部分责任。
作者:J Petrie-Wyman · 2021 · 被引用 8 次 — 培训,以及 (4) 通过致力于网络防御和网络安全的军事和政府机构教授网络伦理。计算机科学...
最著名的是 2007 年日本的疫情和 2008 年美国的疫情,其中 91% 的病例未接种疫苗或疫苗接种情况不明(CDC,2008)。在欧洲地区,从 2011 年开始病例数呈上升趋势,2013 年达到顶峰,超过 32,000 例,其中约 54% 发生在法国(麻疹传播和爆发增加,欧洲地区,2011,2011)。2014 年,美国发生了 383 例大规模疫情,主要发生在未接种疫苗的人群中
安慰剂的伦理控制“现代人类实验伦理的基石” 2在第二次世界大战后不久,对纳粹暴行作出了纽伦堡守则。世界卫生组织在1964年采用了该守则的版本,作为赫尔辛基宣言3。宣言在研究中提高了对个人患者的健康和权利的关注,而不是对社会,对未来患者或科学的关注。“在任何医学研究中,“它都断言“每个患者(包括对照组的患者)应确保最能证明的诊断和治疗方法。”4此陈述有效地禁止使用安慰剂作为控制,当存在“验证”治疗方法时。该声明还指示,不应接受违反其戒律的研究进行出版。