作者:J Petrie-Wyman · 2021 · 被引用 8 次 — 培训,以及 (4) 通过致力于网络防御和网络安全的军事和政府机构教授网络伦理。计算机科学...
安慰剂的伦理控制“现代人类实验伦理的基石” 2在第二次世界大战后不久,对纳粹暴行作出了纽伦堡守则。世界卫生组织在1964年采用了该守则的版本,作为赫尔辛基宣言3。宣言在研究中提高了对个人患者的健康和权利的关注,而不是对社会,对未来患者或科学的关注。“在任何医学研究中,“它都断言“每个患者(包括对照组的患者)应确保最能证明的诊断和治疗方法。”4此陈述有效地禁止使用安慰剂作为控制,当存在“验证”治疗方法时。该声明还指示,不应接受违反其戒律的研究进行出版。
最著名的是 2007 年日本的疫情和 2008 年美国的疫情,其中 91% 的病例未接种疫苗或疫苗接种情况不明(CDC,2008)。在欧洲地区,从 2011 年开始病例数呈上升趋势,2013 年达到顶峰,超过 32,000 例,其中约 54% 发生在法国(麻疹传播和爆发增加,欧洲地区,2011,2011)。2014 年,美国发生了 383 例大规模疫情,主要发生在未接种疫苗的人群中
摘要人工智能(AI)在组织中的作用从从执行常规任务到监督人类雇员的根本上改变了。虽然先前的研究重点是对此类AI主管的规范看法,但员工对他们的行为反应仍未得到探索。我们从关于AI厌恶和赞赏的理论中汲取了理论,以应对该领域内的歧义,并调查员工是否以及为什么遵守人类或AI主管的不道德指示。此外,我们确定了影响这种关系的员工特征。为了告知这一辩论,我们进行了四个实验(总n = 1701),并使用了两种最先进的机器学习算法(因果林和变形金刚)。我们始终发现,与人类监督相比,员工对AI的不道德指示更少。此外,个人特征(例如遵守没有异议或年龄的趋势)构成了重要的边界条件。此外,研究1还确定了主管的感知思维是一种解释机制。,我们通过在两项预注册的研究中通过实验操作来对该介体进行进一步的见解,通过操纵两个AI(研究2)和两个人类主管之间的思维(研究3)。在(预注册)研究4中,我们在激励实验环境中复制了AI主管对AI主管的不道德指示的阻力。我们的研究对人类行为的“黑匣子”对AI主管,尤其是在道德领域中的“黑匣子”产生了见解,并展示了组织研究人员如何使用机器学习方法作为强大的工具来补充实验研究,以创造出更加细粒度的见解。
那么,出于多种原因,我们希望瑞典成为正式成员,尤其是因为你们在创新、国防工业和顶级技术方面有很多可以提供的。因此,我们非常期待欢迎您成为正式成员。这将使北约更加强大,瑞典更加安全。对我来说,参加北约工业论坛很重要,因为我知道工业对我们的国防有多么重要。我知道并不是每个人都以同样的方式看待这一点。实际上,一些投资者误以为国防工业在某种程度上是不道德的。但生产武器来保卫北约盟国并没有什么不道德的。捍卫我们的自由并没有什么不道德的。帮助乌克兰士兵保卫国家并没有什么不道德的。事实上,没有工业,就没有防御,没有威慑,也没有安全。
1 的答案:C 是正确的。社会心理学家已经表明,即使是好人,在困难的情况下也可能做出不道德的行为。情境影响是外部因素(例如环境或文化因素),可以塑造我们的思维、决策和行为,并且比内部特征或性格更容易导致不道德的行为。
生成AI的使用正在迅速增长。生成的AI可用于多种目的,请参见https://www.gov.uk/government/publications/generative-arterative-arterative-arterative-ainteraligence-in-generative-in-generative-nererative-anererative-anterative-Arterative-Arteration-Arteragent-Arteraligence-Intelligence-ai-i-in---i-in--- in-in-ducucation。但是,生成的AI可以以道德和不道德的方式使用。在评估中,对生成AI的不道德使用可以被视为窃的一种形式,因此,如果建立的话,可以导致拒绝应用程序(AHCS,2023年,P10)。