2009 年 10 月,不满情绪在欧盟理事会中逐渐蔓延。在此前的几个月里,欧盟理事会努力制定欧洲在人工智能 (AI) 问题上的立场,该立场将坚定地反映欧盟对基本权利的承诺。然而,当成员国准备就此事得出结论时,显然无法达成共识。一个成员国——波兰——提出了反对意见,其重点是结论草案中提到的“性别平等”。波兰代表认为,由于“性别”一词并未出现在《欧盟基本权利宪章》中,因此没有必要在人工智能的背景下提及它。 其他理事会成员强烈反对,但他们无法劝阻波兰改变立场。最终,德国理事会主席国得出结论,达成共识的努力失败了。别无选择的情况下,它采纳了主席国的结论,这些结论不需要成员国的一致同意,只是表达了主席国对此事的立场。对于新兴人工智能政策格局的观察者来说,上述事件是一个奇怪的异常现象。直到最近,在高层找到共同点
摘要 当今复杂世界中的战略组织决策是一个具有不确定性的动态过程。因此,不同的负责任的员工群体要处理大量和各种各样的信息,必须正确获取和解释这些信息才能推断出适当的替代方案。人工智能 (AI) 的技术潜力有望提供进一步的支持,尽管这方面的研究仍在发展中。然而,由于该技术旨在具有超越传统机器的能力,因此人们越来越关注它对当前人机关系中建立的任务分工和角色定义的影响。本文基于系统的文献综述,结合内容分析,概述了当前研究确定的将人工智能融入不确定情况下的组织决策的可能性。研究结果总结在一个概念模型中,该模型首先解释了人类如何在不确定的情况下使用人工智能进行决策,然后确定了必须考虑的挑战、先决条件和后果。虽然对组织结构、人工智能应用的选择以及知识管理的可能性的研究非常广泛,但道德框架的明确建议却缺失,尽管道德框架被定义为关键的基础。此外,与传统机器不同,人工智能可以放大决策过程中固有的问题,而不是帮助减少这些问题。因此,人类的责任感增加了,而所需的能力