人工智能“是指通过分析环境并采取行动(具有一定程度的自主性)来实现特定目标而表现出智能行为的系统”(European-Commission 2018)。因为这个定义足够正式和通用,能够涵盖该领域的大多数常见理解,所以它是一个有用的起点。事实上,正是基于这种理解,欧盟委员会高级专家组对人工智能进行了更为细致的定义,即“由人类设计的系统,在给定复杂目标的情况下,通过感知环境、解释收集到的结构化或非结构化数据、根据从这些数据中获得的知识进行推理并决定为实现既定目标而采取的最佳行动(根据预定义参数)来在物理或数字世界中行动。人工智能系统还可以通过分析环境如何受到其先前行为的影响来学习调整其行为”(AIHLEG 2018)。除了有关人工智能定义的现有争议之外,我们可以确定以下对其功能至关重要的要素:通过传感器感知环境;根据感知到的数据进行推理/决策;通过执行器进行驱动。如此构想的人工智能为从医学到军事的不同领域开辟了多种可能性,从而引发了多重伦理问题。简而言之,人工智能和自动化的进步可能使对人员及其活动的监视、监控和跟踪更加普遍,以及信息在世界范围内更快地传播,这带来了许多安全和隐私挑战(Stahl and Wright 2018 )。此外,人工智能在医学、军事和自主武器发展中的潜在促进作用引发了关于不可靠性和问责制的问题(Hammond 2015 ;Hallaq et al. 2017 ;Horowitz 2018 )。此外,人工智能和自动化一起,可能会带来深远的经济和社会变革,对整个劳动力市场产生影响(Aicardi 等人,2018 年)。哪些类型的工作可能受到影响仍存在争议,但人们一致认为,人工智能将改变工作需求以及依赖人类能力和技能的职位的性质(Perisic,2018 年)。它可能会创造新的职位并消除现有的职位(EGE,2018 年),并通过预测分析等方式对传统的招聘和招募实践产生重大影响。在最先进的人工智能研究类型之一:自学习人工智能中,也出现了紧迫的伦理问题。自学习人工智能可以通过强化学习,不需要人类数据、指导或基本规则以外的领域知识(Silver 等人,2017 年)。据其开发人员称,自学习人工智能无需任何先前的专业知识即可“在具有挑战性的领域达到超人的水平”(Silver 等人,2017 年)。迄今为止,这种人工智能已在有限的环境中成功应用,特别是在国际象棋、围棋和扑克等游戏中,所有相关变量都可以预测,即使通过极其复杂的计算。这些系统在现实环境中的应用(例如自动驾驶汽车)提出了尚未解决的具有挑战性的问题,尽管我们不能排除它们的解决只是时间问题的可能性(Sokol 2018)。如果不考虑关注大规模潜在场景(例如超级智能 AI 接管)的“大伦理”问题(Muller 2016),很明显
主要关键词