人工智能(AI)系统不仅编码旨在处理和分析数据的统计模型和复杂算法,还要编码重要的规范性行李。这个道德维度,源自基本的代码和培训数据,塑造了AI所提供的建议,表现出的行为和看法。这些因素会影响AI的调节,使用,滥用和影响最终用户的方式。AI影响力的多方面性质引发了跨科学技术研究(STS),道德,法律和社会影响(ELSI)研究,公共政策分析和负责任的创新的广泛讨论,这毫无疑问,毫无疑问,以检查AI的道德分歧。虽然AI伦理的最初浪潮集中在阐明原则和准则上,但最近的奖学金越来越强调伦理原理,监管监督和减轻不可预见的负面后果的实际实施。从研究伦理学中的“道德倾倒”概念中汲取灵感,本文认为,围绕AI开发和部署的实践可以过分且非常令人担忧,从而使开发人员和监管机构对设备齐全的用户和主机环境的伦理责任卸载。确定了说明这种道德倾销的四个关键趋势:(1)AI开发人员通过编码的价值假设嵌入伦理,(2)AI伦理准则促进了从当地环境中脱离广泛或无法履行的原则,(3)机构在不评估伦理意义的练习和(4)范围内的范围内实施AI系统的机构,并且(4)具有决策性的责任感。缓解AI伦理倾倒需要增强用户权力,促进利益相关者参与规范,协调道德准则,同时允许灵活地进行本地变化,并在整个AI生态系统中建立明确的问责机制。
主要关键词