以可持续的方式设计和开发人工智能 (AI) 的需求促使研究人员、机构和组织制定 AI 伦理建议。尽管这些建议涵盖了各种主题并针对不同的受众,但它们都假设 AI 伦理为设计师提供了可应用于其工作的可推广基础。我们认为,当前道德准则的影响力仍然不大的原因之一可能是它们所代表的应用伦理的概念。我们讨论生物伦理作为衡量 AI 伦理中采用的元伦理和方法论方法的参考点,并提出,如果通过采用旨在提高人类行为质量和保障其预期结果的研究领域的工具来丰富资源,AI 伦理可以变得更加方法论扎实,实质上更具影响力。我们认为对此有用的方法是系统理论、安全研究、影响评估方法和变革理论。
公正性和无党制创造了一种为所有人执行善治的机制。但是,在印度复杂的社会政治情景中,公务员很难客观和公正。在这种情况下,以上两个价值观作为指导原则,可以最好地为社会服务。这些价值观启发了公务员与不同政权或当事方合作的道路,而没有任何冲突。当公务员必须吸收所有方法的“福利”时,也是如此,尤其是在政策实施的背景下。 即使公共政策违反了他/她的信仰,也必须在不考虑种姓,阶级,地区或宗教的情况下实施。 例如 如果公务员必须在部落地区工作,他可能会发现一些文化对抗,以部落社会的实践;但是,这不应影响他的热情为人民服务。也是如此,尤其是在政策实施的背景下。即使公共政策违反了他/她的信仰,也必须在不考虑种姓,阶级,地区或宗教的情况下实施。例如如果公务员必须在部落地区工作,他可能会发现一些文化对抗,以部落社会的实践;但是,这不应影响他的热情为人民服务。
摘要 当前人工智能 (AI) 系统的研究、开发和应用进展引发了关于人工智能伦理的深远讨论。因此,近年来发布了许多道德准则。这些准则包括规范性原则和建议,旨在利用新人工智能技术的“颠覆性”潜力。作为一项半系统性的评估,本文分析和比较了 22 条准则,强调了重叠之处和遗漏之处。因此,我对人工智能伦理领域进行了详细的概述。最后,我还研究了各自的伦理原则和价值观在人工智能系统的研究、开发和应用实践中得到多大程度的实施,以及如何提高人工智能伦理要求的有效性。
本指南使用的核心方法称为“设计伦理”。设计伦理的目的是将道德原则纳入开发过程,以便尽早解决道德问题并在研究活动中密切跟进。它明确确定了可以采取的具体任务,并且可以应用于任何开发方法(例如AGILE、V-Method 或 CRISP-DM)。但是,建议的方法应根据所提议的研究类型进行量身定制,同时牢记研究阶段和部署或实施阶段的道德风险可能有所不同。本指南中介绍的设计伦理方法提供了解决道德相关问题和展示道德合规性的额外工具。然而,采用设计伦理方法并不排除采取额外措施,以确保遵守所有主要的人工智能伦理原则和遵守欧盟法律框架,以保证完全遵守伦理并实施伦理要求。