• 洞察 1:人工智能算法的透明度可以意味着三件不同的事情:首先,现代人工智能系统的复杂性——普通用户一无所知;其次,人工智能解决方案设计者的故意混淆——普通用户和政策制定者一无所知;第三,无法解释一个或多个特定输入如何导致一个或多个特定输出——让每个人都一无所知;• 洞察 2:由训练数据导致的人工智能/机器学习算法的偏见和公平性是人工智能/机器学习道德开发和使用的重大障碍。必须分析关于什么是“公平”、什么是“准确”以及如何平衡两者之间的权衡等重要问题;洞察 3:应该将人工智能理解为一个社会技术系统,并根据其诞生的社会来评估,同时不应低估社会在人工智能/机器学习开发和应用中的作用; • 洞察 #4:人工智能的设计和实施方式可以模糊责任和问责的归属,但这并不一定意味着在人工智能的背景下不可能实现责任和问责;• 洞察 #5:风险评估虽然有价值,但并未捕捉到可能无法量化、定性或不可观察的重要道德风险;• 洞察 #6:道德技术评估 (eTA) 是揭示可能因人工智能的开发和使用而出现的新道德问题的可行机制;• 洞察 #7:人工智能在社会中的普及是一项充满风险和假设利益的持续社会实验。
主要关键词