在所谓的第二波人工智能 (AI) 浪潮中,数据驱动的复杂机器学习方法取得了明显进步,这促进了人们对 AI 在人类生活、实践和社会各个领域和方面的应用潜力的探索。人工智能领域最近的大部分成功来自于在图像、文本和语音识别或战略棋盘和视频游戏等任务中使用表示学习和端到端训练的深度神经网络模型。通过实现自动特征工程,深度学习模型大大减少了对领域专家知识的依赖,优于基于手工特征工程的传统方法,并且在某些方面达到了与人类相当甚至超越人类的性能。尽管取得了突出的进步和潜在的好处,但对基于深度学习的 AI 解决方案的黑箱性质和行为背后缺乏透明度的担忧阻碍了它们在我们社会中的进一步应用。为了在我们的日常生活和实践中完全信任、接受和采用新兴的人工智能解决方案,我们需要以人为本的可解释人工智能 (HC-XAI),它可以为算法行为和结果提供人类可理解的解释,从而使我们能够在人工智能应用的整个生命周期内控制并不断提高其性能、稳健性、公平性、可追溯性、透明度和可解释性。遵循这一动机,多元化和多学科研究界最近出现的趋势是基于以人为本的人工智能方法的探索和情境解释模型的开发,推动人类智能 (HI) 和人工智能 (AI) 的共生,这构成了下一波(第三波)人工智能的基础。
主要关键词