Loading...
机构名称:
¥ 1.0

自动驾驶汽车、社交和工业机器人、基于图像的医疗诊断、基于语音的知识和控制系统(例如 Alexa、Siri)以及推荐系统是一些应用领域,其中 AI/ML 辅助数字工件已经支持日常惯例和活动。可解释人工智能 (XAI) 和可解释机器学习 (IML) 都是关注用户为应对自动化系统渗透社会、经济、工业和科学环境的激增而创造的术语。例如,当自动驾驶汽车发生碰撞时,有什么好的解释?当 Alexa 被要求解释为什么英国的通货膨胀率如此之高,而通常的回答却非常不合适时,有什么好的解释?当社交媒体巨头为粉丝提出建议并向普通用户投放广告时,有什么好的解释?这些问题,特别是在任务关键型或影响生命的系统中,是由此类系统日益复杂的情况所引发的,在解释和解释其决策、结果或行为时,这些系统不可避免地会变成“黑匣子”。尽管已经采取了一些有趣的算法方法和实现(例如 LIME、IBM Protodash 和 SHAP(SHapley Additive exPlanations))来应对这一挑战,以看透“黑匣子”并理解其行为,但这些方法和实现主要由 ML 开发人员推动,旨在改进 ML 模型,而不是为系统消费者提供结果的某种解释或解释。在更广泛的多学科背景下,“什么是对外行用户的良好解释”这个问题的答案变得更具挑战性,正如我们呼吁的那样,从哲学到社会学、经济学和计算机科学。在此背景下,XAI 应该涉及需要解决的另一个层次的讨论:我们作为人类与 AI 系统的关系。尽管如此,“解释”一词源自拉丁语动词“explanare”,字面意思是“使水平”。因此,讨论和科学

社论:人机系统中的解释

社论:人机系统中的解释PDF文件第1页

社论:人机系统中的解释PDF文件第2页