使用历史数据训练数学结构,以对世界的不确定状态做出预测。例如,基于大量标记图像,深度卷积神经网络可以学习对疾病的存在做出高度准确的个体层面预测。这包括预测 COVID-19 阳性患者(Shi 等人,2020 年)。虽然高度准确的预测本身对于基于事实的决策至关重要(即使是从字面意义上讲也是关于疾病检测),但最先进的机器学习模型的高预测性能通常是以牺牲其输出的透明度和可解释性为代价的(Voosen,2017 年;Du 等人,2019 年)。换句话说:大多数高性能机器学习模型的特点是无法传达人类可解释的信息,说明它们如何以及为何产生特定预测。因此,此类机器学习应用对于人类用户甚至专业设计师来说通常都是完全的黑匣子,他们往往不了解决策关键输出背后的原因。从方法论的角度来看,无法提供与具体预测相符的解释会导致三类高级问题。首先,被忽视的不透明性会立即导致缺乏问责制,因为它妨碍了对此类系统预测的审计。这一缺陷引发了人们对黑箱社会兴起的担忧,组织和机构中不透明的算法决策过程会带来意想不到的和未预料到的下游后果,从而使情况变得更糟(Pasquale 2015;Angwin 等人 2016;Obermeyer 等人 2019)。其次,利用人工智能提高经济效率和人类福祉的潜力不仅限于通过预测为特定决策提供信息。揭示隐藏在复杂大数据结构中的新领域知识
主要关键词