Loading...
机构名称:
¥ 1.0

设计挑战 为了有意义地挑战一项决策,决策主体需要某种形式的信息来理解该决策,决定是否提出异议,并用作异议的理由。许多用于决策的人工智能系统实际上都是“黑匣子” [17];它们的决策过程由于使用复杂的算法或技术(如深度学习)而被隐藏,或者公司为了保护商业机密而故意这样做 [5]。这种不透明性使得人们很难理解为什么做出一项决策,因此也很难以任何有意义的方式对其进行质疑。相比之下,在人类决策中,人们通常可以向决策者寻求决策原因的解释。通常,在高风险决策中,必须在决策过程中记​​录原因,以减轻事后解释不准确的问题。令人鼓舞的是,可解释人工智能(XAI)领域正在向可解释性方面迈进 [19]。到目前为止,XAI 还没有专注于专门为质疑提供解释,这为研究提供了一条新的途径。

公平、负责任的人工智能:重点关注竞争能力

公平、负责任的人工智能:重点关注竞争能力PDF文件第1页

公平、负责任的人工智能:重点关注竞争能力PDF文件第2页

公平、负责任的人工智能:重点关注竞争能力PDF文件第3页

公平、负责任的人工智能:重点关注竞争能力PDF文件第4页

相关文件推荐

2022 年
¥10.0
1900 年
¥1.0
1900 年
¥1.0