Loading...
机构名称:
¥ 1.0

摘要 — 对人工智能的主要批评之一是其缺乏可解释性。许多批评者声称,如果不知道人工智能如何得出结果或得出给定的结论,就不可能相信其结果。当基于人工智能的系统和应用程序无法成功执行任务时,这个问题尤其令人担忧。在本期特刊社论中,我们重点关注两个主要领域,可解释的人工智能 (XAI) 和准确性,以及这两个维度对于构建可信赖的系统至关重要。我们回顾了突出的 XAI 设计主题,从而重新构建了设计和开发工作,突出了人类的重要性,从而证明了以人为本的人工智能 (HCAI) 的重要性。HCAI 方法提倡一系列深思熟虑的设计相关决策,例如与多利益相关者参与和消除学科界限有关的决策。这使得人们能够考虑和整合深度跨学科知识,正如我们在人工智能设计的社会认知方法示例中所证明的那样。然后,本社论讨论了未来的发展方向,强调了平衡评估与人工智能设计相关的机遇、风险和责任的价值。最后,我们介绍了特刊中的论文及其贡献,并指出了未来的研究努力。

采用以人为本的方法设计人工智能

采用以人为本的方法设计人工智能PDF文件第1页

采用以人为本的方法设计人工智能PDF文件第2页

采用以人为本的方法设计人工智能PDF文件第3页

采用以人为本的方法设计人工智能PDF文件第4页

采用以人为本的方法设计人工智能PDF文件第5页

相关文件推荐

2023 年
¥1.0
2020 年
¥9.0
2024 年
¥1.0