Loading...
机构名称:
¥ 2.0

为了使自主 AI 系统被接受和信任,用户应该能够理解系统的推理过程(即系统应该是透明的)。机器人技术具有独特的编程困难,因为系统需要将复杂的传感器输入(例如摄像机馈送和激光扫描)映射到输出(例如关节角度和速度)。深度神经网络的进步现在可以通过直接从高维传感器输入学习控制策略来取代费力的手工制作特征和控制代码。由于 Atari 游戏(这些功能首次得到展示)复制了机器人问题,因此它们非常适合研究人类如何理解和与未经明确编程的代理交互。我们展示了使用内部状态的对象显着性可视化使 DRLN 更加透明的计算和人类结果,并测试了通过目的论口头解释表达显着性的有效性。

深度学习、透明度和对人类机器人的信任......

深度学习、透明度和对人类机器人的信任......PDF文件第1页

深度学习、透明度和对人类机器人的信任......PDF文件第2页

深度学习、透明度和对人类机器人的信任......PDF文件第3页

深度学习、透明度和对人类机器人的信任......PDF文件第4页

深度学习、透明度和对人类机器人的信任......PDF文件第5页

相关文件推荐

2020 年
¥24.0
2019 年
¥1.0
2006 年
¥66.0
2018 年
¥32.0
2002 年
¥23.0