Loading...
机构名称:
¥ 38.0

深度学习的有效性通常归因于神经网络作品执行表示形式学习的能力,这种转换将输入数据映射到矢量表示(通常为小于数据维度小得多)。这样的表示空间可以通过归纳结构重组数据(例如,表示与感知相似性相关的表示距离)使求解一般新任务变得更加容易(例如,地面图语义分类函数是更顺畅的W.R.T.一个很好的表示空间)。本文的重点是一般智能代理人的核心技能 - 感知和决策。我们展示了如何将这些功能简化为学习捕获世界各种结构的良好表示形式。特别是,我们仅通过表示学习来解决强化学习问题,从而通过学习良好的表示迈出了迈向建立精致代理的一步。此外,我们研究了来自不同模型和模式的强烈表示的收敛趋势,并提出了柏拉图表示假设:更强大的模型可以更好地近似于与我们现实结构的柏拉图表示。我们认为,这种表示是建立更好模型和智能人工代理的关键组成部分。最后,我们概述了通过训练和适应来学习这种柏拉图表示的未来几个方向。

通过代表学习

通过代表学习PDF文件第1页

通过代表学习PDF文件第2页

通过代表学习PDF文件第3页

通过代表学习PDF文件第4页

通过代表学习PDF文件第5页

相关文件推荐

1900 年
¥6.0
2025 年
¥1.0
2023 年
¥1.0
2025 年
¥1.0
2024 年
¥1.0
2024 年
¥2.0
2022 年
¥4.0
2023 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2021 年
¥1.0
2022 年
¥2.0
2025 年
¥1.0
2025 年
¥3.0
1900 年
¥1.0
2025 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥5.0
2020 年
¥1.0
2025 年
¥7.0
2021 年
¥1.0
2025 年
¥1.0
2025 年
¥1.0
2019 年
¥3.0
2024 年
¥24.0
2024 年
¥1.0
2025 年
¥1.0