Loading...
机构名称:
¥ 1.0

人工智能系统通常依赖于两个关键组成部分:指定的目标或奖励函数,以及用于计算该目标的最佳行为的优化算法。这种方法旨在为委托人提供价值:代理代表其行事的用户。赋予这些代理的目标通常是指委托人目标的部分规范。我们通过分析资源受限世界中的委托人和代理模型来考虑这种不完整性的成本,其中状态的 L 个属性对应于委托人的不同效用来源。我们假设给予代理的奖励函数仅支持 J < L 个属性。我们论文的贡献如下:1)我们提出了一种来自人工智能的不完全委托代理问题的新模型;2)我们提供了必要和充分条件,在这些条件下,对任何不完全代理目标进行无限优化都会导致任意低的整体效用; 3) 我们展示了如何修改设置以允许引用完整状态的奖励函数或允许委托人随时间更新代理目标,从而获得更高效的解决方案。本文的结果表明,我们应该将奖励函数的设计视为一个交互式动态过程,并确定了一种需要一定程度交互性的理论场景。

人工智能失调的后果

人工智能失调的后果PDF文件第1页

人工智能失调的后果PDF文件第2页

人工智能失调的后果PDF文件第3页

人工智能失调的后果PDF文件第4页

人工智能失调的后果PDF文件第5页

相关文件推荐

2024 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2023 年
¥3.0
2024 年
¥4.0
2023 年
¥1.0
2013 年
¥3.0
2024 年
¥1.0
2023 年
¥5.0
2023 年
¥2.0
2020 年
¥9.0
2024 年
¥4.0
2022 年
¥3.0
2021 年
¥6.0
2023 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2021 年
¥1.0
2023 年
¥1.0
2020 年
¥3.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥11.0
2024 年
¥2.0
2024 年
¥10.0