Loading...
机构名称:
¥ 2.0

人类已经依靠机器将过多的信息减少到可管理的代表。但是可以滥用这种依赖 - 战略机器可能会制作来操纵用户的表示。用户如何根据战略表示做出好选择?我们将其形式化为学习问题,并追求算法进行决策,这些算法是可靠的。在我们关注的主要设置中,系统将项目的属性表示给用户,然后决定是否消耗。我们通过策略分类的镜头对这种相互作用进行建模(Hardt等人2016),反转:学习,首先播放的用户;响应的系统排名第二。系统必须以揭示“除了真理”但不必透露整个真理的表示形式做出响应。因此,用户面临着在战略子集选择下学习设置功能的问题,该问题呈现出不同的算法和统计范围。我们的主要结果是一种学习算法,尽管具有战略性代表,但可以最大程度地减少错误,而我们的理论分析阐明了学习工作和操纵性的知名度之间的权衡。

战略代表

战略代表PDF文件第1页

战略代表PDF文件第2页

战略代表PDF文件第3页

战略代表PDF文件第4页

战略代表PDF文件第5页

相关文件推荐

2024 年
¥1.0
2024 年
¥10.0
2023 年
¥1.0
2023 年
¥2.0
2024 年
¥2.0
2023 年
¥1.0
2024 年
¥2.0
2022 年
¥4.0
2023 年
¥1.0
2022 年
¥1.0
2022 年
¥1.0
2022 年
¥1.0
2023 年
¥7.0
2023 年
¥1.0
2024 年
¥1.0
2022 年
¥4.0
2024 年
¥1.0
2022 年
¥1.0
2023 年
¥1.0
2020 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥2.0
2020 年
¥1.0
2025 年
¥3.0
2020 年
¥3.0
2020 年
¥1.0
2020 年
¥3.0
2020 年
¥1.0