Loading...
机构名称:
¥ 1.0

摘要:通常的叙述是对人工智能 (AI) 的强烈反对。最近的一项研究发现,当法官获得决策支持时,差距最终会增加——这并不是因为算法有偏见——事实上,算法本应导致差距更小。但法官选择性地关注算法,这导致了更大的差距。本文主张采用一种渐进式方法,利用社会偏好经济学的最新理论见解。核心见解是,法官是道德决策者——你是对的还是错的,是好是坏——为了了解这些决策者的动机,人们可能会转向自我形象动机——这是近年来活跃的行为研究主题。每个阶段都利用与自我相关的动机:自我形象、自我提升、自我理解和自我。在第 1 阶段,人们使用 AI 作为支持工具,加快现有流程(例如,通过预填表格)。一旦他们习惯了这一点,他们就更容易接受附加功能(第 2 阶段),其中人工智能成为选择监视器,指出选择不一致之处并提醒人类在类似情况下的先前选择。第 3 阶段将人工智能提升为更通用的教练,提供有关选择的结果反馈并强调决策模式。然后,在第 4 阶段,人工智能引入其他人的决策历史和模式,作为专家社区的平台。这个框​​架与当前的框架形成对比,在当前的框架中,人工智能只是推荐最佳决策。

增量式人工智能

增量式人工智能PDF文件第1页

增量式人工智能PDF文件第2页

增量式人工智能PDF文件第3页

增量式人工智能PDF文件第4页

增量式人工智能PDF文件第5页

相关文件推荐

2024 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2023 年
¥3.0
2024 年
¥4.0
2023 年
¥1.0
2013 年
¥3.0
2024 年
¥1.0
2023 年
¥5.0
2023 年
¥2.0
2020 年
¥9.0
2024 年
¥4.0
2022 年
¥3.0
2021 年
¥6.0
2023 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2021 年
¥1.0
2023 年
¥1.0
2020 年
¥3.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥11.0
2024 年
¥2.0
2024 年
¥10.0
2024 年
¥1.0
1900 年
¥1.0