Loading...
机构名称:
¥ 1.0

人工智能与合作 计算社区联盟 (CCC) 四年一次的论文 Elisa Bertino(普渡大学)、Finale Doshi-Velez(哈佛大学)、Maria Gini(明尼苏达大学)、Daniel Lopresti(理海大学)和 David Parkes(哈佛大学) 人工智能 (AI) 的兴起将使人们越来越愿意将决策权交给机器。但我们不应该仅仅让机器做出影响我们的决策,还需要找到与人工智能系统合作的方式。我们迫切需要开展“人工智能与合作”方面的研究,以了解人工智能系统和人工智能与人类的系统如何产生合作行为。对人工智能的信任也很关键:信任是内在的,而且只有随着时间的推移才能获得。这里我们使用“AI”一词的最广义,正如最近的《AI 研究 20 年社区路线图》(Gil and Selman,2019 年)所用,其中包括但不限于深度学习的最新进展。如果成功,人类与 AI 之间的合作可以像人与人之间的合作一样构建社会。无论是出于内在的乐于助人的意愿,还是出于自身利益的驱动,人类社会都已经变得强大,人类物种也通过合作取得了成功。我们在“小”范围内合作——以家庭为单位、与邻居、与同事、与陌生人——并在“大”范围内作为一个全球社区寻求在商业、气候变化和裁军问题上达成合作成果。自然界中也进化出了合作,在细胞和动物之间。虽然许多涉及人类与 AI 合作的情况是不对称的,最终由人类控制,但 AI 系统变得如此复杂,以至于即使在今天,当人类只是作为被动观察者时,人类也不可能完全理解它们的推理、建议和行动。研究议程必然很广泛,涉及计算机科学、经济学、心理学、语言学、法律和哲学。事实上,合作可以意味着很多不同的事情。早期的分布式人工智能文献研究了所有共享相同效用函数并且都想要相同东西的人工智能系统。但我们也可以考虑自利、理性的代理人的经济模型,即寻求对他们个人最有利的代理人。合作也可以在这里产生。正如博弈论中经典的囚徒困境所熟知的那样,合作也可以在自利代理人之间的反复互动中产生。为了使人与人工智能系统成功合作,我们需要能够理解人类偏好、能够模拟他人行为、能够响应规范和道德结构的人工智能系统。我们需要在现行法律、制度和协调机制内运作的人工智能系统,并了解新类型的“相遇规则”在促进合作方面将发挥什么作用

人工智能与合作

人工智能与合作PDF文件第1页

人工智能与合作PDF文件第2页

人工智能与合作PDF文件第3页

人工智能与合作PDF文件第4页

相关文件推荐

2024 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2023 年
¥3.0
2024 年
¥4.0
2023 年
¥1.0
2013 年
¥3.0
2024 年
¥1.0
2023 年
¥5.0
2023 年
¥2.0
2020 年
¥9.0
2024 年
¥4.0
2022 年
¥3.0
2021 年
¥6.0
2023 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2021 年
¥1.0
2023 年
¥1.0
2020 年
¥3.0
2024 年
¥1.0