Loading...
机构名称:
¥ 1.0

简介 过去一年,生成式人工智能技术的快速发展为民主带来了新的挑战,也带来了一些新的机遇。本文基于研究概述了生成式人工智能的潜在影响,并提供了保护选举过程的最佳实践。我们审查的目的不是推荐许多具体的法律或政策行动,而是促进选民、记者、民间社会、技术领袖和其他利益相关者清楚地了解人工智能对选举民主的风险和前景,希望促进对这些问题的更有成效的公开讨论。 民主依赖于选举问责制。选民被要求选出他们支持的候选人,解雇他们认为工作做得不好的政客。因此,民主需要一个健康的信息环境,选民可以在其中监督政客在做什么,了解候选人当选后承诺做什么,并评估应对社会挑战可能需要哪些政策。通过促进自动创建难以与人类生成的内容区分开来的高度详细的文本、图像和视频,生成式人工智能可能会对信息环境产生负面影响。它可以被用来制造虚假或误导性信息,助长人们对信息可靠性的普遍激进怀疑或虚无主义,甚至允许政治参与者将真实的、有害的信息视为人工智能生成的假新闻。通过协助创建微目标政治内容(例如,用于在线政治广告),生成式人工智能可能会使选民两极分化,或加剧政治分裂感,人们生活在不同的信息环境中,或被操纵投票给错误的候选人,或根本不投票。生成式人工智能还为能够进行类似人类对话的聊天机器人提供动力。初创公司、竞选活动和其他参与者可能会使用这些聊天机器人进行政治对话。这可能本身并不成问题——事实上,我们可以想象,参与度的提高会让选民更加知情。但有些人可能会反对这些对话的不真实性、情感操纵的可能性,或有意或无意传播虚假或误导性信息。此外,极端组织可能会利用这些聊天机器人招募人们加入他们的事业。最后,更普遍地说,生成式人工智能的发展可能会导致在线信息生态系统进一步集中化,少数大型科技公司将决定哪些想法和价值观可以表达,哪些是禁忌。这可能会威胁言论自由,进一步削弱美国人对政治环境的信任。然而,作为一项极具前景的新技术,生成式人工智能也为民主治理带来了希望。研究人员已经在研究如何创建可以与人讨论政治的聊天机器人。由于生成式人工智能擅长合成大量信息,如果

为 2024 年大选的生成式人工智能做好准备

为 2024 年大选的生成式人工智能做好准备PDF文件第1页

为 2024 年大选的生成式人工智能做好准备PDF文件第2页

为 2024 年大选的生成式人工智能做好准备PDF文件第3页

为 2024 年大选的生成式人工智能做好准备PDF文件第4页

为 2024 年大选的生成式人工智能做好准备PDF文件第5页