无论在设计和开发上投入了多少时间和精力,所有系统都会在某个时候失效。人工智能系统也不例外,容易出现意想不到的、有时甚至是惊人的故障模式。一些故障表明系统组件的脆弱性,例如小贴纸会阻止自动驾驶汽车的感知系统识别停车标志 [1] 。其他故障则表明攻击者如何利用人工智能的新界面来导致故障,例如社交媒体“喷子”通过一连串种族主义语言改变人工智能聊天机器人的个性 [1], [2] 。还有一些故障凸显了系统缺乏多功能性,例如当你的智能扬声器无法回应带有口音的朋友的声音时。即使是在严格控制的开发、实验室和测试环境中操作,能力强且意图良好的开发人员也会无意中创建跨领域和用例的易发生故障的系统。我们如何才能为复杂且模糊的环境(例如国家安全领域)构建强大且安全的人工智能系统?在这些环境中,故障的潜在后果可能是灾难性的。
我们将虚假信息宣传活动分为多个阶段。通过侦察,操作人员监视环境并了解他们试图操纵的受众。他们需要基础设施——信使、可信人物、社交媒体账户和群组——来传播他们的叙述。从帖子和长篇文章到照片、表情包和视频,内容的不断流动是确保他们的信息播种、生根和发展所必需的。一旦部署到互联网流中,这些虚假信息单元就会被机器人、平台算法和社会工程技术放大,以传播宣传活动的叙述。但仅仅散布虚假信息并不总是足够的:广泛的影响来自于通过网络喷子与不知情的用户持续互动——这相当于肉搏战。在最后阶段,虚假信息行动是通过改变不知情目标的想法甚至动员他们采取行动来制造混乱来实现的。无论起源如何,虚假信息运动如果能培养出自然追随者,就会成为社会的普遍现象,与真实的言论难以区分。它们可能会破坏
人工智能生成的虚假信息与传统的人类生成的虚假信息有何不同?在这里,我们重点介绍了四个潜在的差异因素:规模、速度、易用性和个性化。首先,人工智能使大规模生产虚假信息活动的内容变得更加容易,这些内容可以转化为更多的虚假故事、同一故事的多种变体、不同语言的呈现、自动对话等等。其次,与手动内容生成相比,人工智能技术可以在几秒钟内生成虚假信息。前两个因素——规模和速度——对事实核查人员来说是一个挑战,因为他们将被虚假信息淹没,但仍需要大量时间来揭穿真相。第三,随着人工智能工具更广泛地渗透到社会中,它们将降低开展影响力行动的门槛。人们可以使用人工智能工具创建逼真的假图像和视频,而无需专业知识或耗时的手动编辑。这可能会使网络喷子农场变得民主化。第四,人工智能技术使得针对特定受众(或个人)及其偏好或信仰发起个性化的虚假信息活动成为可能,而无需深入了解目标的语言或文化。例如,个性化的虚假信息可能针对不同年龄、政治意识形态、宗教信仰和性格类型(例如外向或内向)的人,这可能会增加虚假信息活动的说服力。那些已经被社会边缘化或媒体素养较低的人可能特别容易受到攻击。