详细内容或原文请订阅后点击阅览
研究发现,社交媒体平台在阻止有害人工智能机器人方面做得还不够
圣母大学的新研究分析了八个社交媒体平台的人工智能机器人政策和机制:LinkedIn、Mastodon、Reddit、TikTok、X(以前称为 Twitter)和元平台 Facebook、Instagram 和 Threads。然后,研究人员尝试启动机器人来测试机器人政策执行流程。
来源:圣母大学尽管人工智能(AI)机器人可以在社交媒体(例如营销或客户服务)上实现合法目的,但有些人旨在操纵公众讨论,煽动仇恨言论,传播错误信息或制定欺诈和骗局。为了打击潜在的有害机器人活动,一些平台已经发布了有关使用机器人并创建技术机制来执行这些政策的政策。
但是,这些政策和机制是否足以确保社交媒体用户的安全?
Notre Dame大学的新研究分析了八个社交媒体平台的AI机器人政策和机制:LinkedIn,Mastodon,Reddit,Tiktok,Tiktok,X(以前称为Twitter)和Meta Platforms和Facebook,Instagram和线程。然后,研究人员试图启动机器人来测试机器人政策执法流程。
研究人员成功地从每个平台上的机器人发表了一个良性的“测试”帖子。
“作为计算机科学家,我们知道如何创建这些机器人,如何插入这些机器人以及可能是恶意的,但是我们希望社交媒体平台能够阻止或关闭机器人,这并不是一个问题,” Notre Dame和研究中心的研究计算中心的教职员工和导演保罗·布伦纳(Paul Brenner)说。 “因此,我们看一下平台通常模糊地说明了它们的工作,然后进行了测试,以查看他们是否真的执行了政策。”
Paul Brenner 研究计算中心 研究人员发现,元平台是最难启动机器人的一个 - 绕过其政策执法机制进行了多次尝试。尽管研究人员在此过程中施加了三个停赛,但他们成功地启动了一个机器人,并在第四次尝试中发布了“测试”帖子。 由于平台频繁使用验证码,唯一提出适度挑战的平台是Tiktok。但是三个平台根本没有挑战。 研究中使用的社交媒体机器人政策执法测试框架。 联系人 Paul Brenner研究计算中心
研究人员发现,元平台是最难启动机器人的一个 - 绕过其政策执法机制进行了多次尝试。尽管研究人员在此过程中施加了三个停赛,但他们成功地启动了一个机器人,并在第四次尝试中发布了“测试”帖子。