抽象的政治虚假信息通常会在关键事件(例如选举)中加剧,而社交紧张局势加剧则强调了及时可靠的信息的需求。从历史上看,一种解决方案是通过删除内容,降低其可见性或向用户标记风险来更有效的内容审核。尽管在全球内容节制政策的透明度上有所提高,但这种情况的发生过程通常仍然被误解。此外,这种机制反过来又在社交媒体用户之间引起了有关社交媒体公司政策以及如何规避这些辩论的激烈辩论。至关重要的是,即使对内容/可见性审核的这种白话理解通常是基于毫无根据的谣言,这些信念仍然可能对社交媒体平台的公正性,尤其是在诸如选举之类的批判性事件中的公正性。借鉴了极端言语理论(Pohjonen and Udupa 2017),本文认为,这些用户的观点和信念对内容审核政策形成了一种新型的“算法民俗”,越来越多地告知政治信息的合法性和在社交媒体上共享的政治信息的合法性。通过肯尼亚,埃塞俄比亚和印度的例子,本文提出了三个初步的内容节制民间传说的元叙事,以帮助更好地理解AI造成的虚假信息在准备印度尼西亚欧洲的作用。关键字:虚假信息,内容审核,算法民俗,极端语音,比较研究算法的民间传说被广泛定义为“关于适度算法的信念和叙事,这些算法是非正式地传递的,并且可以与官方账户保持紧张状态(Savolainen 2022:1092)。”反过来,这些信念在关键事件中可能会发挥超大的作用,例如当选举中需要提高及时和公正信息的需求,也就是说,用户如何将社交媒体平台作为公正的政治信息中的作用显着影响如何更广泛地理解民主进程的合法性。