看看下面这篇题为“社交媒体的两极分化”的文章:平均每天有 14.9 亿人登录 Facebook;Twitter 上每秒钟大约有 6,000 条推文。我们成为数据和信息的创造者;我们在社交媒体上的体验由算法决定。社交媒体背离了它的承诺,即让我们接触到来自我们所在地数英里之外的不同观点和表达。相反,我们发现自己比以前更加僵化。1950 年,阿希从众实验发现,一个人愿意给出错误答案,只是为了顺从大多数人的观点。受访者给出错误答案要么是因为他们不想被嘲笑,要么是因为他们相信群体比他们更了解情况。这种情况甚至持续到今天,尤其是在网上假新闻的情况下,据说假新闻助长了社会的两极分化。在社交媒体上,人们只从他们信任的人那里获取信息,并寻找能证实他们世界观的新闻。这导致人们对过去可能更愿意讨论的问题形成了僵化的观点。社交媒体网站应该为鼓励这种行为负责。例如,Twitter 会定期提示您关注与您持有相似观点的人。这只会加强我们的偏见。今年一项关于社交媒体两极分化加剧的研究发现,算法过滤已经造成了这种循环
1 引自 ChatGPT,“像 ChatGPT 这样的 AI 作家是什么样的?” (2023 年 1 月 23 日)。 “GPT” 代表“生成式预训练变压器”; https://nl.wikipedia.org/wiki/ChatGPT。 2 Max Tegmark,生命3.0:人工智能时代的人类,纽约,2017年。 3 例如,“世界上第一个完全由人工智能创作的科幻杂志”《无限奥德赛》最近出版。 4 Stephen Marche,“大学论文已死”。没有人为人工智能将如何改变学术界做好准备”,《大西洋月刊》(2022 年 12 月 6 日)。 5 例如,请参阅 Patrick Goethals,“历史上最大的智力阻碍”,《标准报》(2023 年 1 月 24 日)。另一个问题是人工智能在制造虚假新闻中发挥的作用;例如请参阅https://www.vrt.be/vrtnws/nl/2023/01/17/check-ai- dnipro 。幸运的是,人工智能也可以用于识别假新闻; Piotr Przybyla,“捕捉假新闻风格”,AAAI 人工智能会议论文集 34,第 1 期 (2020):DOI:https://doi.org/10.1609/aaai.v34i01.5386。 6 人文学者可能在可解释人工智能(XAI)的进一步发展中发挥重要作用。这是一个旨在使传统的人工智能黑匣子变得透明的科学领域。 David Gunning、Mark Stefik、Jaesik Choi、Timothy Miller、Simone Stumpf 和 Guan-Zhong Yang,“XAI——可解释的人工智能”,Science Robotics 4,第 37 期 (2019):DOI:10.1126/scirobotics.aay7120 7 Charlie Warzel,“本世纪最重要的工作技能”,The Atlantic(2023 年 2 月 8 日)。
Sherbrooke大学是一家讲法语的机构,以其人类维度,创新的操作风格和与专业人士的合作而闻名。Sherbrooke大学欢迎来自全球102个国家和地区的31,700多名学生。该系由24位积极参与以下研究领域的教授组成:人工智能,生物信息学,健康信息学,人类计算机互动,成像和数字媒体科学等。NLP实验室专注于理解和生成与社会问题有关的各种学科中的文本。其工作包括对可恶内容的识别和缓解,对假新闻的检测,对社交网络表达的立场的分析以及基于神经体系结构的NLP模型中的偏见的解释性和降低。
h e是一个非常关注的根源,并且已经付出了巨大的努力来减少它。除此之外,分享假新闻和其他错误信息会使问题恶化。当前方法的主要方法是特定于内容的,例如标记内容的算法降级。尽管发现这些特定内容的方法是有效的(Martel&Rand,2023),但它们不足以与社交媒体上发布的大量内容保持同步。例如,在2022年,每分钟在Meta/Facebook上发布了约170万件内容(Domo,2023)。在这个规模上,至少可以说,事实检查变得高度挑战!
假新闻、虚假宣传、上传过滤器甚至选举推荐应用程序并不是什么新鲜事。然而,人工智能系统的使用提高了它们的效率和重要性。此外,人工智能(AI)的使用往往不符合民主公众的透明度要求,机器行为越来越多地取代人类行为。因此,关于人工智能的讨论非常激烈,有时带有“炒作性质”,在两个极端之间摇摆不定:一方面是对更好系统的深远希望,另一方面是失去控制、监视、依赖和歧视等各种担忧。辩论的“炒作性质”可以从民主与人工智能的关系中观察到——尤其是在选举背景下的个人意见形成方面。
动作。» 1 在本研究中,乌尔里希·贝克 (Ullrich Beck) 的话值得我们充分关注。如今,新风险本质上是信息性风险或认知性风险,通过对公司声誉的损害而显现出来。对公司社会责任及其媒体报道的质疑似乎揭示了通过拦截信息或虚假信息进行的信息攻击。经济领域通信技术的普及有利于有意传播信息,无论是真、假还是错误。这种知识传播的目的是故意损害公司的声誉,以质疑其在客户或合作伙伴中的可信度。这可以来自公司的客户、商业中介、竞争对手或游说团体。假新闻,这个近年兴起的概念,就是通过内容进行攻击的完美诠释。
了解人类如何评估信誉是假新闻时代的一个重要科学问题。消息信誉是信誉评估的关键方面之一。理解消息可信度的最直接方法之一是使用进行信誉评估的人的大脑活动的测量。尽管如此,以前从未使用过这种方法对消息信誉进行调查。本文报告了一个实验的结果,在此期间,我们使用脑电图在消息信誉评估过程中测量了大脑活动。实验允许识别参与者进行正面或负面消息可信度评估时活跃的大脑区域。基于实验数据,我们使用EEG脑活动测量值对人类消息可信度评估进行了建模和预测,而F1得分超过0.7。
Hristova博士在视觉研究中拥有博士学位,重点是加利福尼亚大学尔湾分校的批判理论。她的研究分析了数字和算法的视觉文化。hristova的作品已发表在诸如跨国主题,视觉人类学,激进历史评论,Triplec,监视和安全,媒体与通讯等期刊上。她是2019年“数字时代的物质地图”研讨会的NEH夏季学者。hristova是密歇根人文学科的PI授予的“不良信息:假新闻,操纵照片和社会影响者”(2021-2)。She is the lead editor for Algorithmic Culture: How Big Data and Artificial Intelligence are Transforming Everyday Life, Lexington Books, 2021 and the author of Proto-Algorithmic War: How the Iraq War became a laboratory for algorithmic logics, Palgrave 2022.