过去几年,人工智能 (AI) 和机器学习的能力呈指数级增长,同时人们使用日益复杂的信息操作来操纵公共领域。武器化和性别化的虚假信息、影响力运动和网络骚扰加剧了现有的新闻自由和人权挑战,同时也带来了新的挑战。国家支持的虚假宣传运动在各种类型的政治体系中越来越普遍。这些运动利用社交媒体平台的设计及其背后的人工智能系统,通过协调一致的努力来压制批评者并操纵舆论,从而实施破坏、淹没和非法化真实新闻的策略。它们通常包括针对那些报道信息行动或从事事实核查当权者的网络骚扰。从松散协调到严密编排的活动,信息行动利用国家和/或政党的资源,通过利用管理平台介导的公共领域和/或推动骚扰活动的人工智能系统来操纵舆论。本文分析了国家支持的虚假信息活动的动态以及人工智能在此背景下所扮演的角色。它特别研究了针对记者和媒体机构部署的协调活动、其性别维度,以及它们如何利用和操纵人工智能系统来扭曲公共领域。信息行动已成为世界各国国内政治和地缘政治的核心要素。这一趋势在与国家一致的信息行动是指通过操纵人工智能系统和心理来影响公众舆论、态度和行动,以支持国家领导人的政治目标或影响选举的协同努力。虚假信息是指以恶意 1 传播的虚假、捏造、误导或操纵的信息,以影响或欺骗。2 这与虚假信息不同,虚假信息缺乏欺骗或恶意的意图。3 在独立媒体经济稳定性下降的同时,国家、政府和政党对信息行动的预算、人员和关注度呈指数级增长。
在获得牛顿县项目合同的大约一个月前,该修复公司还获得了位于密苏里州奥罗诺戈的 EPA 合同,以完成一个类似但规模更大的土壤修复项目。两份合同的获得出乎意料,这导致 Eich 要求对牛顿县项目的质量保证、质量控制 (QAQC) 经理进行人事变动,以完成两份合同。Eich 向工程兵团表示,QAQC 经理的继任者与原始申请中列出的人员具有同等经验,并且继任者有资格履行牛顿县项目 QAQC 经理的职责。事实上,继任的 QAQC 经理不具备资格,几乎没有或根本没有测试土壤中有害物质的经验。
越来越多的精神病学研究采用了机器学习和自然语言处理方法,但研究成果尚未转化为实际的临床决策支持系统。这些研究中的许多都是基于同质人群中相对较小的数据集,这会导致模型在实际临床实践中无法充分处理新数据。严重精神疾病的本质是难以定义、难以捕捉,并且需要频繁监测,这会导致数据不完善,其中属性和类噪声很常见。为了实现有效的人工智能介导的临床决策支持系统,必须在所使用的模型上设置计算保护措施,以避免出现虚假预测,从而允许人类在模型不稳定或无法推广的环境中审查数据。本文介绍了两种实施安全措施的方法:(1)通过基于属性和类别的异常值检测确定模型不稳定的情况;(2)找出模型表现出归纳偏差的程度。这些安全措施在通过自然语言处理方法对故事回忆任务进行自动评分时得到了说明。随着人机交互机器学习融入临床实施过程,将这些安全措施纳入模型将为患者提供更多保护,防止其受到虚假预测的影响。
在 Microsoft,我们致力于在我们的产品和服务以及整个网络上建立信任和安全。我们还认识到,打击虚假信息是创建值得信赖和安全的在线环境的关键要素。Microsoft 长期以来一直与政府、行业、民间社会组织、学术界和其他利益相关者密切合作,以确保我们的服务和整个在线空间的完整性和安全性。然而,我们的努力并不局限于虚假信息;相反,它们扩展到许多其他相关领域,旨在促进我们在线服务的完整性、信任、安全性和安全性。正如《准则》所述,“……本准则试图解决的用户行为、内容和危害类型在不同数字平台提供的各种服务和产品中的发生率和影响将有很大差异。” 1 就 Microsoft 而言,我们的大多数服务都是由企业客户或以专业身份行事的个人使用的。虚假信息通常不会通过企业对企业的互动或在专业环境中互动的个人之间传播。此外,由于不法分子通常使用针对消费者的在线服务来传播虚假信息,因此面向企业的在线服务不太可能在其服务上遇到虚假信息。考虑到这些因素,本报告的其余部分将重点介绍 Microsoft 如何开展
在冲突的第一个月,警方最深入地处理了乌克兰战争这个话题,向公众通报了斯洛伐克-乌克兰边境的当前事件、直接部署在乌克兰领土上的警方专家的活动,以及慢慢出现的虚假信息叙述和亲克里姆林宫的宣传的增加。仅就军事冲突这一主题,警方每天就发布 5 到 10 条动态。为了提供尽可能透明的报道,警方用乌克兰语为公民和难民提供了大量有用的建议。其中包括特定难民的命运,旨在让他们更接近斯洛伐克公众,他们是因战争而失去一切的真实的人。其中一个故事是关于一个 10 岁的男孩哈桑,他独自步行约 1,000 公里到达斯洛伐克。他的命运被因他而来到斯洛伐克的最大的外国媒体报道。
响应基于身份的虚假信息将需要一个可以适应不同文化背景以及平台和媒体环境的一致策略。除了从缅甸学到的教训外,组织还利用数据驱动的技术来识别和分析其他国家 /地区的基于身份的虚假信息,并提出了有希望的新政策和编程建议。44个学者和政治制造商强调并尝试了各种方法来解决在线造成基于身份危害的技术和社会动态。在其中一些建议的核心是社交媒体公司更好的内容调整能力和政策侵犯执行,并注意到将内容审核外包给vul-
1 https://orcid.org/0009-0002-1994-5525 2 https://orcid.org/0009-0009-6307-7970 3 https:///orcid.org/0009-9-0009-0003-6682-4280 *多年来,虚假信息和虚假叙事在社交媒体上的普遍传播已成为一个重大的社会挑战。虚假宣传运动越来越扭曲公众的看法,塑造政治隶属关系以及对关键社会问题的促进分歧。这种现象可能会侵蚀社会信任,损害民主价值观并破坏公众的凝聚力。目的:本研究旨在研究社交媒体虚假信息对公众舆论的影响,重点是虚假叙事如何影响社会观念,政治一致性和集体行动。方法:本文采用了定性研究方法,研究了各种经验研究和二级数据源。同行评审的期刊文章,可靠的在线出版物和理论来源来提供相关的见解结果:调查结果表明,社交媒体的虚假信息通过扩大认知偏见,促进Echo Chambers和扭曲的公共观点,对社会凝聚力构成了重大威胁。社交媒体算法被确定为轰动性和虚假内容的迅速传播和持久性的关键推动者,通常会破坏民主进程。结论:研究得出的结论是,社交媒体虚假信息的广泛存在给公共信任和社会稳定带来了深远的挑战。剩下的问题可能会进一步削弱民主治理和公民社会的基础。独特的贡献:本研究提供了对数字虚假信息如何与认知和技术因素相互作用以影响公众舆论的全面理解,从而为减轻其影响提供了可行的见解。关键建议:需要更广泛的数字和媒体素养计划来促进批判性思维并促进来源验证,尤其是在脆弱的人口统计中。也很重要的是,鼓励社交媒体平台披露算法操作,降低轰动性内容的可见性,并优先与独立事实检查员合作以识别和标记错误的信息。再次,希望引入平台功能,旨在使用户了解各种观点,从而降低回声室效果。最后,在进一步的研究中有必要开发和测试有效的事实检查和干预策略,从而实现了基于证据的方法来反对虚假信息。