Chase India 成立于 2011 年,是一家领先的公共政策研究和咨询公司,在技术与金融科技、交通与基础设施、医疗保健与生命科学、发展与可持续性等领域的业务不断发展。我们通过基于洞察力的政策倡导为组织提供咨询服务,以减轻业务风险。多年来,Chase India 与政府、议员、民间社会组织、学术界和企业等多个利益相关者就多项至关重要的政策问题展开了合作。Chase India 致力于利用其知识、高道德标准和以结果为导向的方法为我们的合作伙伴推动积极行动。Chase India 在印度各地设有办事处,在新德里、孟买、浦那、海得拉巴、金奈和班加罗尔设有办事处,是全球 WE Communications Group 的一部分。欲了解更多信息,请访问 www.chase-india.com。
智能手机等手持设备的出现改变了我们连接、导航和娱乐的方式,被认为是信息和通信技术 (ICT) 的一场革命。智能手机是移动电话的高级版本,可以访问互联网以发送消息、使用社交媒体、观看视频和玩游戏。如今,智能手机在日常生活中无处不在,全球用户超过 25 亿 [1]。这个口袋大小的信息库有诸多有益用途,包括提高工作效率(例如电子邮件、消息和日历)[2]、社会支持和社交互动(例如社交媒体)、信息搜索(例如网页浏览功能)、促进健康(例如体育锻炼)[3]、体重控制 [4, 5]、肥胖治疗 [6] 和通信,以及 GPS 导航和娱乐,但人们开始担心上瘾使用会产生意想不到的后果,影响生活质量和幸福感。
机器学习(ML)被广泛用于适度在线内容。尽管具有相对于人类适度的可伸缩性,但ML的使用还是针对内容中的适度带来了独特的挑战。这样的挑战是预测性多样性:内容分类的多个竞争模型可能平均表现良好,但要为同一内容分配矛盾的预测。这种多功能性可能是由于在训练过程中做出的看似无害的选择而产生的,这不会有意义地改变ML模型的准确性,但仍可以改变模型出错的问题。我们在实验上证明了内容节制工具如何将样本分类为“有毒”,从而导致对语音的任意限制。我们使用国际公民和政治权利(ICCPR)制定的原则,即表达自由,非歧视和程序正义来解释这些发现在人权方面的影响。我们分析了(i)用于检测“有毒”含量的流行最先进的LLM中的预测性多样性; (ii)这种任意性在社会群体之间的不同影响; (iii)模型多样性在含量上被人类注释者一致认为是有毒的内容的大小。我们的发现表明,上规模的算法适度有可能使“算法Leviathan”合法化,其中算法不成比例地管理人权。为了减轻这种风险,我们的研究强调了识别和提高内容适度应用程序任意性的透明度的需求。我们的发现对内容有影响
“为什么是人工智能”这个问题的简短答案是规模——在线言论的无穷无尽。规模是在线平台的主要推动力,至少在目前主要基于广告的形式中是如此,也许在所有形式中都是如此。如果不先花一些时间坐下来思考我们正在谈论的令人眼花缭乱、崇高的言论数量,就不可能内化运行数字平台的动态:每天 5 亿条推文相当于每年 2000 亿条推文。2 超过 500 亿张照片已上传到 Instagram。3 每天有超过 700,000 小时的视频上传到 YouTube。4 我还可以继续。在现有的自然法则和前数字出版经济下,以前转瞬即逝或难以触及的表达方式现在可以在世界各地传播。事实证明,如果有机会,我们真的很喜欢听自己说话。
美国科学与技术信息办公室盒子62橡树岭,TN 37831-0062 www.osti.gov电话:(865)576-8401传真:(865)576-5728免责声明此报告是由美国政府机构赞助的工作帐户准备的。均未对任何信息,明示或暗示的任何雇员或官员,也没有任何雇员或官员,也不是任何雇员或官员,也不承担任何法律责任或责任,对任何信息的准确性,完整性或有效性,包括任何信息,设备,产品或过程所披露或代表其使用不属于私有权利。 以此处参考任何特定的商业产品,流程或服务,商标,制造商或其他方式不一定构成或暗示其认可,建议或对其任何代理机构的认可,建议或偏爱。 本文所表达的文件作者的观点和观点不一定陈述或反映美国政府或其任何代理机构,Argonne National Laboratory或Uchicago Argonne,LLC。均未对任何信息,明示或暗示的任何雇员或官员,也没有任何雇员或官员,也不是任何雇员或官员,也不承担任何法律责任或责任,对任何信息的准确性,完整性或有效性,包括任何信息,设备,产品或过程所披露或代表其使用不属于私有权利。以此处参考任何特定的商业产品,流程或服务,商标,制造商或其他方式不一定构成或暗示其认可,建议或对其任何代理机构的认可,建议或偏爱。本文所表达的文件作者的观点和观点不一定陈述或反映美国政府或其任何代理机构,Argonne National Laboratory或Uchicago Argonne,LLC。
抽象的政治虚假信息通常会在关键事件(例如选举)中加剧,而社交紧张局势加剧则强调了及时可靠的信息的需求。从历史上看,一种解决方案是通过删除内容,降低其可见性或向用户标记风险来更有效的内容审核。尽管在全球内容节制政策的透明度上有所提高,但这种情况的发生过程通常仍然被误解。此外,这种机制反过来又在社交媒体用户之间引起了有关社交媒体公司政策以及如何规避这些辩论的激烈辩论。至关重要的是,即使对内容/可见性审核的这种白话理解通常是基于毫无根据的谣言,这些信念仍然可能对社交媒体平台的公正性,尤其是在诸如选举之类的批判性事件中的公正性。借鉴了极端言语理论(Pohjonen and Udupa 2017),本文认为,这些用户的观点和信念对内容审核政策形成了一种新型的“算法民俗”,越来越多地告知政治信息的合法性和在社交媒体上共享的政治信息的合法性。通过肯尼亚,埃塞俄比亚和印度的例子,本文提出了三个初步的内容节制民间传说的元叙事,以帮助更好地理解AI造成的虚假信息在准备印度尼西亚欧洲的作用。关键字:虚假信息,内容审核,算法民俗,极端语音,比较研究算法的民间传说被广泛定义为“关于适度算法的信念和叙事,这些算法是非正式地传递的,并且可以与官方账户保持紧张状态(Savolainen 2022:1092)。”反过来,这些信念在关键事件中可能会发挥超大的作用,例如当选举中需要提高及时和公正信息的需求,也就是说,用户如何将社交媒体平台作为公正的政治信息中的作用显着影响如何更广泛地理解民主进程的合法性。
当世界各国政府、企业和人民努力应对仇恨言论、恐怖主义宣传和网络造假的挑战时,“人工智能” (AI) 常常被提议作为识别和过滤问题内容的重要工具。然而,“人工智能”并不是一个简单的解决方案或单一类型的技术;在政策讨论中,它已成为不断变化的自动检测和分析内容技术的简称。各种形式的人工智能和自动化被用于排名和推荐系统,以管理大量在线内容。这些技术的使用引发了关于人工智能对我们的信息环境以及最终对我们的言论自由和信息获取权的影响的重要问题。
摘要 社交媒体平台已成为我们日常生活中与他人交流、分享信息、想法和表达方式的一部分。在社交媒体平台上聊天时,无法保证发布的信息是安全的,用户每天都在增加,由于用户的增加,发布内容的质量也各不相同,因为不同的人有不同的心态,这导致发布不适当的内容,使用户感到不安全或有害。因此,该项目旨在通过开发先进的算法来检测此类不当内容并防止不适当信息的传播,但是在这里我们开发了机器学习模型来识别不适当的内容,最初我们使用文本作为模型的输入。对文本进行处理以检测不适当的信息,如果发现不适当的信息,则停止发布并警告发件人对错误信息负责。 关键词 : 不当信息、粗俗词语、机器学习、文本分析、词语扩展、用户反馈
随着社交媒体平台部署新一代人工智能,公司必须确保这项技术能够公平地为人们服务。我们的调查发现,内容审核资源并不总是公平分配的。例如,在董事会关于 COVID-19 错误信息的政策咨询意见中,利益相关者强调,除英语外,大多数语言的事实核查覆盖率明显较低。同样,在另一起有关塔利班新闻报道的案件中,布伦南司法中心在以下公开评论中表达了担忧:“Meta 的自动化工具一次又一次地无法考虑上下文,尤其是在英语以外的语言中。”
社交媒体平台 (SMP) 是交流和信息的主要载体。它们促进无边界交流,允许政治、意识形态、文化和艺术表达,让传统上被压制的群体发出声音,提供主流媒体的替代品(可能受到国家审查),允许传播日常新闻并提高对侵犯人权的认识。然而,正如 Mchangama 等人 1 所指出的,社交媒体平台的大量使用使仇恨和虐待等现象有了新的可见性。社交媒体平台的使用也与缅甸种族灭绝等可怕事件直接相关。作者认识到暴力言论的危险性和迫在眉睫的暴力风险,他认为,在接受仇恨言论在社交媒体上盛行的普遍言论时必须小心,因为实证研究证明了事实恰恰相反。例如,Siegel 等人 1 指出,社交媒体平台的大量使用使仇恨言论在社交媒体上盛行进行了一项研究,以评估特朗普 2016 年的竞选活动(以及随后的六个月)是否导致推特上仇恨言论的增加。2 根据对 12 亿条推文样本的分析,他们发现每天有 0.001% 到 0.003% 的推文包含仇恨言论——“这只占美国推特用户发表的政治语言和一般内容的一小部分”。