随着社交媒体平台的迅速崛起,社区能够更方便地与世界分享其兴趣和利益。这又导致了个人能够通过使用模因传播可恨的信息。此类材料的分类不仅需要查看单个图像,还需要考虑串联中的提交文本。观察图像或文本分别提供完整的文本。在本文中,我们描述了我们对案例2024年多模式仇恨言论共享任务的仇恨模因分类的方法。我们在两个子任务中使用了相同的方法,该方法涉及基于使用基于BERT的模型的文本和图像特征的分类模型(剪辑)。然后,我们利用由两个模型在整体方法中创建的预测。这种方法分别在两个子任务中排名第二。
━━━━━━ * 有关各个司法管辖区的详细信息由各国反歧视领域的专家提供,作者对他们的工作、见解和想法表示感谢。专家根据标准化问卷提供的信息将在本报告中称为“国家简报”。简报的截止日期为 2024 年 4 月 8 日。在打击反穆斯林偏见方面出现的问题通常与反犹太主义领域中可确定为有问题或值得注意的问题相同或至少非常相似。本报告的作者在他之前的研究《欧盟打击反犹太主义的法律框架》(由欧洲性别平等和非歧视法律专家网络于 2024 年发布)中描述了其中的几个。因此,为了便于阅读,该出版物的某些部分在本报告中未加引号。
摘要:在本文中,我们讨论了使用人工智能进行在线内容审核的一些道德和技术挑战。作为一个案例研究,我们使用了一个为检测社交网络上的仇恨言论而开发的人工智能模型,这一概念在科学文献中给出了不同的定义,并且缺乏共识。我们认为,虽然人工智能可以在处理社交媒体上的信息过载方面发挥核心作用,但它可能会导致侵犯言论自由的风险(如果项目执行不当)。我们介绍了人工智能项目整个流程中涉及的一些道德和技术挑战——从数据收集到模型评估——这些挑战阻碍了仇恨言论检测算法的大规模使用。最后,我们认为人工智能可以帮助检测社交媒体中的仇恨言论,前提是必须通过有人参与的过程对内容进行最终判断。关键词:人工智能、道德、网络危害、仇恨言论、偏见大纲:1.2
摘要 到目前为止,仇恨言论的检测仍然主要由人类进行,但将人类专业知识与自动化方法相结合具有巨大的潜力。然而,由于算法缺乏文化和社会结构等方面的专业知识,已发现的挑战包括人与机器之间的一致性较低。在这项工作中,设计科学方法用于获取设计知识并开发工件,通过该工件将人类融入检测和评估仇恨言论的过程。为此,利用了可解释的人工智能 (XAI):该工件将提供解释性信息,说明为什么深度学习模型可以预测文本是否包含仇恨。结果表明,以仪表板形式实例化的设计知识被认为是有价值的,并且 XAI 功能增加了对工件有用性、易用性、可信度以及使用意图的感知。
来自德国国家图书馆的书目信息德国国家图书馆将此出版物列入德国国家书目;详细的书目数据可在互联网上查阅,网址为:http://dnb.d-nb.de。版权所有 © 奥地利计算机协会 www.ocg.at 出版商:Facultas Verlags- und Buchhandels AG,1050 Vienna,奥地利 保留所有权利,特别是复制、分发和翻译的权利。 © 奥地利计算机协会 www.ocg.at 排版:奥地利计算机协会 印刷:Facultas Verlags- und Buchhandels AG 1050 Vienna, Stolberggasse 26 ISBN(facultas Verlag)978-3-7089-2274-4 ISBN(奥地利计算机协会)978-3 -903035-31-7
,但发现了其他拼写中的其他术语。例如,在搜索德国性别性别的反黑色Slur“ n*gerin”时,在视频中发现了“尼日利亚”一词。尽管两个关键字在拼写上相似,但含义上有很大差异。大概,Tiktok的搜索算法处理了原始的提示和“自动校正”搜索,这导致反黑泥浆与与尼日利亚有关的内容有害的关联,包括对原始可恶提示受害的黑人人的刻画。虽然拼写校正是搜索引擎中的常见实践,但通常通过通知用户使用标签,例如“显示结果”或“您是指搜索:”)来维护透明度。在此处检查的情况下,没有显示此类标签。
摘要:社交媒体平台已经超过了文化和语言界限,因此在全球范围内实现了1个在线通信。但是,各种语言的扩展使用加剧了2在线检测仇恨言论内容的挑战。尽管发布了多种天然3语言处理(NLP)解决方案,该解决方案实施了尖端的机器学习技术,但数据的4个稀缺性,尤其是标记的数据,仍然是一个相当大的障碍,这进一步需要5使用半佩顿的方法以及生成的人工智能(Generative AI)6技术。本文介绍了一种创新的方法,这是一种多语种半佩斯特的模型7,将生成对抗网络(GAN)和审计的语言模型(PLMS)组合在一起,更多8个精确的Mbert和XLM-Roberta。我们的方法证明了它在仇恨9语言和以印度语言(用英语,德语和印度语中)的仇恨检测中的有效性,当时只有10个仅采用20%的Hesoc2019数据集中的20%注释数据,从而在每种多种语言,零刺激的杂种式跨语言和单声道培训场景中都表现出11个高表现。12我们的研究提供了一个强大的基于MBERT的半纯GAN模型(SS-GAN-MBERT),该模型的表现优于基于XLM-ROBERTA的模型(SS-GAN-XLM),并达到平均F1得分14增长9.23%,准确率提高了9.23%,而准确性增加了5.75%的SemiSuline SemiSupersupervers Mbert模型。15
摘要:可解释人工智能 (XAI) 特性在深度学习模型的仇恨言论检测中具有灵活和多方面的潜力。本研究的目的是解释和说明复杂人工智能 (AI) 模型做出的决策,以了解这些模型的决策过程。作为本研究的一部分,我们采用了两个数据集来演示使用 XAI 进行仇恨言论检测。我们进行了数据预处理,以清除数据中的任何不一致之处、清理推文文本、对文本进行标记和词形还原等。我们还简化了分类变量,以便生成干净的数据集用于训练目的。我们对数据集进行了探索性数据分析,以发现各种模式和见解。我们将各种预先存在的模型应用于 Google Jigsaw 数据集,例如决策树、k-最近邻、多项朴素贝叶斯、随机森林、逻辑回归和长短期记忆 (LSTM),其中 LSTM 的准确率达到 97.6%。将 LIME(局部可解释模型 - 不可知解释)等可解释方法应用于 HateXplain 数据集。创建了 BERT(来自 Transformer 的双向编码器表示)模型的变体,例如准确率为 93.55% 的 BERT + ANN(人工神经网络)和准确率为 93.67% 的 BERT + MLP(多层感知器),以在使用 ERASER(评估基本原理和简单英语推理)基准的可解释性方面取得良好的表现。
城市原住民教育中心 (UIEC) 的工作人员继续参与打击仇恨和反种族主义战略的各个组成部分。UIEC 促进多个系统专业学习系列和项目,重点关注《联合国原住民权利宣言》并解决《加拿大真相与和解委员会:行动呼吁》中确定的真相。UIEC 通过学生分享圈、多伦多原住民青年委员会和原住民毕业教练支持的原住民学生团体,创造了肯定学生声音和领导力的机会。UIEC 还继续增加以原住民知识、观点和文化为中心的教育合作伙伴的数量,并支持整个系统原住民教育中学生、工作人员和照顾者的学习。此外,UIEC 通过在拥有最多原住民、梅蒂人和因纽特人学生和家庭的学校中的照顾者圈子以及 Powwows 和 Drum Socials 等社区社交活动,为照顾者参与创造了多种机会。
TDSB致力于制定和实施一项独特的计划,以解决歧视,仇恨和种族主义事件,这些事件继续发生在该地区内部,这是通过种族主义,偏见和仇恨门户所获得的数据所证明的。在员工支持的情况下,该战略旨在通过根据上述支柱制定量身定制的行动计划来对社区的声音做出反应。该计划将使社区能够在行动中看到自己,并需要家庭,社区,合作伙伴组织和员工的持续合作和支持。TDSB设定了一个分阶段的方法来制定反仇恨和反种族主义战略(2023)和战斗仇恨和种族主义:学生学习策略更新(2024)中确定的不同的为期两年的工作计划(2024年)。下表表示TDSB采取的分阶段方法: