详细内容或原文请订阅后点击阅览
AI Mederation是有用的工具还是其他失败的社交媒体修复?
我们一直在算上世界人口的方式一直存在吗?
来源:ZME科学社交媒体答应比以往任何时候都更加联系世界。但是与此同时,它变成了一把巨大的双边剑。当然,一方面,它使我们能够比以往任何时候都更加了解朋友和兴趣。但这也很快成为虚假信息和心理健康问题的巨大根源。
虚假信息来源 心理健康问题从仇恨言论到网络欺凌,有害的在线话语正在上升。停止也非常困难。由于内容的庞大,遏制此问题的任何努力都将变成一款whack-a摩尔游戏。当您停止一个有毒的轮廓时,又有三个弹出。然后,还有AI。
有害在线话语AI进入社交媒体
AI使创建内容比以往任何时候都更容易,无论是有用的还是有毒的内容。但是,在一项新研究中,研究人员表明,AI也可以帮助解决这个问题。新算法在不依赖手动识别的情况下对有毒和无毒的文本进行分类为87%。
有用或有毒内容来自孟加拉国东部大学和南澳大利亚大学的研究人员开发了一种优化的支持向量机(SVM)模型,以检测Bangla(超过2.5亿人使用的语言)和英语的有毒评论。每个模型均使用从Facebook,YouTube,WhatsApp和Instagram收集的9,061条评论培训。该数据集在孟加拉国中包含4,538条评论,其余的英文评论。 SVM已被用于对社交媒体内容进行分类。尽管该过程通常是快速且相对简单的,但还不够准确。但是,在这种情况下,SVM在对评论进行分类几乎准确。然后,研究人员开发了另一种类型的分类器,称为随机梯度下降(SGD)。这更准确,精度达到了80%左右,但它也将无害的评论标记为有毒。它也比SVM慢得多。 这很有用,但不完美
来自孟加拉国东部大学和南澳大利亚大学的研究人员开发了一种优化的支持向量机(SVM)模型,以检测Bangla(超过2.5亿人使用的语言)和英语的有毒评论。每个模型均使用从Facebook,YouTube,WhatsApp和Instagram收集的9,061条评论培训。该数据集在孟加拉国中包含4,538条评论,其余的英文评论。