摘要 社交媒体平台已成为我们日常生活中与他人交流、分享信息、想法和表达方式的一部分。在社交媒体平台上聊天时,无法保证发布的信息是安全的,用户每天都在增加,由于用户的增加,发布内容的质量也各不相同,因为不同的人有不同的心态,这导致发布不适当的内容,使用户感到不安全或有害。因此,该项目旨在通过开发先进的算法来检测此类不当内容并防止不适当信息的传播,但是在这里我们开发了机器学习模型来识别不适当的内容,最初我们使用文本作为模型的输入。对文本进行处理以检测不适当的信息,如果发现不适当的信息,则停止发布并警告发件人对错误信息负责。 关键词 : 不当信息、粗俗词语、机器学习、文本分析、词语扩展、用户反馈