详细内容或原文请订阅后点击阅览
糟糕的训练数据如何让人工智能聊天机器人变得有毒
为什么重要:糟糕的训练数据如何使人工智能聊天机器人变得有毒并损害信任,以及防止有偏见的有害机器人的步骤。
来源:人工智能+糟糕的训练数据如何让人工智能聊天机器人变得有毒
人工智能聊天机器人现在可以写电子邮件、回答支持问题,甚至提供医疗信息,但它们经常从包含仇恨言论、错误信息和偏见的混乱公共数据中学习。 2021 年,谷歌研究人员警告称,大型语言模型在接受来自互联网的未经过滤的文本训练时,可能会复制和放大有害的刻板印象,这呼应了学术界和监管机构对毒性和公平性的更广泛担忧。如果组织不控制模型中的内容,他们就会面临部署外观友好的聊天界面的风险,这些界面会悄悄地将在线文化中最糟糕的部分系统化。换句话说,风险不是科幻噩梦,而是一个非常实际的问题,即您的聊天机器人在与客户交谈之前悄悄地学习了什么。
