详细内容或原文请订阅后点击阅览
减少大型语言模型偏差以实现更好的 AI 的关键
根据英国的分析,一个利用人文和社会科学见解的新框架可以帮助防止人工智能 (AI) 工具传播错误信息和歧视性内容。为了解决大型语言模型 (LLM) 系统(如 ChatGPT)的缺点,研究人员瞄准了用于训练 AI 的数据库并整合了相关原则 […]
来源:宇宙杂志根据英国的分析,一个利用人文和社会科学见解的新框架可以帮助防止人工智能 (AI) 工具传播错误信息和歧视性内容。
为了解决大型语言模型 (LLM) 系统(如 ChatGPT)的缺点,研究人员针对人工智能训练的数据库,并整合了社会语言学(研究语言变化和变化)的原理。
大型语言模型 ChatGPT发表在《人工智能前沿》上的一项研究强调了表现语言产生的不同方言、语域和时期的重要性。
已发布 人工智能前沿“当被提示时,像 ChatGPT 这样的生成式人工智能可能更有可能对某些种族和性别产生负面描述,”英国伯明翰大学的主要作者 Jack Grieve 说,“但我们的研究为如何以更有原则的方式训练 LLM 以减轻社会偏见提供了解决方案。”
“这些类型的问题通常可以追溯到 LLM 接受训练的数据。如果训练包含相对频繁地表达对某些社会群体的有害或不准确的想法,LLM 将不可避免地重现这些偏见,从而导致潜在的种族主义或性别歧视内容。”
该团队建议,在包含语言多样性的数据集上对 LLM 进行微调可以增强 AI 系统的输出。
“我们认为,增加训练数据的社会语言多样性远比仅仅扩大其规模更为重要,”Grieve 补充道。“出于所有这些原因,我们认为在 LLM 设计和评估中,社会语言学洞察力的需求十分迫切。”