详细内容或原文请订阅后点击阅览
使用博弈论的思想来提高语言模型的可靠性
麻省理工学院计算机科学与人工智能实验室 (CSAIL) 的研究人员开发了一种新的“共识游戏”,提升了人工智能的文本理解和生成技能。
来源:MIT新闻 _机器人想象一下,你和朋友正在玩一个游戏,你的目标是只用神秘的句子来互相传达秘密信息。你朋友的任务是猜出你句子背后的秘密信息。有时,你会直接给出线索,有时,你的朋友必须通过对你给出的线索提出是非问题来猜测信息。挑战在于,你们俩都想确保彼此理解正确,并就秘密信息达成一致。
麻省理工学院计算机科学与人工智能实验室 (CSAIL) 的研究人员创建了一个类似的“游戏”,以帮助提高人工智能理解和生成文本的方式。它被称为“共识游戏”,它涉及人工智能系统的两个部分——一部分试图生成句子(如给出线索),另一部分试图理解和评估这些句子(如猜测秘密信息)。
研究人员发现,通过将这种互动视为一种游戏,让人工智能的两个部分在特定规则下共同努力,就正确的信息达成一致,他们可以显著提高人工智能对问题给出正确和连贯答案的能力。他们在各种任务上测试了这种新的类似游戏的方法,例如阅读理解、解决数学问题和进行对话,发现它有助于人工智能在各个方面表现得更好。
传统上,大型语言模型以两种方式之一回答:直接从模型生成答案(生成性查询)或使用模型对一组预定义的答案进行评分(判别性查询),这可能导致不同的、有时是不兼容的结果。使用生成性方法,“谁是美国总统?”可能会产生一个像“乔·拜登”这样的直截了当的答案。然而,在评估同一个答案时,一个判别性查询可能会错误地质疑这一事实,例如“巴拉克·奥巴马”。
游戏开始
游戏开始