人工智能中的推理和可靠性

在 MIT-IBM Watson AI 实验室实习的博士生希望提高自然语言的使用率。

来源:MIT新闻 _机器人

为了使自然语言成为一种有效的交流形式,参与的各方需要能够理解单词及其上下文,假设内容主要是善意分享的并且值得信赖,推理所分享的信息,然后将其应用于现实世界的场景。在 MIT-IBM Watson AI 实验室实习的麻省理工学院博士生——Athul Paul Jacob SM '22、Maohao Shen SM '23、Victor Butoi 和 Andi Peng SM '23——正在努力攻克这个过程的每个步骤,这些步骤都融入了自然语言模型中,以便人工智能系统对用户来说更加可靠和准确。

为了实现这一目标,Jacob 的研究利用博弈论,从现有自然语言模型的核心入手,改进输出。他说,他的兴趣有两个方面:“一是利用多智能体系统和语言理解的视角来理解人类的行为方式,二是‘如何利用这种洞察力来构建更好的人工智能系统?’”他的工作源于棋盘游戏“外交”,他的研究团队开发了一个系统,可以学习和预测人类行为,并进行战略谈判,以实现理想的最佳结果。

“这是一个需要建立信任的游戏;你需要用语言交流。你还需要同时与其他六名玩家对战,这与人们过去处理的各种任务领域截然不同,”雅各布在谈到研究人员用神经网络处理的其他游戏,如扑克和围棋时说道。“在这样做的过程中,有很多研究挑战。其中一个是‘如何模拟人类? “你怎么知道人类何时会倾向于不理性地行事?’”Jacob 和他的研究导师(包括麻省理工学院电气工程与计算机科学系 (EECS) 副教授 Jacob Andreas 和助理教授 Gabriele Farina,以及麻省理工学院-IBM Watson AI 实验室的 Yikang Shen)将语言生成问题重新定义为双人游戏。