详细内容或原文请订阅后点击阅览
人工智能正在变得自私吗?
卡内基梅隆大学的研究表明,更智能的人工智能系统会表现出自私行为,从而减少合作。由于人工智能影响社会决策,培养社交智能对于人类与人工智能的积极互动至关重要。帖子人工智能正在变得自私吗?首次出现在《科学询问报》上。
来源:Scientific Inquirer卡内基梅隆大学计算机科学学院的最新研究表明,人工智能系统越聪明,其行为就越自私。
人机交互研究所 (HCII) 的研究人员发现,具有推理能力的大型语言模型 (LLM) 具有自私倾向,不能很好地与他人合作,并且可能对群体产生负面影响。换句话说,LLM的推理能力越强,合作就越少。
人机交互研究所当人类使用人工智能来解决朋友之间的纠纷、提供婚姻指导并回答其他社会问题时,具有推理能力的模型可能会提供促进利己行为的指导。
“人工智能拟人化的研究趋势正在不断增长,”博士生李宇轩说道。 HCII 的学生,与 HCII 副教授 Hirokazu Shirado 共同撰写了这项研究。 “当人工智能像人类一样行事时,人们会像对待人类一样对待它。例如,当人们以情感方式与人工智能互动时,人工智能有可能充当治疗师,或者用户与人工智能形成情感纽带。人类将其社交或关系相关问题和决策委托给人工智能是有风险的,因为它开始以越来越自私的方式行事。”
李雨轩 白户裕和Li 和 Shirado 着手探索人工智能推理模型在合作环境中与非推理模型的行为有何不同。他们发现,与非推理人工智能相比,推理模型花费更多时间思考、分解复杂任务、自我反思并在其响应中融入更强大的基于人类的逻辑。
“作为一名研究人员,我对人类和人工智能之间的联系感兴趣,”Shirado 说。 “更智能的人工智能表现出较少的合作决策能力。这里的担忧是,人们可能更喜欢更智能的模型,即使这意味着该模型可以帮助他们实现自利行为。”
