详细内容或原文请订阅后点击阅览
AI的下一个飞跃:为什么代理需要学会相信
当今我们以感知,理解和理性的能力使我们眼花azz乱的代理AI系统正在接近基本的瓶颈,这不是计算能力或数据可用性之一,而是难以捉摸的东西:可以浏览人类信念,欲望和意图的凌乱,依赖上下文依赖于上下文的世界。当您观看这些[…]
来源:O'Reilly Media _AI & ML当今我们以感知,理解和理性的能力使我们眼花azz乱的代理AI系统正在接近基本的瓶颈,这不是计算能力或数据可用性之一,而是难以捉摸的东西:可以浏览人类信念,欲望和意图的凌乱,依赖上下文依赖于上下文的世界。
当您观察这些系统中的这些系统时,问题就会很清楚。给AI代理一个结构化的任务,例如处理发票或管理库存,并且表现出色。但是请它解释神秘的执行电子邮件背后的真正优先级,或导航高速公路合并的不言而喻的社会动态,您会看到限制出现。研究表明,许多企业的AI失败不是源于技术故障,而是源于信念模型未对准。这些系统将人类价值视为静态参数,完全缺少现实世界决策的动态,上下文敏感的性质。
错位的信念建模当AI从常规自动化转变为需要判断,谈判和信任的领域时,此差距成为鸿沟。人类决策是分层,上下文和深刻社会的。我们不仅处理事实;我们在自己和他人中建立信念,欲望和意图。这种“心理理论”使我们能够以当前AI无法匹配的方式进行谈判,即兴创作和适应。即使是传感器最丰富的自动驾驶汽车,也很难从一眼或手势中推断出意图,从而突出了我们必须走多远。
信仰 - 戴赛(BDI)框架 信念 欲望 意图 行为遥测 概率信念网络 多代理环境 信念建模