详细内容或原文请订阅后点击阅览
特工不知道什么是好的。这正是问题所在。
Luca Mezzalira,《Building Micro-Frontends》一书的作者,最初在 LinkedIn 上分享了以下文章。经他许可,本文将在此处重新发布。每隔几年,就会有一些东西出现,有望改变我们构建软件的方式。每隔几年,该行业就会出现可预见的分裂:一半人宣布旧规则已失效;另一半人宣布旧规则已失效;另一半人宣布旧规则已经失效。另一半则交叉双臂并 [...]
来源:O'Reilly Media _AI & MLLuca Mezzalira,《Building Micro-Frontends》一书的作者,最初在 LinkedIn 上分享了以下文章。经他许可,本文将在此处重新发布。
每隔几年,就会有一些东西出现,有望改变我们构建软件的方式。每隔几年,该行业就会出现可预见的分裂:一半人宣布旧规则已失效;另一半人宣布旧规则已失效;另一半人宣布旧规则已经失效。另一半则抱起双臂,等待炒作过去。两个阵营通常都是错误的,而且两个阵营通常都很吵。更罕见、更有用的是,有人站在噪音中间,提出结构性问题:而不是“这能做什么?”但是“这对于我们如何设计系统意味着什么?”
这就是 Neal Ford 和 Sam Newman 最近在 O’Reilly 的 Software Architecture Superstream 期间关于代理人工智能和软件架构的炉边谈话中所做的事情。这是一场值得仔细拆开的对话,因为他们表面上的一些内容比乍一看更令人不舒服。
德雷福斯陷阱
Neal 首先介绍了德雷福斯知识获取模型,该模型最初是为护理专业开发的,但适用于任何领域。该模型将学习映射到五个阶段:
他的主张是,当前的代理人工智能陷入了新手和高级初学者之间的困境:它可以遵循食谱,甚至可以在遇到困难时应用相邻领域的食谱,但它不明白为什么这些食谱有效。这不是一个小限制。这是结构性的。
有趣的是,福特和纽曼都没有对人工智能能力不屑一顾。要点更微妙:使这些代理真正有用的创造力,它们以人类不会想到的方式搜索解决方案空间的能力,与使它们变得危险的相同属性密不可分。你不可能在不破坏其价值的情况下完全对即兴创作进行脑白质切除。这是一个设计约束,而不是需要修补的错误。
