应对生成式 AI 的恐怖谷

生成式 AI 能够以其他技术无法做到的方式让人感到惊讶。有时这是一件非常好的事情;其他时候,就不那么好了。理论上,随着生成式 AI 的改进,这个问题应该变得不那么重要。然而,在现实中,随着生成式 AI 变得更加“人性化”,它可能会开始变得险恶和令人不安,……

来源:MIT Technology Review _人工智能

心理模型和对抗图案

心理模型是UX和产品设计中的一个重要概念,但是AI社区需要更容易拥抱它们。在一个层面上,心理模型通常不会出现,因为它们是我们对AI系统的假设的常规模式。这是我们在整理最新卷Thowsworks技术雷达的过程中进行了详细讨论的,这是一年一度的一年一度报告,基于我们与世界各地客户合作的经验。

UX和产品设计 思想工作技术雷达

例如,我们用AI生成的代码来召集自满,并用生成AI替换配对编程,因为我们相信从业人员必须避免的两种实践,因为AI编码助手的普及继续增长。两者都来自糟糕的心理模型,这些模型未能承认该技术的实际运作方式及其局限性。后果是,这些工具变得越有说服力和“人性化”,我们很难承认该技术的实际运作方式以及它为我们提供的“解决方案”的局限性。

与AI生成的代码 用生成AI

当然,对于那些将生成AI部署到世界的人来说,风险是相似的,甚至更明显。尽管这种工具背后的意图通常是为了创造令人信服和可用的东西,但如果这种工具误导了,欺骗甚至只是不设置用户,它们的价值和价值蒸发。毫不奇怪的是,诸如欧盟AI法案之类的立法要求深层假作者将内容标记为“ AI产生”,以解决这些问题。

值得指出的是,这不仅仅是AI和机器人技术的问题。早在2011年,我们的同事马丁·福勒(Martin Fowler)写道,建立跨平台移动应用程序的某些方法如何创建一个不可思议的山谷,“在哪里工作,主要是……本地控制,但有足够的微小差异可以抛弃用户。”