你的AI结对程序员不是一个人

以下文章最初发表在 Medium 上,经作者许可在此重新发布。早些时候,我发现自己对我的人工智能工具说“你”——“你能添加重试吗?” “好主意!”——就像我在和初级开发人员交谈一样。当它不“理解”我时,我就会生气。那是我的事。这些模型不是 [...]

来源:O'Reilly Media _AI & ML
以下文章最初发表在 Medium 上,经作者许可在此重新发布。
以下文章最初出现在 并经作者许可在此处重新发布。

早些时候,我发现自己对我的人工智能工具说“你”——“你能添加重试吗?” “好主意!”——就像我在和初级开发人员交谈一样。当它不“理解”我时,我就会生气。

这是我的。这些模特不是人。人工智能模型无法理解。它产生并遵循模式。但这里的关键词是“它”。

它生成并遵循模式。

理解的错觉

感觉就像有另一方的思想,因为输出流畅且礼貌。它会说“好主意!”之类的话。和“我建议……”就好像它权衡了选择并判断了你的计划一样。事实并非如此。模型没有意见。它从训练数据和提示中识别模式,然后合成下一个标记。

这并不意味着该工具毫无用处。这意味着你是理解的人。该模型聪明、快速且通常是正确的,但它也常常会出现严重错误,让您感到困惑。但重要的是要理解,如果因为你没有提供足够的背景而发生这种情况,那是你的错。

你是理解的人

下面是一个朴素模式的示例:

一位朋友要求他的模型搭建一个项目的支架。它吐出一条块注释,字面意思是“这是由 <随机名称> 创作的。”他用谷歌搜索了这个名字。这是某人的公开片段,模型基本上将其作为一种模式进行学习(包括“作者”评论),并鹦鹉学舌地返回到新文件中。没有恶意。只是机械的。它不“知道”添加虚假作者归属是荒谬的。

一位朋友要求他的模型搭建一个项目的支架。它吐出一条块注释,字面意思是 他用谷歌搜索了这个名字。这是某人的公开片段,模型基本上已经将其学习为一种模式 - 包括“作者”注释

在编写代码之前建立信任