详细内容或原文请订阅后点击阅览
AI 为什么撒谎?
第零原则可以澄清 ML/AI 领域的许多问题。正如上一篇文章所讨论的那样,认识论通常是一门空谈学科,就像哲学的其他部分一样。它最近才开始用于实验,因为我们可以使用各种机器学习模型来测试我们的假设。
来源:AI的零点原则第零原则可以澄清 ML/AI 领域的许多问题。
正如上一篇文章所讨论的,认识论通常是一门空谈学科,就像哲学的其他部分一样。它最近才开始用于实验,因为我们可以使用各种机器学习模型来测试我们的假设。
我想介绍认识论中的三个陈述,我认为这些陈述很难反驳:
我们甚至没有后脑勺的眼睛。复杂而混乱的系统无法长期预测。没有人,即使是人工智能,可以跟踪发生的一切。为了始终正确预测一切,我们需要了解一切。为了完美预测天气,我们需要跟踪海洋中的每个水分子。
一些非常强硬的还原论者认为我们可以拥有全知。他们显然不希望人工智能在他们有生之年出现。更好的选择是转向整体立场。
AI 现在是机器学习。ChatGPT 及其同类(在我这里 SubStack 的文章中,所有类型的 LLM 和未来可能设计截然不同的系统都归入“AI”一词)都是在学习课程——文本“语料库”中培养起来的。即使是小型语料库也可能在常见任务上取得不错的表现,但更大的语料库可以覆盖更多的极端情况,并提供更多从半相关问题领域学习的机会。今天,由于缺乏更好的比较,我们可能会将语言模型的大小或语料库的大小视为对新系统能力的估计。
似乎我们的机器太小了,无法获得真正有用的结果。举一个具体的例子,ChatGPT-3.5 学到了很多关于语言的知识,事实上,其中有好几种,但可能没有足够的资源来学习数学、物理或公民教育方面的有用能力,这只是它基本上无知的几件事。
这是前两个陈述的结果。
一篇博客文章 。而将 AI 添加到世界将使其变得更加复杂。