详细内容或原文请订阅后点击阅览
人工智能蓝调
《Computerworld》杂志最近发表的一篇文章指出,GPT 和 Gemini 等生成式人工智能系统的输出不如以前好。这不是我第一次听到这种抱怨,尽管我不知道这种观点有多普遍。但我想知道:这是正确的吗?如果是这样,为什么?我 […]
来源:O'Reilly Media _AI & MLComputerworld的最新文章认为,GPT和Gemini等生成AI系统的输出不像以前那样出色。尽管我不知道这种观点是多么广泛,但这是我第一次听到这一投诉。但是我想知道:正确吗?如果是这样,为什么?
文章 Computerworld我认为AI世界中正在发生一些事情。首先,AI系统的开发人员正在尝试改善其系统的输出。他们(我想)更多地在寻找令人满意的企业客户,他们可以执行大型合同,而不是迎合每月支付20美元的个人。如果我这样做,我会将我的模型调整为制作更正式的业务散文。 (这不是一个好散文,但这就是它的本质。)我们可以说,不只是粘贴AI输出的频率,但这并不意味着人们不会做到这一点,这确实意味着AI开发人员会尝试给他们想要的东西。
学习速度更快。深入挖掘。参见更远的地方。
AI开发人员当然正在尝试创建更准确的模型。错误率显着下降,尽管远非零。但是,为低错误率调整模型可能意味着限制其提出异常答案的能力,我们认为这是出色,有见地或令人惊讶的能力。这很有用。减少标准偏差时,您会切断尾巴。您付出的价格最小化幻觉和其他错误是将正确的异常值最小化。我认为开发人员不应该最小化幻觉,但您必须付出代价。
模型崩溃 非科学实验 1我确定有很多人比我更严格地测试了这项测试,但是自早期以来,我已经对大多数语言模型进行了两次测试:
脚注
来自约翰逊博斯威尔的生活(1791年);可能稍微修改。