详细内容或原文请订阅后点击阅览
研究人员构建了一个只了解 1931 年之前世界的聊天机器人
当你将互联网从人工智能中剥离出来时会发生什么?研究人员构建了一个只了解 1931 年之前世界的聊天机器人。
来源:Malwarebytes Labs 博客互联网的聊天机器人已经阅读了每一个论坛的咆哮、泄露的 Slack 日志以及你叔叔曾经写过的有关 chemtrails 的自信博客文章。结果是可以预见的:它们反映了互联网的现状,但情况并不美好。再加上一些有问题的设计决策,部分原因是埃隆·马斯克 (Elon Musk) 的 Grok 聊天机器人在测试过程中短暂生成反犹太主义内容并提到“MechaHitler”。
如果我们有一个聊天机器人,它只利用互联网、真人秀或人工智能内容存在之前的知识,那不是很好吗?三名研究人员创造了这样的东西:一个从未阅读过 1930 年之后发表的任何内容的聊天机器人。
Talkie 是一个拥有 130 亿参数的语言模型,它是在 1930 年底之前出版的英语文本的数字扫描上进行训练的。这一截止日期与当前的美国公共领域年份一致,这意味着该年年底之前发布的任何内容都是公平的游戏,并且无需担心愤怒的知识产权持有者提起诉讼。
多伦多大学计算机科学和统计学副教授 David Duvenaud 与两名合作者领导了这项工作。如果你不介意一个模型的世界地图以大萧条结束,你可以从 GitHub 或 Hugging Face 下载它,或者通过网络界面与它聊天。
该模型只知道在截止日期之前出现在书籍、报纸、法律文本和其他出版物中的内容。因此,对于有关禁酒令或第一次世界大战的问题非常有用。 NASA 首次登月?没那么多。
何苦呢?
显而易见的问题:为什么要训练一个不知道纳粹做了什么、互联网是什么、甚至法学硕士是什么的人工智能?
与其说这些是通过玫瑰色眼镜来看待“过去的美好时光”的练习,不如说是智力实验。怀旧歪曲了过去,当时的世界同样存在问题,甚至更严重。
断点处
Talkie 存在明显的弱点,其发明者深知这一点。
