详细内容或原文请订阅后点击阅览
AI难以模仿历史语言
A collaboration between researchers in the United States and Canada has found that large language models (LLMs) such as ChatGPT struggle to reproduce historical idioms without extensive pretraining – a costly and labor-intensive process that lies beyond the means of most academic or entertainment initiatives, making projects such as completing Charles Dickens’s final, unfinished novel […]The post AI Struggles to Emulate Historical Language appeared first on Unite.AI.
来源:Unite.AI在美国和加拿大研究人员之间的合作发现,大型语言模型(LLM)(例如Chatgpt)努力在没有大量预审进的情况下重现历史习俗 - 这是一个代价高昂的劳动密集型过程,超出了大多数学术或娱乐计划的手段,诸如Charles Dickens诸如Charles Dickens的最终无效的小说中都没有实现AI Inie Aniositive of Moke Insoties of Moke Insoties。
预处理 完成查尔斯·狄更斯(Charles Dickens)未完成的小说研究人员探索了一系列用于生成历史上准确的文本的方法,首先要简单地提示使用20世纪初期的散文,然后在该时期的一小部分书籍中进行微调商业模型。
听起来 微调他们还将结果与一个单独的模型进行了比较,该模型已完全在1880年至1914年之间出版的书籍中进行了培训。
在第一个测试中,指导chatgpt-4o模拟鳍片−Siècle语言与基于GPT2的较小模型的结果截然不同,而基于GPT2的模型从该时期开始对文献进行了微调:
fin - de - - siècle要求完成一个真实的历史文本(顶级中心),即使是一个备受推验的Chatgpt-4O(左下)也无法帮助恢复“博客”模式,无法代表所需的习语。相比之下,微调的GPT2模型(右下)可以很好地捕获语言样式,但在其他方面不太准确。资料来源:https://arxiv.org/pdf/2505.00030
要求完成一个真实的历史文本(顶级中心),即使是一个备受推验的Chatgpt-4O(左下)也无法帮助恢复“博客”模式,无法代表所需的习语。相比之下,微调的GPT2模型(右下)很好地捕获了语言样式,但在其他方面不太准确这项新研究的标题为“语言模型可以代表过去没有过时?”,并且来自伊利诺伊大学,不列颠哥伦比亚大学和康奈尔大学的三名研究人员。
新研究 SSIM