语言模型是从一个简单的问题中诞生的:“我们可以教一台机器理解和生成人类语言吗?”1950 - 60年的十年:艾伦·图灵(Alan Turing)已经通过著名的图灵测试提出了这个想法,以测量机器是否可以模仿人类的智能。 div>1980-90:出现了第一个基本神经网络。 div>连接节点的层层用于解决数据分类或模式识别等问题。 div>2010年:由于计算能力和大量数据,深度学习繁荣。 div>示例:诸如Alexnet之类的深神经网络彻底改变了图像处理,激发了文本分析的改进。 div>2017年:革命性的变化带有文章“您需要的所有注意力”(Google),介绍了变形金刚,LLM的基础。 div>变形金刚允许关注最相关词的文本,从而大大提高了预测质量。 div>2018年至今:对GPT(OpenAI)和Bert(Google)等模型进行了培训,这些模型是使用大量数据培训的LLMS,可以理解和生成更精确的语言。 div>
主要关键词