GPT-2 的可访问性 - 文本生成和微调

使用正确的工具,使用 GPT-2 生成文本非常简单。了解如何操作,以及如何在自己的数据集上微调模型。

来源:Another Datum

自然语言生成 (NLG) 是 NLP 社区中一个研究得很好的课题。随着深度学习方法的兴起,NLG 变得越来越好。最近,OpenAI 突破了极限,发布了 GPT-2 - 一个基于 Transformers 的模型,可以预测每个时间空间的下一个标记。

GPT-2 Transformers 标记

现在使用这些模型非常容易 - 您无需自己实现代码,也无需使用昂贵的资源训练模型。例如,HuggingFace 发布了一款 API,可简化对 OpenAI 发布的预训练 GPT-2 的访问。它的一些功能包括生成文本,以及在您自己的数据集上微调模型 - 转移学习到的分布,以便模型从新域生成文本。

发布 API

完成所有这些操作都很容易 - 只需使用 pip 安装相关包并启动 python 脚本即可。但是,为了省去麻烦,您可以使用 Spell 等可用平台之一 - 您只需指定要运行的内容,Spell 将负责其余工作(下载代码、安装包、分配计算资源、管理结果)。

Spell

虽然不是 Spell 的拥护者(我甚至没有尝试过该平台的其他功能,或者根本没有尝试过其他平台),但我决定编写一个教程来详细介绍我刚刚描述的过程。要了解更多信息,您可以在此处找到教程。

此处

如果您也喜欢使用机器生成的文本,请随时留下评论,分享您得到的有趣文本。 :)

更新:上述链接中的教程似乎已不再可用。虽然它有点过时(从那时起,hugging face API 已经发生了很大变化),但这里是全文:

更新 字节对编码 \(P(x_1, \ldots, x_n)\) \(x_1\) \(x_n\) \(\prod_{t=1}^{n}P(x_t|x_{ GPT-2 Transformers 架构 最近,HuggingFace 发布了简化 GPT-2 访问的 API。它的一个功能是使用预先训练的模型生成文本: \ \ \ \ \ \ \ \ \ \ \ \ \ GPT-2 Transformers 架构

最近,HuggingFace 发布了简化 GPT-2 访问的 API。它的一个功能是使用预先训练的模型生成文本:

\ \ \ \ \ \ \ \ \ \ \ \ \