生成式预训练变换模型2(英语:Generative Pre-trained Transformer 2,简称 GPT-2)是OpenAI于2019年2月创建的开源人工智能[2] [3] [4] [5] GPT-2能够翻译文本、回答问题总结段落,[6]生成文本输出。虽然其输出内容有时与人类相似[7]但在生成长段落时输出内容可能会变得重复或无意义。[8]GPT-2 是一个通用学习器,没有经过专门训练来执行任何特定的任务,[9] [6] 并且是作为 OpenAI 2018 GPT 模型的“直接扩展”而创建的,[10]其参数数量和训练数据集的大小均增加了十倍。[5]

Quick Facts 原作者, 首次发布 ...
生成型预训练变换模型 2
Generative Pre-trained Transformer 2(GPT-2)
Thumb
GPT-2 使用 Hugging Face Write With Transformer 网站完成的文本,提示文字来自维基百科(初始提示后所有突出显示的文本都是从第一个建议的完成机器生成的,没有进一步编辑)
原作者OpenAI
首次发布2019年2月14日,​5年前​(2019-02-14
当前版本
  • 1558M(2019年11月5日)[1]
编辑维基数据链接
源代码库https://github.com/openai/gpt-2
前任GPT-1
继任GPT-3
类型
许可协议 编辑维基数据链接
网站openai.com/blog/gpt-2-1-5b-release/
Close

参考资料

Wikiwand in your browser!

Seamless Wikipedia browsing. On steroids.

Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.

Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.