生成式預訓練變換模型2(英語:Generative Pre-trained Transformer 2,簡稱 GPT-2)是OpenAI於2019年2月建立的開源人工智能[2] [3] [4] [5] GPT-2能夠翻譯文字、回答問題總結段落,[6]生成文字輸出。雖然其輸出內容有時與人類相似[7]但在生成長段落時輸出內容可能會變得重複或無意義。[8]GPT-2 是一個通用學習器,沒有經過專門訓練來執行任何特定的任務,[9] [6] 並且是作為 OpenAI 2018 GPT 模型的「直接擴充」而建立的,[10]其參數數量和訓練數據集的大小均增加了十倍。[5]

Quick Facts 原作者, 首次發佈 ...
生成型預訓練變換模型 2
Generative Pre-trained Transformer 2(GPT-2)
Thumb
GPT-2 使用 Hugging Face Write With Transformer 網站完成的文字,提示文字來自維基百科(初始提示後所有突出顯示的文字都是從第一個建議的完成機器生成的,沒有進一步編輯)
原作者OpenAI
首次發佈2019年2月14日,​5年前​(2019-02-14
目前版本
  • 1558M(2019年11月5日)[1]
編輯維基數據連結
原始碼庫https://github.com/openai/gpt-2
前任GPT-1
繼任GPT-3
類型
許可協定 編輯維基數據連結
網站openai.com/blog/gpt-2-1-5b-release/
Close

參考資料

Wikiwand in your browser!

Seamless Wikipedia browsing. On steroids.

Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.

Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.