model transformador generador preentrenat From Wikipedia, the free encyclopedia
GPT-3 (acrònim anglès de Generative Pre-trained Transformer 3, transformador generador preentrenat) és un model de llenguatge autorregressiu que empra tècniques de l'aprenentatge profund per a desenvolupar textos que simulen la redacció humana.[1] GPT-3 és la tercera generació creada per l'empresa-laboratori OpenAI dedicada a la recerca dins l'àmbit de la intel·ligència artificial.[2][3]
| |
Tipus | Model de llenguatge per a aprenentatge profund |
---|---|
Versió inicial | maig del 2020 |
Versió estable | |
Llicència | Microsoft |
Part de | OpenAI API |
Equip | |
Desenvolupador(s) | OpenAI |
Més informació | |
Lloc web | openai.com/blog/openai-api/ |
Id. Subreddit | GPT3 |
| |
GPT-3 està format pels següents conjunts de dades preentrenats:
Conjunt de dades
(Dataset) |
Nombre d'Entrades
(# Tokens) |
Percentatge del total |
---|---|---|
Common Crawl | 410 mil milions | 60% |
WebText2 | 19 mil milions | 22% |
Books1 | 12 mil milions | 8% |
Books2 | 55 mil milions | 8% |
Wikipedia | 3 mil milions | 3% |
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.