Loading AI tools
modèle de langage développé par OpenAI et sorti en 2020 De Wikipédia, l'encyclopédie libre
GPT-3 (sigle de Generative Pre-trained Transformer 3) est un modèle de langage, de type transformeur génératif pré-entraîné, développé par la société OpenAI, annoncé le 28 mai 2020, ouvert aux utilisateurs via l'API d'OpenAI en juillet 2020.
Chronologie des versions
Au moment de son annonce, GPT-3 est le plus gros modèle de langage jamais entraîné avec 175 milliards de paramètres. GPT-2, sorti en 2019, n'avait que 1,5 milliard de paramètres[2].
OpenAI ouvre une version bêta en juillet 2020 avec l'intention d'en faire un produit commercial[2].
En mars 2022, OpenAI a sorti de nouvelles versions de GPT-3 (« text-davinci-002 » et « code-davinci-002 »)[3]. En novembre 2022, OpenAI a commencé à faire référence à ces modèles comme faisant partie de la série « GPT-3.5 », et en a intégré une version ajustée dans ChatGPT[4].
En , OpenAI annonce le lancement de son successeur, GPT-4[5]. GPT-3 et GPT-4 sont à la base de chatGPT, un robot conversationnel commercialisé par OpenAI.
Une prépublication arXiv du 28 mai 2020 par un groupe de 31 ingénieurs et chercheurs de OpenAI[note 1] présentait le développement de GPT-3, un modèle linguistique de troisième génération[6],[7]. L'équipe a augmenté la capacité de GPT-3 de plus de deux ordres de grandeur par rapport à celle de son prédécesseur, GPT-2[8]. Le nombre plus élevé de paramètres de GPT-3 lui confère une plus grande précision par rapport aux versions précédentes de plus faible capacité[9]. La capacité de GPT-3 est dix fois supérieure à celle du NLG de Turing de Microsoft[7].
60 % de l'ensemble de données pondérées de pré-apprentissage pour le modèle GPT-3 proviennent d'une version filtrée du corpus Common Crawl (en) consistant en 410 milliards d'unités textuelles sous-lexicales encodées par l'algorithme BPE[6]. Les autres sources sont 19 milliards d'unités du corpus WebText2 représentant 22 % du total pondéré, 12 milliards d'unités du corpus Books1 représentant 8 %, 55 milliards du corpus Books2 représentant 8 % et 3 milliards d'unités de Wikipedia représentant 3 %[6]. GPT-3 a été entrainé sur des centaines de milliards de mots et est capable de programmer en CSS, JSX, Python, entre autres[10].
Les données d'apprentissage de GPT-3 étant globales, il ne nécessite pas d'apprentissage supplémentaire pour des tâches linguistiques distinctes[10]. Le 11 juin 2020, OpenAI a annoncé que les utilisateurs pouvaient demander l'accès à son API GPT-3 - un ensemble d'outils d'apprentissage machine - pour qu'OpenAI augmente sa valeur d'usage[11],[12]. L'invitation décrivait comment cette API disposait d'une interface texte qui permettait d'effectuer presque « n'importe quelle tâche en anglais », au lieu du cas d'utilisation unique habituel[11]. Selon un utilisateur, qui avait accès à une version préliminaire privée de l'API GPT-3 d'OpenAI, GPT-3 pouvait écrire un texte cohérent avec seulement quelques instructions simples[13].
Parce que GPT-3 peut « générer des articles de presse que les évaluateurs humains ont du mal à distinguer des articles écrits par des humains »[7], GPT-3 pourrait avoir des applications nuisibles[6]. Dans leur article du 28 mai 2020, les chercheurs ont décrit en détail ces effets potentiels du GPT-3[7] qui comprennent « la désinformation, le spam, l'hameçonnage, l'abus des processus légaux et gouvernementaux, la rédaction frauduleuse d'essais universitaires sous prétexte d'ingénierie sociale »[6]. Les auteurs attirent l'attention sur ces dangers pour demander des recherches sur l'atténuation des risques[6].
L'artiste Mario Klingemann a utilisé GPT-3 pour générer des pastiches de grands auteurs (en anglais)[2].
Parmi les utilisations possibles figure l'extraction d'informations venant de documents. Par exemple GPT-3 peut répondre à la question « pourquoi le pain est gonflé » en se basant sur l'article Wikipédia « pain »[14].
Il est possible d'avoir des discussions rapides, complexes et cohérentes dans le but de générer des idées, recommander des livres et des films, raconter des histoires interactives ou encore participer à une réunion[14]. GPT-3 peut fournir une assistance aux clients automatique en ligne sur les sites internet par exemple[14].
GPT-3 permet d'analyser et synthétiser du texte sous forme de tableaux, de résumer des discussions, d'élargir des contenus à partir d'idées de base[14]. Il peut être utilisé pour traduire des textes d'une langue à l'autre[14], transformer un texte en langue courante en un texte juridique[15], générer du code informatique à partir d'instructions en langue naturelle[16]. Il peut également être utilisé pour aider à la rédaction de textes et d'autres supports marketing par les startups Copy.ai[17], Jasper.ai[18], TextCortex AI[19] et Hypotenuse AI[20].
Du fait de sa taille, GPT-3 ne peut pas être exécuté sur un ordinateur personnel. Le stockage des paramètres à lui seul requiert au moins 175 gigaoctets de mémoire vive, ce qui en 2020 excède largement la capacité des machines typiquement disponibles sur le marché, ou constructibles à partir de matériel grand public.
Contrairement à GPT-2, le précédent modèle de langage développé par OpenAI, GPT-3 est livré sous forme d'une API et le code source n'est pas ouvert.
En 2020, la start-up française Nabla a réalisé des tests en créant un agent conversationnel médical en anglais basé sur GPT-3, ce qui est contre-indiqué par OpenAI. Lors des phases de test, le chatbot a conseillé à un patient simulé de se suicider[21],[22].
Wu Dao (chinois traditionnel : 悟道 ; pinyin : ; litt. « chemin de la conscience »), est un projet chinois environ dix fois plus volumineux[23].
Bloom est un projet financé au moins en partie par le gouvernement français, et publié sous une licence nommée « RAIL » (Responsible AI License)[24].
GPT-J, un modèle conçu sur une architecture similaire, mais publié sous licence libre et de taille suffisamment petite pour être exécutable par un ordinateur personnel.
LLaMA, un modèle dont le code source est publié et maintenu par Meta.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.