Hallucination (intelligence artificielle)
réponse manifestement fausse d'une intelligence artificielle / De Wikipedia, l'encyclopédie encyclopedia
Pour les articles homonymes, voir Hallucination.
Dans le domaine de l'intelligence artificielle, une hallucination ou une confabulation[1] est une réponse fausse ou trompeuse qui est présentée comme un fait certain[2],[3] ; par exemple, un chatbot qui génère un chiffre d'affaires pour une entreprise sans avoir de données à ce sujet[4].
Ce phénomène est appelé « hallucination » par analogie avec le phénomène de l'hallucination en psychologie humaine. Une différence clé est que l'hallucination humaine est généralement associée à de fausses perceptions, alors qu'une hallucination d'IA est associée à des réponses ou des croyances injustifiées[5]. Le terme hallucination en intelligence artificielle a pris de l'importance vers 2022 parallèlement au déploiement des modèles de langage basés sur l'apprentissage profond tels que ChatGPT[6].
Dès 2023, les analystes considèrent les hallucinations comme un problème majeur de ces technologies, un dirigeant de Google identifiant la réduction des hallucinations comme une tâche « fondamentale » pour le concurrent de ChatGPT, Google Gemini[7],[8]. Ces systèmes d’IA étant « conçus pour être persuasifs, pas véridiques », les résultats peuvent sembler très réalistes mais inclure des affirmations qui ne sont pas vraies[9].