![cover image](https://wikiwandv2-19431.kxcdn.com/_next/image?url=https://upload.wikimedia.org/wikipedia/commons/thumb/1/1f/ChatPGTLojbanLion123.png/640px-ChatPGTLojbanLion123.png&w=640&q=50)
Hallucination (artificiell intelligens)
From Wikipedia, the free encyclopedia
En hallucination är inom generativ artificiell intelligens ett genererat svar som innehåller falsk eller vilseledande information som presenteras som fakta.[1][2][3] Forskare som Oren Etzioni menar att programvara som ChatGPT kan ge svar som låter korrekta men är helt fel.[4] AI-hallucinationer skiljer sig från mänskliga hallucinationer i det att de förknippas med omotiverade svar eller övertygelser snarare än upplevelser.[3]
![Thumb image](http://upload.wikimedia.org/wikipedia/commons/thumb/1/1f/ChatPGTLojbanLion123.png/640px-ChatPGTLojbanLion123.png)
2023 uppskattades att modeller som GPT-3.5 hallucinerade i mellan 3 % och 27 % av responserna beroende på modell.[5] Att upptäcka och åtgärda dessa hallucinationer innebär betydande utmaningar för användning av språkinlärningsmodeller.[6][7]
Begreppet "hallucination" kan även tillämpas utanför språkbehandling, där ett inkorrekt men säkert svar från vilken AI-modell som helst (som inte verkar komma från modellens träningsdata) kan betecknas som en hallucination.[3] Vissa forskare menar dock att ordet "hallucination" är överdrivet antropomorfiserande kring datorer.[8]