Halluzination (Künstliche Intelligenz)
überzeugend formuliertes aber falsches KI-Resultat Aus Wikipedia, der freien Enzyklopädie
überzeugend formuliertes aber falsches KI-Resultat Aus Wikipedia, der freien Enzyklopädie
Im Bereich der Künstlichen Intelligenz (KI) ist eine Halluzination (alternativ auch Konfabulation genannt) ein überzeugend formuliertes Resultat einer KI, das nicht durch Trainingsdaten gerechtfertigt zu sein scheint und objektiv falsch sein kann.[1]
Solche Phänomene werden in Analogie zum Phänomen der Halluzination in der menschlichen Psychologie als von Chatbots erzeugte KI-Halluzinationen bezeichnet. Ein wichtiger Unterschied ist, dass menschliche Halluzinationen meist auf falschen Wahrnehmungen der menschlichen Sinne beruhen, während eine KI-Halluzination ungerechtfertigte Resultate als Text oder Bild erzeugt. Prabhakar Raghavan, Leiter von Google Search, beschrieb Halluzinationen von Chatbots als überzeugend formulierte, aber weitgehend erfundene Resultate.[2] Der spezifische Begriff KI-Halluzination kann Computer unangemessen vermenschlichen.
KI-Halluzinationen erlangten um 2022 parallel zur Einführung bestimmter großer Sprachmodelle (Large Language Models, LLM) wie ChatGPT an Bedeutung.[3] Die Nutzer beschwerten sich, dass solche Chatbots oft sinnlos plausibel klingende Zufallslügen in ihren generierten Inhalten einbetteten. Als beispielsweise ChatGPT gebeten wurde, einen Artikel über das letzte Finanzquartal eines bestimmten Unternehmens zu generieren, erstellte dieser Chatbot einen kohärenten Artikel, erfand aber darin enthaltene Finanzzahlen. Nach Fragen über astrophysikalische Magnetfelder behauptete ChatGPT fälschlicherweise, dass Magnetfelder von Schwarzen Löchern durch die extrem starken Gravitationskräfte in ihrer Nähe erzeugt würden. In Wirklichkeit hat ein Schwarzes Loch aufgrund des No-Hair-Theorems kein Magnetfeld.[4] Analysten betrachten häufige Halluzinationen als ein großes Problem der LLM-Technik.[5]
Forscher haben unerwünschte Halluzinationen als ein statistisches Phänomen bezeichnet oder Halluzinationen auf unzureichende Trainingsdaten zurückgeführt. Da große Sprachmodelle kein vollständiges Wissen der Welt besitzen, wird fehlendes Wissen interpoliert bzw. konfabuliert.[6] Diese Eigenschaft von Sprachmodellen ermöglicht es, Anfragen an das Modell auf eine kreative Weise zu beantworten, anstatt ausschließlich auf vorhandenes Wissen zurückgreifen zu können. Allerdings führt dies auch dazu, dass eine Anfrage des Benutzers, auf die eine objektiv richtige Antwort existiert, dem Modell aber unbekannt ist, auf eine Weise beantwortet wird, die richtig erscheinen kann, jedoch nicht den Tatsachen entspricht.
Einige Kenner glauben, dass bestimmte falsche KI-Antworten, die von Menschen als Halluzinationen im Fall der Objekterkennung eingestuft werden, tatsächlich durch die Trainingsdaten gerechtfertigt sein können, oder sogar, dass eine KI die richtige Antwort gibt, welche die menschlichen Gutachter nicht sehen. Zum Beispiel kann ein umstrittenes Bild, das für einen Menschen wie ein gewöhnliches Bild eines Hundes aussieht, in Wirklichkeit für die KI Muster enthalten, die in authentischen Bildern nur beim Betrachten einer Katze auftreten würden. Die KI erkenne reale visuelle Muster, welche für Menschen nicht zu erkennen seien. Diese Schlussfolgerungen wurden jedoch von anderen Forschern in Frage gestellt. Zum Beispiel wurde eingewendet, dass die Modelle zu oberflächlichen Statistiken tendieren könnten, was dazu führe, dass Training bei umstrittenen Themen in realen Szenarien nicht robust sei.
Halluzination wurde als statistisch unvermeidliches Nebenprodukt eines jeden unvollkommenen generativen Modells erkannt, das darauf trainiert ist, die Trainingswahrscheinlichkeit zu maximieren, wie zum Beispiel GPT-3. Ebenfalls können Fehler beim Kodieren und Dekodieren zwischen Text und Repräsentationen Halluzinationen verursachen. KI-Training zur Erzeugung von vielfältigen Antworten kann auch zu Halluzinationen führen. Halluzinationen können ebenfalls auftreten, wenn die KI auf einem Datensatz trainiert wird, bei dem beschriftete Zusammenfassungen trotz ihrer faktischen Genauigkeit nicht direkt in den beschrifteten Daten verankert sind, die angeblich zusammengefasst werden. Größere Datensätze können ein Problem des parametrischen Wissens schaffen (Wissen, das in gelernten Systemparametern fixiert ist), was zu Halluzinationen führt, wenn das System zu selbstsicher sein festgelegtes Wissen nutzt.[7] In Systemen wie GPT-3 generiert eine KI jedes nächste Wort basierend auf einer Sequenz von vorherigen Wörtern (einschließlich der Wörter, die sie selbst während desselben Dialogs zuvor generiert hat), was zu einer Kaskade von möglichen Halluzinationen führt, je länger die Antwort wird.[8]
Zur Reduktion von KI-Halluzinationen wird zusätzliches aktives Lernen (wie zum Beispiel Bestärkendes Lernen aus menschlich beeinflusster Rückkopplung bei GPT-4) verwendet. Auch hat Google Bard eine neue Funktion eingeführt, mittels welcher Teile im Text orange markiert werden, deren Aussagen unsicher sind.[9] Ob sich jedoch alle erwähnten Probleme lösen lassen, sei fraglich.[10]
Eine weitere Möglichkeit ist das Self-Consistency-Prompting, welches dazu dient, konfabulierte Antworten des Sprachmodells zu erkennen.[11]
Auch ein geeignetes Prompting, welches dem KI-Modell ermöglicht, eine Frage nicht beantworten zu müssen, kann zu einer Verringerung – jedoch nicht Verhinderung – konfabulierter Antworten führen. Beispielsweise kann man statt „Wer war der Präsident von Deutschland 2017?“ die Frage als „Weißt du, wer der Präsident von Deutschland 2017 war?“ formulieren. Dies ermöglicht es dem System, eine Antwort wie „Nein, weiß ich leider nicht“ zu formulieren, anstatt zu versuchen, die Antwort zu erraten.
Eine weitere Möglichkeit besteht darin, mittels Retrieval Augmented Generation die Anfrage des Benutzers mit gesicherten Informationen aus dem Internet oder einer Datenbank anzureichern, sofern die nötigen Daten vorhanden sind.
Forschende der Universität Glasgow merkten 2024 an, die Metapher der Halluzination könnte bei politischen Entscheidungsträgern und Öffentlichkeit falsche Assoziationen über die Funktionsweise künstlicher neuronaler Netze wecken. Anstelle einer vermeintlichen Fehlrepräsentation der Wirklichkeit müsse ein Begriff verdeutlichen, das derartige Ausgaben gänzlich wirklichkeitsfern und der internen Funktionsweise der KI-Modelle geschuldet seien. Sie schlugen daher die Nutzung des von Harry Frankfurt etablierten Begriffs „Bullshit“ vor.[12] Ähnliche Kritik kam bereits zuvor durch Netzaktivisten auf.[13]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.