Halluzination (KI)
Halluzination bezeichnet die Ausgabe erfundener, unzutreffender oder irreführender Inhalte durch ein KI-Modell, die sprachlich stimmig wirken, aber nicht durch verlässliche Quellen, Daten oder den gegebenen Kontext gedeckt sind.
In der KI, besonders bei großen Sprachmodellen (LLMs, Large Language Models), spricht man von Halluzinationen, wenn das Modell Informationen generiert, die nicht aus zuverlässigen Quellen ableitbar sind oder dem bereitgestellten Kontext widersprechen. Das Problem entsteht, weil solche Modelle primär darauf optimiert sind, wahrscheinliche Fortsetzungen von Text zu erzeugen. Wenn die nötigen Fakten fehlen, mehrdeutig sind oder die Anfrage zu spezifisch ist, kann das Modell dennoch eine flüssige, überzeugende Antwort formulieren, inklusive frei erfundener Details.
Halluzinationen treten in unterschiedlichen Formen auf:
Faktenhalluzinationen: falsche Daten, Jahreszahlen, Messwerte, Definitionen.
Quellenhalluzinationen: erfundene Studien, Zitate, DOI-Nummern, Links, Gesetzesparagrafen oder Bücher.
Kontexthalluzinationen: das Modell ignoriert oder verdreht Angaben aus dem Prompt (z. B. Namen, Randbedingungen).
Überkonfidenz: die Antwort klingt sicher, obwohl Unsicherheit angebracht wäre.
Hinweis: Dieses Eintrag dient als Orientierungshilfe. Bei KI handelt es sich um ein komplexes Fachgebiet, bei welchem kurze Erklärungen ggf. nicht vollständig ausreichend sind. Je nach Fachgebiet und dem Fortschritt im KI-Bereich können weitere Begriffe hinzukommen. Ein Anspruch auf Vollständigkeit oder absolute Richtigkeit besteht nicht