Skip to content
Was sind Halluzinationen in KI-Systemen?

Was sind Halluzinationen in KI-Systemen?

KI kann täuschen: Sie erfindet manchmal Dinge, die falsch sind – klingt echt, stimmt aber nicht. So kannst du damit umgehen.

Künstliche Intelligenz (KI), vor allem sogenannte generative KI wie ChatGPT, kann Texte, Bilder oder andere Inhalte erzeugen, die oft sehr echt wirken. Diese Systeme wurden mit riesigen Datenmengen trainiert und erkennen Muster in Sprache oder Bildern. Doch sie haben auch Schwächen.

Was ist eine Halluzination?

Eine Halluzination bei KI bedeutet: Die KI denkt sich etwas aus. Sie schreibt etwas, das zwar glaubwürdig klingt, aber nicht stimmt. Diese erfundenen Inhalte nennt man Halluzinationen.

Zum Beispiel kann die KI sagen, dass ein Buch existiert, das es gar nicht gibt – oder eine falsche Zahl als Fakt nennen.

Warum ist das ein Problem?

In manchen Bereichen wie Medizin, Recht oder Schule kann das gefährlich sein. Denn wenn man sich auf falsche KI-Antworten verlässt, entstehen Fehler. Deshalb ist es wichtig, die Aussagen der KI immer zu überprüfen.

Wie kannst du Halluzinationen erkennen oder vermeiden?

  1. Frage genau: Je klarer und genauer du fragst, desto besser kann die KI antworten.
    Besser: „Wie pflanze ich Tomaten auf einem schattigen Balkon?“ statt nur „Wie pflanze ich Tomaten?“

  2. Frage kritisch nach: Bitte die KI, Quellen anzugeben oder Begriffe zu erklären. Prüfe die Quellen selbst.

  3. Vergleiche mehrere Antworten: Stelle die gleiche Frage mehrmals. Wenn sich die Antworten stark unterscheiden, sei besonders vorsichtig.

  4. Nutze KI nur als Hilfe: Verlasse dich nie nur auf die KI. Kombiniere sie mit deinem Wissen, anderen Quellen oder echten Expert*innen.

Merke: KI ist ein Werkzeug. Es kann helfen – aber die Verantwortung, richtig zu handeln, bleibt immer bei dir!

Links:
KI kann überzeugend lügen: Dieses Video zeigt, warum das passiert – und wie du Halluzinationen erkennst und KI clever nutzt.