Künstliche Intelligenz (KI), vor allem sogenannte generative KI wie ChatGPT, kann Texte, Bilder oder andere Inhalte erzeugen, die oft sehr echt wirken. Diese Systeme wurden mit riesigen Datenmengen trainiert und erkennen Muster in Sprache oder Bildern. Doch sie haben auch Schwächen.
Eine Halluzination bei KI bedeutet: Die KI denkt sich etwas aus. Sie schreibt etwas, das zwar glaubwürdig klingt, aber nicht stimmt. Diese erfundenen Inhalte nennt man Halluzinationen.
Zum Beispiel kann die KI sagen, dass ein Buch existiert, das es gar nicht gibt – oder eine falsche Zahl als Fakt nennen.
In manchen Bereichen wie Medizin, Recht oder Schule kann das gefährlich sein. Denn wenn man sich auf falsche KI-Antworten verlässt, entstehen Fehler. Deshalb ist es wichtig, die Aussagen der KI immer zu überprüfen.
Frage genau: Je klarer und genauer du fragst, desto besser kann die KI antworten.
Besser: „Wie pflanze ich Tomaten auf einem schattigen Balkon?“ statt nur „Wie pflanze ich Tomaten?“
Frage kritisch nach: Bitte die KI, Quellen anzugeben oder Begriffe zu erklären. Prüfe die Quellen selbst.
Vergleiche mehrere Antworten: Stelle die gleiche Frage mehrmals. Wenn sich die Antworten stark unterscheiden, sei besonders vorsichtig.
Nutze KI nur als Hilfe: Verlasse dich nie nur auf die KI. Kombiniere sie mit deinem Wissen, anderen Quellen oder echten Expert*innen.
Merke: KI ist ein Werkzeug. Es kann helfen – aber die Verantwortung, richtig zu handeln, bleibt immer bei dir!
Jugendstiftung BW
Schloßstraße 23
74372 Sersheim
info@jugendstiftung.de