Wenn KI lügt – und es trotzdem überzeugend klingt

KI-Modelle wie ChatGPT oder Microsoft Copilot sind beeindruckend – aber 𝗻𝗶𝗰𝗵𝘁 𝘂𝗻𝗳𝗲𝗵𝗹𝗯𝗮𝗿.
Manchmal „𝗵𝗮𝗹𝗹𝘂𝘇𝗶𝗻𝗶𝗲𝗿𝗲𝗻“ sie: Sie erfinden Fakten, Quellen oder Zusammenhänge, die gar nicht existieren. Das passiert nicht aus böser Absicht, sondern weil sie Muster fortsetzen – auch dann, wenn die Datenlage schwach ist.
💡 Wichtig:
So überzeugend ein KI-Text klingen mag – 𝗶𝗺𝗺𝗲𝗿 𝗽𝗿𝘂𝗳𝗲𝗻.
Ein aktuelles Beispiel zeigt, warum:
Der Regionalligist FC Carl Zeiss Jena fiel vor Gericht mit einer KI-erstellten Beschwerde durch – das Gericht sprach von einem „Sammelsurium unverifizierbarer KI-Halluzinationen“.
Hier der Artikel bei n-tv: https://www.n-tv.de/sport/fussball/Regionalligist-faellt-mit-KI-Halluzinationen-vor-Gericht-auf-die-Nase-article25964648.html
3 Prompt-Methoden, um Halluzinationen zu reduzieren:
1️⃣ Kontext & Quellen verlangen
„𝘌𝘳𝘬𝘭𝘢𝘳𝘦 𝘥𝘢𝘴 𝘛𝘩𝘦𝘮𝘢 𝘶𝘯𝘥 𝘯𝘦𝘯𝘯𝘦 𝘣𝘪𝘵𝘵𝘦 3 𝘷𝘦𝘳𝘭𝘢𝘴𝘴𝘭𝘪𝘤𝘩𝘦 𝘘𝘶𝘦𝘭𝘭𝘦𝘯, 𝘥𝘪𝘦 𝘪𝘤𝘩 𝘴𝘦𝘭𝘣𝘴𝘵 𝘱𝘳𝘶𝘧𝘦𝘯 𝘬𝘢𝘯𝘯.“
2️⃣ Schritt-für-Schritt-Begründung einfordern
„𝘌𝘳𝘬𝘭𝘢𝘳𝘦 𝘥𝘦𝘪𝘯𝘦 𝘈𝘯𝘵𝘸𝘰𝘳𝘵 𝘚𝘤𝘩𝘳𝘪𝘵𝘵 𝘧𝘶𝘳 𝘚𝘤𝘩𝘳𝘪𝘵𝘵, 𝘣𝘦𝘷𝘰𝘳 𝘥𝘶 𝘻𝘶𝘮 𝘌𝘳𝘨𝘦𝘣𝘯𝘪𝘴 𝘬𝘰𝘮𝘮𝘴𝘵.“
3️⃣ Unsicherheiten abfragen
„𝘞𝘦𝘯𝘯 𝘥𝘶 𝘥𝘪𝘳 𝘣𝘦𝘪 𝘦𝘪𝘯𝘦𝘮 𝘛𝘦𝘪𝘭 𝘥𝘦𝘳 𝘈𝘯𝘵𝘸𝘰𝘳𝘵 𝘶𝘯𝘴𝘪𝘤𝘩𝘦𝘳 𝘣𝘪𝘴𝘵, 𝘮𝘢𝘳𝘬𝘪𝘦𝘳𝘦 𝘪𝘩𝘯 𝘥𝘦𝘶𝘵𝘭𝘪𝘤𝘩 𝘶𝘯𝘥 𝘦𝘳𝘬𝘭𝘢𝘳𝘦 𝘸𝘢𝘳𝘶𝘮.“
und weitere…
KI ist ein starkes Werkzeug – aber nur in Kombination mit 𝗸𝗿𝗶𝘁𝗶𝘀𝗰𝗵𝗲𝗺 𝗗𝗲𝗻𝗸𝗲𝗻 wird es zu einem verlässlichen Partner.
Mit gezieltem Prompt Engineering lässt sich das Risiko von Halluzinationen deutlich reduzieren – und genau das zeigen wir bei 19solutions in unseren Trainings.
Autor
deka-online@web.de
Ähnliche Beiträge

Fasse mir den Text zusammen – funktioniert, aber nur so mittel
Klar, du kannst ChatGPT sagen: „Fasse mir den Text zusammen.“Das ist ungefähr so wie im Restaurant zu sagen: „𝗕𝗿𝗶𝗻𝗴 𝗺𝗶𝗿 𝘄𝗮𝘀 𝘇𝘂...
Alles lesen
Was die KI von deinen Lieblingsserien lernen kann?
Was die KI von deinen Lieblingsserien lernen kann?Ganz einfach: Beispiele wirken Wunder. 🎬 Stichwort: n-shot Prompting. Das bedeutet:Du gibst der KI ein...
Alles lesen