ki-jobs.net
Glossar · Stand 29. April 2026

Halluzination

Wenn ein KI-Modell überzeugt wirkende, aber faktisch falsche Inhalte erzeugt.

Verfasst von Jens PolomskiGründer snipKIAktualisiert 29. April 2026

Halluzinationen sind das größte Risiko beim produktiven KI-Einsatz: Das Modell behauptet Dinge, die nicht stimmen — oft mit hoher Selbstsicherheit. Mitigations: RAG (eigene Quellen einbinden), Eval-Pipelines, Mensch-im-Loop, klare Output-Schemata. Wer KI im Job nutzt, muss Halluzinationen erkennen können.

Verwandte Begriffe