Gib der KI die Erlaubnis, "Ich weiß es nicht" zu sagenGib der KI die Erlaubnis, "Ich weiß es nicht" zu sagen
Gib der KI die Erlaubnis, "Ich weiß es nicht" zu sagen, um Halluzinationen zu reduzieren und verlässliche Ergebnisse zu erhalten.
Gib der KI die Erlaubnis, „Ich weiß es nicht“ zu sagen
Viele KI Antworten sind nicht falsch, weil das Modell schlecht ist.
Sie sind falsch, weil das Modell nicht stoppen darf.
Ein Sprachmodell ist darauf trainiert, zu antworten.
Nicht darauf, im richtigen Moment zu schweigen.
Fehlen Informationen, passiert fast immer dasselbe:
- die KI füllt die Lücken
- sie klingt überzeugend
- sie trifft daneben
Wenn du verlässliche Ergebnisse willst, brauchst du einen einfachen, aber extrem wirksamen Hebel:
Erlaube dem Modell, „Ich weiß es nicht“ zu sagen.
Warum KI lieber erfindet als nichts sagt
LLMs sind darauf trainiert, Texte fortzusetzen.
Ein leerer Output ist aus Sicht des Modells ein Fehler.
Ein plausibler Text dagegen ein Erfolg.
Die ultimative Abkürzung zu
einwandfreien KI-Ergebnissen
Verschwende keine Zeit mehr mit Trial-and-Error-Prompts. Erziele konsistente, professionelle KI-Ergebnisse beim ersten Versuch – jedes Mal.

Fehlen Informationen, hat das Modell zwei Optionen:
2. etwas Wahrscheinliches liefern
Ohne explizite Anweisung entscheidet es sich fast immer für Option 2.
Der Denkfehler: „Das Modell merkt schon, wenn es etwas nicht weiß“
Ein Sprachmodell merkt nicht, dass es etwas nicht weiß.
Es erkennt nur, dass Informationen fehlen.
Und genau diese Lücke versucht es dann statistisch plausibel zu füllen.
Für dich wirkt das wie Halluzination.
Für das Modell ist es erwartbares, korrektes Verhalten.
Der wichtigste Satz gegen erfundene Antworten
Es gibt eine Formulierung, die die Zuverlässigkeit sofort spürbar erhöht:
Wenn eine Information nicht im Kontext enthalten ist, sage explizit:
Warum das so gut funktioniert:
- es nimmt dem Modell den Druck, etwas erfinden zu müssen
- es definiert eine legitime Null Antwort
- es verschiebt den Fokus von Vollständigkeit zu Korrektheit
Kurz: Das Modell darf stoppen.
Ein praktisches Beispiel
„Erkläre die Ursache des Vorfalls und beschreibe die Maßnahmen.“
- plausible, aber erfundene Ursachen
- gut klingende, aber nicht bestätigte Maßnahmen
- Wenn Informationen fehlen oder nicht bestätigt sind, sage explizit „Ich weiß es nicht“.
- Ursache: noch unklar
- Maßnahmen: Untersuchung läuft
- klare Abgrenzung
- keine erfundenen Details
- höhere Glaubwürdigkeit
Zusammenspiel mit Output Requirements
Die Erlaubnis zu schweigen wirkt am besten in Kombination mit klaren Output-Vorgaben.
- Liste bestätigte Fakten
- Liste offene Punkte separat
- Keine Annahmen
- Bei fehlenden Informationen: „Ich weiß es nicht“
Warum Output hier wichtig ist, erklären wir hier:
Output Requirements: Die unterschätzte Superkraft für konsistente Ergebnisse (coming soon).
Warum das kein Sonderfall ist, sondern Standard sein sollte
Viele behandeln diese Regel wie eine Ausnahme.
In Wahrheit sollte sie immer Teil eines Prompts sein, wenn:
- Faktenlage unvollständig ist
- rechtliche oder kommunikative Risiken bestehen
- Entscheidungen darauf basieren
„Ich weiß es nicht“ ist kein Fehler.
Es ist ein Qualitätsmerkmal.
Der Übergang zur Systematisierung
Wenn du diese Regel regelmäßig nutzt, wirst du merken:
- sie wird vergessen
- sie wird leicht anders formuliert
- sie fehlt plötzlich
Genau solche Regeln gehören nicht in den Kopf,
Warum sich dieser Schritt lohnt, liest du hier:
Ab wann sich eine Prompt Library wirklich lohnt.
Fazit
Halluzinationen lassen sich nicht vollständig verhindern.
Aber sie lassen sich massiv reduzieren.
Nicht durch strengere Modelle.
Nicht durch längere Prompts.
Sondern durch eine einfache Erlaubnis:
Du darfst „Ich weiß es nicht“ sagen.
Das macht KI nicht schwächer.
Es macht sie verlässlich.