KI-Halluzinationen im Arztbrief — was sie sind und wie Sie sich schützen
Erfundene Werte, falsche Medikamente, ausgedachte Diagnosen: Wie KI-Halluzinationen entstehen und welche Schritte im Praxisablauf sie zuverlässig abfangen.
Erfundene Werte, falsche Medikamente, ausgedachte Diagnosen: Wie KI-Halluzinationen entstehen und welche Schritte im Praxisablauf sie zuverlässig abfangen.
Eine KI-Halluzination ist kein technischer Schluckauf, sondern eine Eigenschaft der Sprachmodelle. Sie erzeugen Text, der plausibel klingt — auch dort, wo sie nichts wissen. Im Arztbrief führt das zu erfundenen Laborwerten, falschen Dosierungen oder ausgedachten Vorerkrankungen. Der Effekt: Der Brief liest sich gut, der Inhalt ist falsch.
Dieser Artikel erklärt, wie Halluzinationen entstehen, woran Sie sie erkennen und welche Schritte im Praxisablauf sie verhindern.
Ein Sprachmodell sagt das nächste Wort vorher. Wenn die Eingabe lückenhaft ist und das Modell trotzdem antworten muss, füllt es die Lücke mit dem statistisch wahrscheinlichsten Inhalt. Das Ergebnis sieht wie ein medizinisch korrekter Satz aus — auch wenn der Wert frei erfunden ist.
Beispiele aus realen Tests:
Halluzinationen sind kein seltener Ausreißer, sondern in 1 bis 5 % aller Ausgaben enthalten — abhängig von Modell, Eingabequalität und Prompt-Disziplin.
Nicht alle Teile eines Arztbriefs sind gleich anfällig. Drei Bereiche fallen auf:
Stabil sind dagegen Standardphrasen (Anrede, Schlussformeln, allgemeine Therapieempfehlungen).
„Mein Lieblingsbeispiel: Die KI hat einen Befund ‚unauffällig’ geschrieben, weil sie aus dem Kontext geschlossen hat, dass das passt. Tatsächlich war der Befund pathologisch. Ohne Vier-Augen-Prinzip hätten wir den Brief verschickt.” — Internist aus Hamburg
Im Praxisalltag schützen drei Schritte zuverlässig — vorausgesetzt, sie werden konsequent angewendet.
Manche Praxis-KI bietet einen Vorlagen-Modus: Der Brief wird aus festen Bausteinen zusammengesetzt, freie Formulierungen sind nur in markierten Feldern erlaubt. Das reduziert die Angriffsfläche für Halluzinationen erheblich, kostet aber Flexibilität.
Empfehlung: Vorlagen-Modus für Standardfälle (Routinekontrollen, DMP-Briefe), freier Modus für komplexe Verläufe — dort aber mit besonderer Sorgfalt bei der Freigabe.
Cloud-Modelle (GPT, Claude, Gemini) werden ständig aktualisiert. Eine Version, die heute zuverlässig ist, kann morgen anders halluzinieren. Sie haben keinen Einfluss darauf und keine Versionskontrolle. In der medizinischen Doku ist das ein Strukturproblem.
Lokale Modelle in der otium.arx bleiben dagegen stabil. Updates erfolgen nur, wenn Sie sie einspielen — typischerweise nach interner Validierung.
Bei jedem KI-Anbieter, mit dem Sie sprechen, sollten Sie drei Fragen schriftlich beantwortet bekommen:
Wer auf eine dieser Fragen ausweichend antwortet, hat das Problem nicht gelöst.
Halluzinationen lassen sich nicht vollständig ausschließen — aber drastisch reduzieren. Lokale Verarbeitung mit klarer Quellenbindung, Konfidenz-Anzeige und konsequenter Freigabe ist der bewährte Weg. Otium setzt auf genau diese Architektur in der otium.arx, ohne dass Daten die Praxis verlassen.
30 Minuten Demo. Mit Ihren echten Beispielen. Ohne Verkaufsmasche.