Zum Hauptinhalt springen
otium.doc
Ratgeber · 7 Min Lesezeit ·

KI-Halluzinationen im Arztbrief — was sie sind und wie Sie sich schützen

Erfundene Werte, falsche Medikamente, ausgedachte Diagnosen: Wie KI-Halluzinationen entstehen und welche Schritte im Praxisablauf sie zuverlässig abfangen.

Eine KI-Halluzination ist kein technischer Schluckauf, sondern eine Eigenschaft der Sprachmodelle. Sie erzeugen Text, der plausibel klingt — auch dort, wo sie nichts wissen. Im Arztbrief führt das zu erfundenen Laborwerten, falschen Dosierungen oder ausgedachten Vorerkrankungen. Der Effekt: Der Brief liest sich gut, der Inhalt ist falsch.

Dieser Artikel erklärt, wie Halluzinationen entstehen, woran Sie sie erkennen und welche Schritte im Praxisablauf sie verhindern.

Was eine Halluzination technisch ist

Ein Sprachmodell sagt das nächste Wort vorher. Wenn die Eingabe lückenhaft ist und das Modell trotzdem antworten muss, füllt es die Lücke mit dem statistisch wahrscheinlichsten Inhalt. Das Ergebnis sieht wie ein medizinisch korrekter Satz aus — auch wenn der Wert frei erfunden ist.

Beispiele aus realen Tests:

Halluzinationen sind kein seltener Ausreißer, sondern in 1 bis 5 % aller Ausgaben enthalten — abhängig von Modell, Eingabequalität und Prompt-Disziplin.

Welche Brief-Bestandteile besonders gefährdet sind

Nicht alle Teile eines Arztbriefs sind gleich anfällig. Drei Bereiche fallen auf:

Stabil sind dagegen Standardphrasen (Anrede, Schlussformeln, allgemeine Therapieempfehlungen).

„Mein Lieblingsbeispiel: Die KI hat einen Befund ‚unauffällig’ geschrieben, weil sie aus dem Kontext geschlossen hat, dass das passt. Tatsächlich war der Befund pathologisch. Ohne Vier-Augen-Prinzip hätten wir den Brief verschickt.” — Internist aus Hamburg

Drei Schritte, die Halluzinationen abfangen

Im Praxisalltag schützen drei Schritte zuverlässig — vorausgesetzt, sie werden konsequent angewendet.

Was Vorlagen-Modi bringen

Manche Praxis-KI bietet einen Vorlagen-Modus: Der Brief wird aus festen Bausteinen zusammengesetzt, freie Formulierungen sind nur in markierten Feldern erlaubt. Das reduziert die Angriffsfläche für Halluzinationen erheblich, kostet aber Flexibilität.

Empfehlung: Vorlagen-Modus für Standardfälle (Routinekontrollen, DMP-Briefe), freier Modus für komplexe Verläufe — dort aber mit besonderer Sorgfalt bei der Freigabe.

Was bei Cloud-Modellen zusätzlich problematisch ist

Cloud-Modelle (GPT, Claude, Gemini) werden ständig aktualisiert. Eine Version, die heute zuverlässig ist, kann morgen anders halluzinieren. Sie haben keinen Einfluss darauf und keine Versionskontrolle. In der medizinischen Doku ist das ein Strukturproblem.

Lokale Modelle in der otium.arx bleiben dagegen stabil. Updates erfolgen nur, wenn Sie sie einspielen — typischerweise nach interner Validierung.

Was die KI-Anbieter dazu sagen müssen

Bei jedem KI-Anbieter, mit dem Sie sprechen, sollten Sie drei Fragen schriftlich beantwortet bekommen:

Wer auf eine dieser Fragen ausweichend antwortet, hat das Problem nicht gelöst.

Praktischer Hinweis

Halluzinationen lassen sich nicht vollständig ausschließen — aber drastisch reduzieren. Lokale Verarbeitung mit klarer Quellenbindung, Konfidenz-Anzeige und konsequenter Freigabe ist der bewährte Weg. Otium setzt auf genau diese Architektur in der otium.arx, ohne dass Daten die Praxis verlassen.

Otium mit Mikrofon ansehen

30 Minuten Demo. Mit Ihren echten Beispielen. Ohne Verkaufsmasche.

Demo anfordern