Zur Blog-Übersicht

Blog

Schatten-KI in der Ordination: Warum ChatGPT kein Ersatz für spezialisierte Dokumentationssoftware ist

ChatGPT in der Ordination: Warum das ein Datenschutzverstoß ist, welche Konsequenzen drohen – und welche Alternativen es gibt.

Viele Ärztinnen und Ärzte kennen die Situation: Eine Konsultation ist abgeschlossen, die Dokumentation wartet, und ChatGPT ist nur einen Klick entfernt. Ein paar Stichworte eingeben, den Text formulieren lassen, fertig. Schnell, bequem – und rechtlich problematisch. Was in der Praxis als harmlose Arbeitserleichterung gilt, ist in Wirklichkeit ein Datenschutzverstoß mit konkreten Konsequenzen.

Was „Schatten-KI“ bedeutet

Der Begriff bezeichnet den ungeregelten, privaten Einsatz von KI-Tools im beruflichen Kontext – ohne Wissen der verantwortlichen Stelle, ohne vertragliche Grundlage, ohne Datenschutzprüfung. Im medizinischen Bereich betrifft das vor allem allgemeine KI-Assistenten wie ChatGPT, Google Gemini oder ähnliche öffentlich zugängliche Dienste, die Ärztinnen und Ärzte privat für die Formulierung von Arztbriefen, Befundberichten oder Gesprächsnotizen verwenden.

Aktuelle Berichte aus dem Gesundheitswesen zeigen: Der Einsatz solcher Tools ist weit verbreitet. Die wenigsten Nutzerinnen und Nutzer sind sich dabei bewusst, welche rechtlichen Risiken sie eingehen.

Das rechtliche Problem

Patientendaten sind besonders schützenswert

Gesundheitsdaten gehören gemäß DSGVO (Art. 9) zur sensibelsten Datenkategorie überhaupt. Ihre Verarbeitung ist grundsätzlich verboten – mit eng definierten Ausnahmen. Eine dieser Ausnahmen ist die Verarbeitung zum Zweck der medizinischen Versorgung, aber nur unter strengen Voraussetzungen: geeignete Schutzmaßnahmen, professionelle Geheimhaltungspflicht, und eine rechtskonforme technische Infrastruktur.

ChatGPT und vergleichbare öffentliche KI-Dienste erfüllen diese Voraussetzungen nicht.

Kein Auftragsverarbeitungsvertrag – kein rechtlicher Schutz

Sobald Patientendaten an einen externen Dienstleister weitergegeben werden – und genau das passiert wenn Sie Text mit Patientenbezug in ChatGPT eingeben – ist ein Auftragsverarbeitungsvertrag (AVV) gemäß Art. 28 DSGVO zwingend erforderlich. Dieser Vertrag regelt wie der Dienstleister mit den Daten umgeht, wo sie gespeichert werden und wie sie gelöscht werden.

OpenAI, der Betreiber von ChatGPT, bietet für die kostenlose und die Standard-Version keinen AVV für medizinische Anwendungsfälle an. Ohne AVV ist die Weitergabe von Patientendaten rechtswidrig – unabhängig davon ob Sie Namen anonymisieren oder nicht.

Anonymisierung schützt Sie nicht ausreichend

Ein häufiges Gegenargument: „Ich gebe ja keine Namen ein, nur den Befund.“ Das reicht rechtlich nicht. Daten gelten als personenbezogen wenn eine Person mit vertretbarem Aufwand identifiziert werden kann – auch ohne Namen. Alter, Diagnose, Behandlungsdatum, Wohnort: Diese Kombination kann ausreichen um eine Person eindeutig zu identifizieren. Echte Anonymisierung im rechtlichen Sinne ist deutlich schwieriger als das Weglassen des Namens.

Ärztliche Schweigepflicht

Zusätzlich zur DSGVO gilt in Österreich die ärztliche Schweigepflicht gemäß § 121 StGB. Sie untersagt die unbefugte Weitergabe von Patienteninformationen an Dritte. Die Eingabe von Patientendaten in ein öffentliches KI-System ist eine solche Weitergabe – auch wenn sie unbeabsichtigt oder aus praktischen Erwägungen heraus erfolgt.

Was bei einem Verstoß droht

Die Konsequenzen sind nicht abstrakt. Die österreichische Datenschutzbehörde kann bei DSGVO-Verstößen Bußgelder von bis zu EUR 20 Millionen oder 4 % des weltweiten Jahresumsatzes verhängen. Für eine Einzelordination ist das existenzbedrohend. Hinzu kommt das Risiko zivilrechtlicher Klagen betroffener Patienten sowie berufsrechtlicher Konsequenzen durch die Ärztekammer.

In der Praxis werden Verstöße oft durch Patienten entdeckt – etwa wenn jemand gezielt überprüft wie seine Daten verarbeitet wurden. Das Recht auf Auskunft gemäß DSGVO gibt jedem Patienten das Werkzeug dazu.

Die richtige Alternative

Der Wunsch nach schnellerer Dokumentation ist berechtigt. Das Problem ist nicht die KI – das Problem ist die falsche KI.

Spezialisierte Dokumentationssoftware für Ärzte löst dasselbe Problem wie ChatGPT – schnellere, bessere Texte – aber auf einer rechtlich sauberen Grundlage:

  • Auftragsverarbeitungsvertrag ist automatisch enthalten
  • Serverstandorte ausschließlich in der EU
  • Kein Audio und keine Patientendaten werden für KI-Training verwendet
  • Optimiert für medizinische Fachsprache statt für allgemeine Texte

Der Unterschied im Alltag ist minimal – der Unterschied im Datenschutz ist fundamental.

Fazit

ChatGPT ist ein leistungsfähiges Tool – aber kein geeignetes Werkzeug für die medizinische Dokumentation. Nicht weil die Textqualität schlecht wäre, sondern weil die rechtliche Grundlage fehlt. Wer Patientendaten in öffentliche KI-Systeme eingibt, riskiert Bußgelder, Klagen und berufsrechtliche Konsequenzen – auch wenn es nur um die Formulierung eines Arztbriefs geht.

Die gute Nachricht: Es gibt Alternativen die denselben Komfort bieten und dabei vollständig DSGVO-konform sind. Der Umstieg ist einfacher als er klingt.

Noelia – DSGVO-konforme KI-Dokumentation für österreichische Ordinationen

Noelia ist eine browserbasierte KI-Dokumentationssoftware die speziell für den österreichischen Ordinationsalltag entwickelt wurde. Alle Daten werden ausschließlich auf EU-Servern verarbeitet, kein Audio wird gespeichert, und Patientendaten fließen nie in das Training von KI-Modellen ein. Der Auftragsverarbeitungsvertrag ist automatisch bei der Registrierung enthalten.

Noelia ist ab EUR 29 pro Monat erhältlich, monatlich kündbar, ohne Einrichtungsgebühr. Einen 14-tägigen Testzugang ohne Kreditkarte finden Sie unter noelia.at.

Alle rechtlichen Angaben ohne Gewähr, Stand April 2026. Dieser Artikel ersetzt keine Rechtsberatung.

Wir nutzen cookieless Website-Analyse ohne PostHog-Cookies. Optionale Cookies und ähnliche Technologien setzen wir nur mit Ihrer Einwilligung ein, unter anderem für erweiterte Analyse und eingebettete Funktionen (z. B. Terminbuchung). Technisch notwendige Cookies werden immer gesetzt. Datenschutzerklärung