Blog
Schatten-KI in der Ordination: Warum ChatGPT kein Ersatz für spezialisierte Dokumentationssoftware ist
ChatGPT in der Ordination: Warum das ein Datenschutzverstoß ist, welche Konsequenzen drohen – und welche Alternativen es gibt.
Viele Ärztinnen und Ärzte kennen die Situation: Eine Konsultation ist abgeschlossen, die Dokumentation wartet, und ChatGPT ist nur einen Klick entfernt. Ein paar Stichworte eingeben, den Text formulieren lassen, fertig. Schnell, bequem – und rechtlich problematisch. Was in der Praxis als harmlose Arbeitserleichterung gilt, ist in Wirklichkeit ein Datenschutzverstoß mit konkreten Konsequenzen.
Was „Schatten-KI“ bedeutet
Der Begriff bezeichnet den ungeregelten, privaten Einsatz von KI-Tools im beruflichen Kontext – ohne Wissen der verantwortlichen Stelle, ohne vertragliche Grundlage, ohne Datenschutzprüfung. Im medizinischen Bereich betrifft das vor allem allgemeine KI-Assistenten wie ChatGPT, Google Gemini oder ähnliche öffentlich zugängliche Dienste, die Ärztinnen und Ärzte privat für die Formulierung von Arztbriefen, Befundberichten oder Gesprächsnotizen verwenden.
Aktuelle Berichte aus dem Gesundheitswesen zeigen: Der Einsatz solcher Tools ist weit verbreitet. Die wenigsten Nutzerinnen und Nutzer sind sich dabei bewusst, welche rechtlichen Risiken sie eingehen.
Das rechtliche Problem
Patientendaten sind besonders schützenswert
Gesundheitsdaten gehören gemäß DSGVO (Art. 9) zur sensibelsten Datenkategorie überhaupt. Ihre Verarbeitung ist grundsätzlich verboten – mit eng definierten Ausnahmen. Eine dieser Ausnahmen ist die Verarbeitung zum Zweck der medizinischen Versorgung, aber nur unter strengen Voraussetzungen: geeignete Schutzmaßnahmen, professionelle Geheimhaltungspflicht, und eine rechtskonforme technische Infrastruktur.
ChatGPT und vergleichbare öffentliche KI-Dienste erfüllen diese Voraussetzungen nicht.
Kein Auftragsverarbeitungsvertrag – kein rechtlicher Schutz
Sobald Patientendaten an einen externen Dienstleister weitergegeben werden – und genau das passiert wenn Sie Text mit Patientenbezug in ChatGPT eingeben – ist ein Auftragsverarbeitungsvertrag (AVV) gemäß Art. 28 DSGVO zwingend erforderlich. Dieser Vertrag regelt wie der Dienstleister mit den Daten umgeht, wo sie gespeichert werden und wie sie gelöscht werden.
OpenAI, der Betreiber von ChatGPT, bietet für die kostenlose und die Standard-Version keinen AVV für medizinische Anwendungsfälle an. Ohne AVV ist die Weitergabe von Patientendaten rechtswidrig – unabhängig davon ob Sie Namen anonymisieren oder nicht.
Anonymisierung schützt Sie nicht ausreichend
Ein häufiges Gegenargument: „Ich gebe ja keine Namen ein, nur den Befund.“ Das reicht rechtlich nicht. Daten gelten als personenbezogen wenn eine Person mit vertretbarem Aufwand identifiziert werden kann – auch ohne Namen. Alter, Diagnose, Behandlungsdatum, Wohnort: Diese Kombination kann ausreichen um eine Person eindeutig zu identifizieren. Echte Anonymisierung im rechtlichen Sinne ist deutlich schwieriger als das Weglassen des Namens.
Ärztliche Schweigepflicht
Zusätzlich zur DSGVO gilt in Österreich die ärztliche Schweigepflicht gemäß § 121 StGB. Sie untersagt die unbefugte Weitergabe von Patienteninformationen an Dritte. Die Eingabe von Patientendaten in ein öffentliches KI-System ist eine solche Weitergabe – auch wenn sie unbeabsichtigt oder aus praktischen Erwägungen heraus erfolgt.
Was bei einem Verstoß droht
Die Konsequenzen sind nicht abstrakt. Die österreichische Datenschutzbehörde kann bei DSGVO-Verstößen Bußgelder von bis zu EUR 20 Millionen oder 4 % des weltweiten Jahresumsatzes verhängen. Für eine Einzelordination ist das existenzbedrohend. Hinzu kommt das Risiko zivilrechtlicher Klagen betroffener Patienten sowie berufsrechtlicher Konsequenzen durch die Ärztekammer.
In der Praxis werden Verstöße oft durch Patienten entdeckt – etwa wenn jemand gezielt überprüft wie seine Daten verarbeitet wurden. Das Recht auf Auskunft gemäß DSGVO gibt jedem Patienten das Werkzeug dazu.
Die richtige Alternative
Der Wunsch nach schnellerer Dokumentation ist berechtigt. Das Problem ist nicht die KI – das Problem ist die falsche KI.
Spezialisierte Dokumentationssoftware für Ärzte löst dasselbe Problem wie ChatGPT – schnellere, bessere Texte – aber auf einer rechtlich sauberen Grundlage:
- Auftragsverarbeitungsvertrag ist automatisch enthalten
- Serverstandorte ausschließlich in der EU
- Kein Audio und keine Patientendaten werden für KI-Training verwendet
- Optimiert für medizinische Fachsprache statt für allgemeine Texte
Der Unterschied im Alltag ist minimal – der Unterschied im Datenschutz ist fundamental.
Fazit
ChatGPT ist ein leistungsfähiges Tool – aber kein geeignetes Werkzeug für die medizinische Dokumentation. Nicht weil die Textqualität schlecht wäre, sondern weil die rechtliche Grundlage fehlt. Wer Patientendaten in öffentliche KI-Systeme eingibt, riskiert Bußgelder, Klagen und berufsrechtliche Konsequenzen – auch wenn es nur um die Formulierung eines Arztbriefs geht.
Die gute Nachricht: Es gibt Alternativen die denselben Komfort bieten und dabei vollständig DSGVO-konform sind. Der Umstieg ist einfacher als er klingt.
Noelia – DSGVO-konforme KI-Dokumentation für österreichische Ordinationen
Noelia ist eine browserbasierte KI-Dokumentationssoftware die speziell für den österreichischen Ordinationsalltag entwickelt wurde. Alle Daten werden ausschließlich auf EU-Servern verarbeitet, kein Audio wird gespeichert, und Patientendaten fließen nie in das Training von KI-Modellen ein. Der Auftragsverarbeitungsvertrag ist automatisch bei der Registrierung enthalten.
Noelia ist ab EUR 29 pro Monat erhältlich, monatlich kündbar, ohne Einrichtungsgebühr. Einen 14-tägigen Testzugang ohne Kreditkarte finden Sie unter noelia.at.
Alle rechtlichen Angaben ohne Gewähr, Stand April 2026. Dieser Artikel ersetzt keine Rechtsberatung.
