Ärztinnen und Ärzte verbringen durchschnittlich 61 Arbeitstage pro Jahr mit Dokumentationsarbeit: Befunde diktieren, Arztbriefe schreiben, Patientenakten pflegen. Gleichzeitig sitzen im Wartezimmer viele Patient:innen, die auf ein möglichst ausführliches Gespräch warten. Wie kann Künstliche Intelligenz hier überhaupt helfen=
Die Antwort erfordert einen ehrlichen Blick auf das, was heute möglich ist, was unsere DSGVO verlangt, der EU AI Act und wo Ärztinnen und Ärzte aufpassen müssen.
Wo KI heute tatsächlich hilft
Die nützlichsten KI-Anwendungen in der Ordination sind nicht die spektakulären sondern Werkzeuge, die den administrativen Ballast reduzieren.
Dokumentation: KI-gestützte Systeme transkribieren das Arzt-Patienten-Gespräch in Echtzeit. Die Software erkennt medizinische Fachbegriffe, strukturiert das Gesagte in Anamnese, Befund und Procedere und übergibt das Ergebnis an das Praxisverwaltungssystem. Die Ärztin prüft, korrigiert und gibt frei. Statt zwanzig Minuten Nacharbeit pro Patient bleiben drei. Das funktioniert auch bereits mit lokalen Modellen, ohne Datenschutzprobleme.
Befundvorbereitung: Eingescannte Arztbriefe, Fremdbefunde und Labordaten lassen sich automatisiert auslesen, dem richtigen Patienten zuordnen und zusammenfassen. Die KI ersetzt nicht die ärztliche Bewertung. Sie liefert aber eine saubere Grundlage, auf der die Bewertung schneller gelingt.
Patientenkommunikation: Automatisierte E-Mail-Entwürfe, Terminvergabe, Erinnerungen. Nicht aufregend, aber in einer Praxis mit 80 Terminen pro Tag ein echter Zeitgewinn.
Prüfungsvorbereitung und Fortbildung: KI kann als Lernpartner genutzt werden, der Fachfragen stellt, Antworten erklärt und komplexe Zusammenhänge auf den Punkt bringt.
Was KI nicht kann
Eine klare Grenze vorweg: KI ersetzt keine ärztliche Diagnose. Ein Large Language Model, so gut es trainiert sein mag, generiert Text auf Basis von Wahrscheinlichkeiten. Zwar immer besser und mittlerweile mit Gedächtnisfunktionen sowie inneren Korrekturmechanismen. Aber für eine fundierte Diagnose braucht es am Ende immer noch einen Arzt bzw. eine Ärztin.
Drei konkrete Schwächen, die im Praxisalltag relevant sind:
KI halluziniert: Sie erfindet Fakten, die plausibel klingen, aber falsch sind. Bei einem Blogtext fällt das kaum auf. Bei einem Medikament oder einer Dosierung kann es gefährlich werden. Jedes KI-generierte Dokument muss also geprüft werden.
KI kennt keine aktuellen Leitlinien: Die Trainingsdaten der meisten Modelle enden Monate vor dem heutigen Tag. Neue Studien, geänderte Dosierungsempfehlungen oder aktualisierte Leitlinien kennt die KI nicht. Natürlich kann sie etwa mit einem RAG-System mit aktuellen Daten gefüttert werden, aber auch diese sind immer nur so aktuelle, wie sie eingepflegt worden sind. Auch eine Anbindung an die Websuche kann diese Probleme nicht lösen. Vor allem nicht, wenn es im medizinischen Kontext Zugang zu Studien und Fachpublikationen braucht.
KI versteht keinen Kontext: Ein Modell verarbeitet, was man ihm gibt. Wenn ein Patient beiläufig erwähnt, dass er schlecht schläft, könnte das übersehen werden. Eine erfahrene Ärztin könnte aber hier schon wieder wichtige Informationen im Kontext begreifen und andere Maßnahmen setzen. Natürlich lernen Modelle derzeit mit diesen Problematik umzugehen, aber man sollte sich nicht alleine auf deren Ergebnisse und Vorschläge verlassen.
Das Datenschutz-Problem: Größer als gedacht
Gesundheitsdaten gehören zu den sensibelsten Daten überhaupt. Die DSGVO stuft sie als besondere Kategorie personenbezogener Daten ein (Artikel 9). Das hat konkrete Konsequenzen für den KI-Einsatz in der Ordination.
Wo werden die Daten verarbeitet? Wer ein Patientengespräch durch ein KI-System transkribieren lässt, schickt hochsensible Informationen an einen Server. Die zentrale Frage: Wo steht dieser Server? Wenn die Antwort „USA" oder „unklar" lautet, ist der Einsatz nicht DSGVO-konform. Serverstandort muss die EU sein – ohne Ausnahme. Deshalb ist es besser von Beginn an auf lokale Modelle zu setzen, zumindest wo das möglich ist. Denn um ein so großes LLM wie ChatGPT oder Claude lokal auszuführen, bräuchte man ein Datenzentrum (abgesehen davon, dass das bei manchen Modellen gar nicht möglich ist). Insofern ist es am besten schon im Analyseprozess zu schauen, ob man nicht auch mit kleineren Modellen auskommt, die auf der Hardware in der Praxis vor Ort oder einem nicht allzu teuren Server laufen kann.
Auftragsverarbeitungsvertrag (AVV): Pflicht nach DSGVO. Ohne AVV mit dem KI-Anbieter darf keine Verarbeitung stattfinden. Viele Ärztinnen und Ärzte nutzen bereits ChatGPT oder ähnliche Tools. Wenn das ohne AVV, ohne Datenschutzfolgenabschätzung, ohne Information der Patientinnen und Patienten geschieht ist das ein Rechtsverstoß, auch wenn es aktuell noch nicht flächendeckend kontrolliert wird.
Patienteneinwilligung: Wenn KI in der Dokumentation eingesetzt wird, müssen Patientinnen und Patienten darüber informiert werden. Bei Hochrisiko-Anwendungen (Diagnostik, Therapieentscheidungen) braucht es eine ausdrückliche Einwilligung.
Der EU AI Act: Seit Februar 2025 in Kraft. Er verlangt unter anderem, dass alle Mitarbeitenden, die mit KI arbeiten, im sachgemäßen Umgang geschult sind. Das betrifft auch Ordinationsassistentinnen und Assistenten.
Lokale Modelle: Die datenschutzfreundliche Alternative
Es gibt, wie bereits erwähnt, einen Weg, KI zu nutzen, ohne Patientendaten an externe Server zu schicken. Lokale KI-Modelle laufen direkt auf dem eigenen Rechner oder einem Server in der Praxis. Keine Daten verlassen das Haus.
Der Nachteil: Die Einrichtung erfordert technisches Wissen. Die Modelle sind weniger leistungsfähig als die großen Cloud-Lösungen. Und sie brauchen leistungsstarke Hardware.
Der Vorteil: Volle Kontrolle über die Daten. Keine Abhängigkeit von US-Anbietern. Keine Grauzonen beim Datenschutz.
Für Ordinationen, die regelmäßig mit sensiblen Patientendaten ist das eine ernstzunehmende Option. Wir setzen in unseren Workshops auf eine Kombination: Cloud-Modelle für unkritische Aufgaben (allgemeine Recherche, Fortbildungsfragen), lokale Modelle für alles, was Patientendaten berührt.
Wo stehen österreichische Ordinationen heute?
Die meisten Praxen nutzen KI noch nicht systematisch. Einzelne Ärztinnen und Ärzte experimentieren mit ChatGPT für Befundtexte oder Arztbriefe. Aber strukturiert, DSGVO-konform und mit klarem Governance-Rahmen? Das ist die Ausnahme.
Die Gründe dafür sind nachvollziehbar: Zeitmangel, fehlende Orientierung, Unsicherheit beim Datenschutz und ein Markt voller Anbieter, die alles versprechen. Viele Kolleginnen und Kollegen wissen schlicht nicht, wo sie anfangen sollen.
Genau hier setze ich an: Gemeinsam mit einem Partnerunternehmen habe ich Workshops entwickelt, die speziell auf Ärztinnen und Ärzte zugeschnitten sind. Keine überflüssige Theorie. Stattdessen: konkrete Lösungen vor Ort, DSGVO-konforme Setups und die Möglichkeit, verschiedene Werkzeuge direkt auszuprobieren.
Fünf Fragen, die jede Ärztin und jeder Arzt stellen sollte
Wo werden meine Daten verarbeitet und steht der Server in der EU bzw. ist es ein europäischer Anbieter (noch besser)?
Gibt es einen Auftragsverarbeitungsvertrag mit dem Anbieter?
Was passiert mit den Daten nach der Verarbeitung: werden sie gespeichert, für Training verwendet oder gelöscht?
Wie informiere ich meine Patientinnen und Patienten über den KI-Einsatz?
Wer in meinem Team ist im Umgang mit KI geschult und wie dokumentiere ich das?
Wenn ein Anbieter diese Fragen nicht sofort beantworten kann, ist Vorsicht geboten.
Der nächste Schritt
KI wird auch die Medizin verändern. Die Frage ist nicht ob, sondern wie. Ärztinnen und Ärzte, die sich jetzt mit dem Thema beschäftigen, gestalten diese Veränderung mit. Die anderen werden sie irgendwann nachholen müssen, womöglich unter Zeitdruck und mit weniger Wahlmöglichkeiten.
Wenn Sie wissen wollen, wie der Einstieg für Ihre Praxis aussehen könnte: Ich stelle Ihnen unser Workshop-Konzept gerne in einem kurzen Gespräch vor.