Studie belegt: KI-Sprachmodelle schreiben gute Arztbriefe

Künstliche Intelligenz kann die Medizin-Dokumentation deutlich erleichtern

Bestes Modell liefert 93,1 Prozent verwendbare Dokumente / Potenzial zur Entlastung medizinischer Fachkräfte / Einsatz bereits im Regelbetrieb


Forscher*innen des Universitätsklinikums Freiburg haben die Eignung großer Sprachmodelle (LLMs) für die Erstellung medizinischer Dokumentationen im deutschen Gesundheitswesen untersucht. Im Vergleich von vier Sprachmodellen zeigte sich, dass die besten Ergebnisse mit einem nicht-kommerziellen Modell erreicht wurden. Hier konnten 93,1 Prozent der Berichte mit nur minimalen Anpassungen genutzt werden. Die Studie, die am 28. August 2024 im Journal JMIR Medical Informatics veröffentlicht wurde, unterstreicht das Potenzial solcher Modelle zur Vereinfachung der Dokumentationsprozesse und damit zur Entlastung von Ärzt*innen und Pflegepersonal. Am Universitätsklinikum Freiburg wird die KI-Software bereits zum Teil im Regelbetrieb eingesetzt.

„Unsere Ergebnisse zeigen, dass speziell für die deutsche Sprache trainierte Modelle wertvolle Unterstützung bei der Erstellung von medizinischen Berichten leisten können. Das könnte die Arbeitsabläufe im Klinikalltag deutlich erleichtern“, sagtStudienleiter Dr. Christian Haverkamp, kommissarischer Direktor des Instituts für Digitalisierung in der Medizinam Universitätsklinikum Freiburg.

„Der KI-Arztbrief ist ein hervorragendes Beispiel dafür, wie viel Potenzial KI-Anwendungen in der Medizin haben. Für solche Lösungen brauchen wir kluge Köpfe, die bereit sind, zu experimentieren und Neues zu entwickeln. Ich freue mich, dass wir am Universitätsklinikum Freiburg eine Umgebung geschaffen haben, die diese Aktivitäten stark fördert“, sagt Prof. Dr. Frederik Wenz, Leitender Ärztlicher Direktor des Universitätsklinikums Freiburg.

Fortschrittliche Technologien für die klinische Praxis

In der Studie hat Erstautor Felix Heilmeyer, Wissenschaftlicher Mitarbeiter am Institut für Digitalisierung in der Medizininsgesamt 90.000 reale klinische Dokumente aus der Klinik für Augenheilkunde des Universitätsklinikums Freiburg für das Training der Modelle verwendet. Mehrere Sprachmodelle generierten auf dieser Basis Arztbriefe, die anschließend von medizinischem Fachpersonal bewertet wurden. Die Bewertungen zeigten, dass beim Modell BLOOM-CLP-German-Modell 93,1 Prozent der erstellten Dokumente nach geringfügigen Korrekturen für die klinische Anwendung geeignet waren. FormularbeginnFormularende Neben der Wahl des passenden Modells betonen die Forscher*innen, dass dessen Anpassung an den jeweiligen Sprachraum eine entscheidende Rolle für die Praxistauglichkeit spielt.

Drei Stunden Dokumentation täglich

Knapp drei Stunden sind Ärzt*innen Umfragen zufolge täglich mit Dokumentationstätigkeiten beschäftigt. „Die Automatisierung der medizinischen Dokumentation hat das Potenzial, Ärzt*innen wertvolle Zeit zu sparen, die sie direkt den Patient*innen widmen können. An der Klinik für Augenheilkunde nutzen wir bereits im Regelbetrieb ein KI-Tool für das Schreiben von Arztbriefen“, so Prof. Dr. Daniel Böhringer, Initiator der Studie und Oberarzt an der Klinik für Augenheilkunde des Universitätsklinikums Freiburg.

Die größte Herausforderung der Studie bestand darin, sicherzustellen, dass die durch das Sprachmodell generierten Dokumente den hohen Standards der medizinischen Dokumentation in deutscher Sprache entsprechen. „Besonders die Anpassung an spezifische medizinische Fachbegriffe und die Struktur klinischer Berichte stellte eine anspruchsvolle Aufgabe dar, da das Modell sowohl präzise als auch verständliche Texte liefern musste“, so Böhringer.

Originaltitel der Publikation: Viability of Open Large Language Models for Clinical Documentation in German Health Care
DOI: 10.2196/59617
Link zur Studie:JMIR Medical Informatics