Krankengeschichten zusammenfassen oder das Archiv nach Patienten durchsuchen: Lästige Aufgaben, um die Ärzte nicht herumkommen. Neue Tools könnten in Zukunft Ordnung in die Datenmassen bringen.
Man kann sie lieben, man kann sie hassen, aber es ändert nichts: Die Digitalisierung ist schon längst da. Und auch wenn Deutschland in der Hinsicht noch deutlich hinterherhinkt, macht sie auch vor der Medizin nicht Halt. In der täglichen Arbeit eines Arztes läuft zwar auch vieles noch analog ab, aber Befundtexte, Arztbriefe und Abrechnungen werden inzwischen ebenfalls oft digital verarbeitet und abgespeichert. Bei dieser immer schneller wachsenden Datenflut, ist es schier unmöglich, den Überblick zu behalten. Sollen die Daten auch von Nutzen sein und nicht nur im digitalen Archiv Staub fangen, sind neue und bessere Methoden gefragt, um Informationen auch zu finden, zu sortieren und zusammenzufassen.
Der aktuelle Goldstandard für eine automatisierte Datenverarbeitung sind Programme, die auf Deep Learning basieren. „Deep Learning ist eine Methode des maschinellen Lernens bzw. der künstlichen Intelligenz. Dabei werden bestimmte Computeralgorithmen, sogenannte neuronale Netzwerke, darauf trainiert, komplexe Aufgaben zu lösen. Dies können z.B. die Steuerung eines Fahrzeugs, das Erkennen von Strukturen in Bildern oder die Extraktion von Informationen aus Texten sein“, erklärt Dr. Keno Bressem, Digital Clinician Scientist an der Charité Berlin, im Gespräch mit der DocCheck News Redaktion.
Besonders bei der Textverarbeitung habe sich in den letzten Jahren viel getan. Neue Modelle, Transformer genannt, überträfen alle vorhergegangenen Ansätze. Der Grund dafür ist, dass sie das selbstständige Lernen besonders gut ermöglichen. Sonst bedeutet das Anlernen eines neuronalen Netzwerkes nämlich viel manuellen Aufwand. Bressem erläutert dies so: „Bisherige Ansätze des maschinellen Lernens sind dem überwachten Lernen zuzuordnen. Hierbei werden Daten zuerst von Menschen aufbereitet. Soll z.B. ein neuronales Netzwerk erkennen, ob ein medizinischer Text Informationen über einen Knochenbruch enthält, muss zuerst ein Mensch diese Informationen für das neuronale Netzwerk markieren. Dies wird auch als Annotation bezeichnet. Die neuronalen Netzwerke erlernen anhand dieser annotierten Texte nun die Gesetzmäßigkeiten, die besagen, wann ein Text Informationen zu einem Knochenbruch enthält und können dieses auf neue, nicht annotierte Texte übertragen.“ Ein solches neuronales Netzwerk benötigt eine große Anzahl Texte als Trainingsgrundlage, wenn es wirklich effektiv sein soll – das bedeutet dann Tausende von annotierten Beispielen.
Selbstüberwachtes Training kann das Problem des großen Aufwands lösen. Eine besonders verbreitete Technik für Transformer ist BERT – kurz für Bidirectional Encoder Representations from Transformers – die 2018 von Google-Wissenschaftlern entwickelt wurde. „Hier lernt das neuronale Netzwerk zuerst, Wörter in einem Satz vorherzusagen und zu erkennen, ob zwei Sätze zueinander gehören. Um diese Aufgabe zu lösen, ist ein großes Textverständnis nötig, welches sich das Netzwerk aneignen muss. Das Elegante an der Technik ist, dass keine menschliche Annotation notwendig ist, sondern die gesamte Datenaufbereitung automatisiert erfolgen kann.“ Dadurch sei es ohne Probleme möglich, viele Millionen Texte für das selbstüberwachte Training zu verwenden, führt Bressem weiter aus. Modelle, die auf diese Weise trainiert werden, ließen sich auch viel besser auf nachfolgende Aufgaben, wie z.B. das Erkennen der Nennung eines Knochenbruchs, anpassen. „Es sind zwar noch immer Annotationen von Menschen erforderlich, jedoch deutlich weniger, da das Modell bereits ein sehr gutes Textverständnis hat.“
Viele solcher Transformer werden bereits breit genutzt werden. Beispielsweise helfen sie Google und Co dabei, Suchanfragen in Text- oder gesprochener Form besser zu verstehen und in relevante Ergebnisse zu verwandeln. Für die fachliche Anwendung lässt die Leistung dieser schon fertig trainierten Transformer bisher allerdings zu wünschen übrig, da medizinische Texte sich in Hinblick auf Wortverteilungen und Fachworte deutlich von allgemeinen Texten unterscheiden. Am besten funktionieren die Modelle nämlich, je mehr die „Trainingstexte“ den Texten ähneln, auf die sie nachher angewendet werden. „Ein Modell, das auf medizinischen Fachtexten trainiert wurde, eignet sich besser für medizinische Aufgaben als ein Modell, das beispielsweise auf Zeitungsartikeln oder Wikipedia trainiert wurde“, resümiert Bressem. Ein Modell, das spezifisch mit medizinischen Fachtexten gefüttert wurde, muss also her.
Genau dies ist nun das Ziel eines Projekts der Charité Berlin, welches Dr. Keno Bressem leitet. Codename: GerMedBERT. Anhand von möglichst umfangreichen und diversen Datensätzen soll ein medizinisches BERT-Modell in deutscher Sprache trainiert werden. Bereits jetzt umfasst der Datensatz über 5 Millionen Texte wie radiologische Befundtexte der Charité, doch der Datensatz soll noch weiter ausgeweitet werden, beispielsweise um Operationsberichte, Auszügen aus medizinischen Fachbüchern und auch Lexikoneinträge. Denn es gilt: Je breiter der Datensatz, desto vielseitiger sind auch die späteren Anwendungsmöglichkeiten. Das trainierte BERT-Modell dient dann als Basis, das für verschiedene Anwendungen angepasst werden kann.
Bressem sieht viele Wege, wie das für Mediziner von Nutzen sein könnte: „Es gibt zum einen die simple Zuordnung von Texten zu einem Themengebiet (Klassifikation) oder die Identifikation von Wortgruppen (Erwähnung eines Knochenbruchs). Die neuronalen Netzwerke können jedoch auch Paragraphen identifizieren, die eine von Menschen gestellte Frage beantworten, Texte zusammenfassen oder sogar neue Texte generieren. In der Medizin könnten die Modelle dafür eingesetzt werden, Befundtexte zu strukturieren und somit eine bessere Datenerhebung ermöglichen.“
Ärzte in Klinik und Niederlassung würden also profitieren, indem Informationen schneller verfügbar gemacht werden könnten oder aufwändige Aufgaben automatisiert werden könnten. „Die Abrechnung in Praxen und Krankenhäusern kann optimiert werden, indem die Modelle die Prozeduren in den klinischen Dokumenten selbständig identifizieren und codieren. Auch die Zusammenfassung von langen Krankheitsgeschichten bezogen auf den aktuellen Grund des Aufenthalts ist eine Anwendungsmöglichkeit, die die Zeiteffizienz in der klinischen Routine steigern kann.“
Auch über reine Texte hinaus sind Anwendungen denkbar; die Modelle ließen sich perspektivisch beispielsweise auch auf Bild- oder Labordaten ausweiten, erläutert Bressem. „Hier könnten sie dabei helfen, alle Informationen zu Patienten zu einer sogenannten Repräsentation zu kombinieren. Diese Patienten-Repräsentationen hätten Anwendung in der personalisierten Medizin und würden zu einer schnelleren Diagnosestellung und individualisierten Behandlung beitragen. Aktuell ist dies aber noch Gegenstand intensiver Forschung.“
Noch steckt das System in der Entwicklung, daher werden sich Ärzte also noch ein bisschen gedulden müssen, bis GerMedBERT ihnen unter die Arme greifen kann. „Erste Systeme zur Abrechnungsoptimierung werden aktuell entwickelt und sind sicherlich in wenigen Jahren bereits im kommerziellen Einsatz. Weitere Anwendungen, welche potentiell Einfluss auf die Behandlung haben werden, brauchen wahrscheinlich noch etwas länger, da diese zuerst ausgiebig getestet und zertifiziert werden müssten. Größere Visionen, wie die Patienten-Repräsentationen haben einen längeren Zeithorizont.“
Bildquelle: Lorenzo Herrera, Unsplash