Generalizing deep Learning methods for volumetric medical image analysis
Vorschaubild nicht verfügbar
Datum
2025
Autor:innen
Betreuer:innen
Zeitschriftentitel
ISSN der Zeitschrift
Bandtitel
Verlag
Zusammenfassung
The emergence of volumetric CT and MRI imaging technologies has dramatically improved
clinical diagnostics and research, enabling visualization of body parts and organs in three
dimensions. Deep learning, with its fundamental principles invented in the last century,
has become a de facto standard for the automated processing of medical images, supporting
clinicians in image interpretation and diagnosis. However, despite their widespread success,
deep learning methods often achieve inferior results when applied in clinical practice compared
to the training stage. This drop in performance is caused by the shifted properties of the images
used during the deep learning models’ training and the images encountered later at the time
of inference, combined with the models’ insufficient generalization capabilities. The shift in
data properties to which the models fail to generalize may not be foreseen, and problematic
image differences for the deep learning algorithms may be invisible to the human eye and not
understandable by well-trained radiologists who can reliably diagnose patients’ conditions.
In this thesis, four methods for volumetric medical imaging are presented that reliably
generalize. It is researched in which areas and on which levels the generalization for volumetric
medical images can be enabled and improved. The developed methods cover various fields
of application, such as cardiac, abdominal, spinal, and brain volumetric medical imaging.
Generalization was enabled by modeling acquisition processes for cardiac shape reconstruction,
by effectively combining generalization and adaptation paradigms to overcome CT to MRI
image intensity differences, by harnessing image registration in combination with loss-based
modifications for generalizing segmentation of brain tumors across differently weighted MRI
images, and by model parameter design modifications targeting the inner units of deep learning
architecture to infer results from rotated or reflected input data reliably. All methods proved to
work even for small-scale datasets with far less than one hundred samples, proving the efficiency
of the methodological contributions as an alternative to following the trend of increasing dataset
sizes and along with additional computational effort during training.
Beschreibung
Die Möglichkeiten der klinische Diagnostik und Forschung haben sich mit dem Aufkommen
der volumetrischen CT- und MRT-Bildgebung, die eine dreidimensionale Darstellung von
Körperteilen und Organen ermöglicht, drastisch verbessert. Deep Learning ist inzwischen zum
Standard für die automatisierte Verarbeitung medizinischer Bilder geworden und unterstützt
KlinikerInnen bei deren Interpretation und der Diagnose von Krankheiten. Trotzdem erzielen
Deep-Learning-Methoden bei der Anwendung im klinischen Alltag oft schlechtere Ergebnisse
als während der Trainingsphase. Dieser Leistungsabfall wird durch veränderte Eigenschaften
der Eingabebilder, die beim Training der Deep-Learning-Modelle, und der Bilder, die später
bei der Inferenz verwendet werden, in Verbindung mit unzureichend generalisierender Modelle
verursacht. Bildunterschiede, auf welche die Modelle nicht generalisieren können, sind nicht
unter allen Umständen vorhersehbar und können mitunter für das menschliche Auge unsichtbar
sein. Gut ausgebildete RadiologInnen, die selbst auf vielfältigen Bildern valide Diagnosen
stellen können, sind jedoch auf die Zuverlässigkeit und Interpretierbarkeit der Ergebnisse
angewiesen.
In dieser Arbeit werden vier Deep-Learning-Methoden zur volumetrischen medizinischen
Bildverarbeitung vorgestellt, die zuverlässig auf Bilddaten generalisieren. Die Arbeit zeigt,
in welchen Bereichen und auf welchen Ebenen die Generalisierung für volumetrische medi-
zinische Bilder ermöglicht und verbessert werden kann. Die entwickelten Methoden decken
verschiedene Anwendungsbereiche wie die medizinische Bildgebung von Herz, Abdomen,
Wirbelsäule und Gehirn ab. Generalisierung für die Form-Rekonstruktion von Herzkammern
auf Basis weniger Schichtbilder von MRT-Aufnahmen wurde durch das gemeinsame Mod-
ellieren einer Deep-Learning-Pipeline und des MRT-Aufnahmeprozesses ermöglicht. Die
effektive Kombination von generalisierendem Training und Modellanpassung auf Einzelscans
zur Inferenzzeit wurde verwendet, um Organe zuverlässig auch unter Intensitätsverschiebungen
zwischen CT- und MRT-Bildern zu segmentieren. Gewichtungsfaktoren für Ungenauigkeiten
in Pseudo-Grundwahrheiten wurden in die Verlustfunktion während des Trainings von Segmen-
tierungsmodellen integriert, um die Qualität der zwischen verschieden gewichteten MRT-Bildern
übertragenen Label zu bewerten. Durch Designmodifikationen auf Ebene der Modellparameter,
wurde eine stabile, generalisierende Inferenz auf rotierten oder gespiegelten Eingabebilddaten
bei gleichzeitiger Verringerung des Rechenaufwands erreicht. Alle Methoden haben sich im
Training mit kleinen Datensätzen mit weit weniger als hundert Trainingsbildern als effektiv
erwiesen, was die Effizienz der methodischen Entwicklungen beweist.
Schlagwörter
Generalization, Deep learning, Medical Image Analysis
Zitierform
Institut/Klinik
Institut für Medizinische Informatik