Radiomic- und Deep-Learning-Analyse von Dermoskopiebildern zur Dekodierung von Hautläsionsmustern – Wissenschaftliche Berichte

Radiomic- und Deep-Learning-Analyse von Dermoskopiebildern zur Dekodierung von Hautläsionsmustern – Wissenschaftliche Berichte

Die Segmentierung von Hautläsionen erfolgte mithilfe eines vortrainierten Mask R-CNN-Modells, das ursprünglich auf dem Common Objects in Context (COCO)-Datensatz trainiert wurde. Das Modell erreichte nach 86 Trainingsepochen eine IoU von 96,3% für den ISIC-Datensatz und hohe Werte für andere Datensätze. Ein Vergleich zwischen Modellen, die auf COCO und ImageNet vortrainiert wurden, zeigte, dass das COCO-Modell eine schnellere Konvergenz und bessere Leistung aufwies, insbesondere bei der Segmentierung verschiedener Objekttypen.

Radiomische Signaturen zur Unterscheidung von Mustern in Hautläsionen wurden mithilfe von 102 quantitativen Bildattributen analysiert und visualisiert. Die integrierte Analyse der Radiomik zeigte deutliche Unterschiede in Textur-, Form- und Intensitätsattributen, was auf interne und externe Korrelationsmuster hindeutet. Die SHAP-Analyse identifizierte wesentliche Attribute, die die Mustervorhersage beeinflussen.

Ein ResNet-50-Modell wurde für die Klassifikation von Dermatoskopiebildern trainiert und Radiomikattribute in das Modell integriert, was zu einer Präzisions-Recall-Analyse und einer Verwirrungsmatrix führte. Die Ergebnisse zeigten hohe diagnostische Genauigkeit und Klassifikationsraten für verschiedene Hautläsionstypen, wobei potenzielle Verbesserungsbereiche identifiziert wurden. Das hybride System erzielte beeindruckende Ergebnisse bei der Vorhersage von Hautläsungsmustern über verschiedene Datensätze hinweg.

Vergleichende Analysen mit führenden Modellen zeigten, dass das vorgeschlagene System eine höhere Genauigkeit, Sensitivität und Spezifität aufwies als andere Ansätze. Die Ablationsstudien zur Musterdecodierung zeigten, dass die Integration von Metadaten und radiomischen Merkmalen die diagnostische Genauigkeit signifikant verbesserte. Die Multimodalität des Systems führte zu signifikanten Verbesserungen bei der Melanomdiagnose und der Klassifikation von benignen und malignen Läsionen, was die Bedeutung der Integration verschiedener Datenmodalitäten betonte.