Anwendung von Deep Learning und Transfer Learning zur präzisen Erkennung von Hirntumoren – Wissenschaftliche Berichte

Anwendung von Deep Learning und Transfer Learning zur präzisen Erkennung von Hirntumoren – Wissenschaftliche Berichte

Für das Modelltraining verwendeten wir den Hirntumor-Datensatz von Kaggle. Dieser Datensatz umfasst MRT-Bilder von 7.023 Personen, darunter solche mit Hirntumoren und solche ohne. Es gibt Fälle von Meningeomen, Gliomen, Hypophysentumoren und Nicht-Tumoren, wobei jede Kategorie in der Sammlung über 1.600 hochwertige Bilder enthält. Etwa 80% der Bilder werden für das Training verwendet, während 20% für Tests verwendet werden. Die Verteilung der Bilder zeigt, dass es in der Klasse Ohne Tumor etwa 1.800 Bilder, in der Klasse Hypophysentumor 1.757 Bilder, in der Klasse Gliom 1.645 Bilder und in der Klasse Meningeom 1.621 Bilder gibt. Die Daten werden mit vier bekannten Transfer-Learning-Ansätzen, ResNet152, VGG19, DenseNet169 und MobileNetv3, analysiert. Das Modell wird in ein 80% Training- und ein 20% Testset unterteilt. Bildvergrößerungen mit Keras’ ImageDataGenerator werden für das Training verwendet, um das Modell auf eine breite Palette von Variationen vorzubereiten und seine Fähigkeit zur Handhabung neuer Daten zu verbessern.

Die Verwendung von ImageDataGenerator während des Modelltrainings trägt zu einem umfassenderen und vielfältigeren Trainingssatz bei, der dem Modell ermöglicht, besser zu generalisieren. Transfer-Learning-Modelle wie ResNet152, VGG19, DenseNet169 und MobileNetV3 werden für die Bilderkennung eingesetzt. Der ResNet152 verfügt über 152 Schichten und verwendet Residualverbindungen, wodurch es möglich wird, sehr tiefe Netzwerke zu trainieren. VGG19 ist eine Evolution des VGG16 und hat 19 Schichten, während DenseNet169 über dichte Verbindungen und Bottleneck-Schichten verfügt. MobileNetV3 ist für mobile und Edge-Geräte mit begrenzten Ressourcen optimiert. Die Modelle werden für 50 Epochen trainiert und mit dem Adam-Optimizer evaluiert. ResNet152 erreicht eine Validierungs-Genauigkeit von 98,86%, während DenseNet169 die niedrigste Validierungsverluste aufweist und VGG19 und MobileNetV3 vielversprechende Ergebnisse erzielen.

Das Training und die Validierung der Modelle zeigen, dass ResNet152 die beste Leistung erbringt, dicht gefolgt von DenseNet169, VGG19 und MobileNetv3. ResNet152 erreicht eine Validierungsgenauigkeit von 98,86%, während DenseNet169 die niedrigste Validierungsniederlage aufweist und VGG19 und MobileNetv3 vielversprechende Ergebnisse erzielen. MobileNetV3 hat eine stabile Trainingsphase mit minimalen Fluktuationen bei Verlusten. Insgesamt zeigen die Modelle vielversprechende Ergebnisse bei der Klassifizierung von Hirntumor-Imaging.