In der vorliegenden Untersuchung nutzten wir die fortschrittlichen Rechenkapazitäten von Google Colab Pro Plus A100, die mit 40 GB RAM ausgestattet sind. Dies ermöglichte eine methodische Analyse, die sowohl Region of Interest (ROI)- als auch ganze bildbasierte Klassifikationen umfasste. Der experimentelle Aufbau beinhaltete die Verarbeitung von Bildern mit 256×256 Pixeln, gruppiert in Batches von jeweils 32 über einen Zeitraum von 100 Epochen. Unsere Lernparameter wurden fein abgestimmt, um den Lernprozess zu optimieren: Wir wählten eine Lernrate von 0.0001 mit einem Minimum von 0.00001. Um die Effizienz unseres Lernprozesses zu steigern, wendeten wir den Adam-Optimierer an.
Die Klassifikatoren wurden intensiv geschult, um zwischen verschiedenen Klassen in den Bildern zu unterscheiden, insbesondere Diabetic (D), Venous (V), Pressure (P), Surgical (S), Hintergrund (BG) und Normal Skin (N). Weitere Spezifikationen und Ergebnisse zu diesen Klassen werden in den folgenden Abschnitten dieses Papiers bereitgestellt. Als Verlustfunktion wählten wir die Cross-Entropy, aufgrund der multi- und binären Natur unserer Bildklassifikationen. Für multiklassen Probleme ist die Cross-Entropy-Verlustfunktion (Eq. 1) definiert als die Summe der negierten, tatsächlichen Label (yi) multipliziert mit dem Logarithmus der vorhergesagten Wahrscheinlichkeiten für jede Klasse (pi).
In der Primärphase des ROI-Klassifizierungsversuchs ging es um die Klassifizierung von 6 verschiedenen Arten von Wunden, spezifisch: diabetisch, venös, Druck, chirurgisch, BG und N. Anschließend wurden bei der 5-Kategorien-Klassifikation drei Arten von Wundbezeichnungen zusammen mit BG und N berücksichtigt. Bei der 4-Kategorien-Klassifikation wurden die Wunden in eine der vier Klassen (BG, N, sowie zwei verschiedene Wundetiketten) kategorisiert. Für die 3-Kategorien-Klassifikation wurde das Ziel verfolgt, die Wunden in eine der drei Gruppen (D, P, S, V) einzuordnen. Bei binärer Klassifikation wurden verschiedene Kombinationen verwendet, um die Wunden in zwei verschiedene Gruppen zu kategorisieren.
Die Ergebnisse des ROI-Klassifikators ohne Lokalisierung von Wunden variierten je nach Szenario. In der 6-Klassen-Klassifikation betrug die Testgenauigkeit zwischen 80,42% und 85,41%, während in der 5-Klassen-Klassifikation differenzierte Ergebnisse erzielt wurden. In der 2-Klassen-Klassifikation wurde eine Genauigkeit von 100% für bestimmte Kombinationen erreicht. Die Daten wurden zur Modellvalidierung aufgeteilt, wobei das Trainingset exklusiv augmentiert wurde, während das Validierungs- und Testset unverändert blieb.
Die Leistung des Ganze-Bild-Klassifikationsmodells, gemessen an Präzision, Recall und F1-Score, variierte je nach Anzahl der Klassen und den spezifischen Kombinationen. Die Anwendung von Cross-Validation ermöglichte es, das Modell auf verschiedene Datensubsets zu testen und seine Leistung auf unbekannten Daten zu validieren. Die Ergebnisse zeigten, dass die verschiedenen Methoden und die Anzahl der Klassen die Leistung des Modells beeinflussen können.
Um die Robustheit und Zuverlässigkeit unseres Modells zu bewerten, führten wir mehrere Tests mit unterschiedlichen Klassendistributionen auf zwei verschiedenen Datensätzen durch: dem neu erstellten AZH-Datensatz und dem Medetec-Datensatz. Diese Tests zeigten die Konsistenz und Anpassungsfähigkeit unseres Modells unabhängig von Änderungen in der Klassendistribution oder anderen Datensatzmerkmalen. Diese Bestätigung der Robustheit und Zuverlässigkeit des Modells macht es zu einem leistungsstarken Werkzeug für die Datenanalyse.
Hinterlasse eine Antwort