Anerkennung von handgewebten Stoffen mit Deep Learning – Wissenschaftliche Berichte

Anerkennung von handgewebten Stoffen mit Deep Learning – Wissenschaftliche Berichte

Für unsere Studie haben wir hochauflösende Bilder von Segmenten von “Gamucha” mit einer vordefinierten Methodik erhalten. Wir haben Bilder von 200 Stücken erfasst, mit einer gleichmäßigen Verteilung von 100 aus Handweberei und 100 aus Maschinenweberei-Klassen. Zwei verschiedene Smartphone-Modelle (iPhone 12 und Xiaomi 11i) wurden verwendet, um Quellvariationen zu berücksichtigen. Externe Faktoren wie Beleuchtung, Fokus und Verzerrung wurden während der Bildaufnahme berücksichtigt. Detaillierte Kamera-Spezifikationen sind in einer Tabelle bereitgestellt.

Für die Datensammlung haben wir sorgfältig methodische Schritte wie Quellenvalidierung, Bildaufnahme, Zuschneiden und Größenänderung, Datenaufteilung und Bildaugmentierung durchgeführt. Die Datensammlung erfolgte von verschiedenen Gewebezentren für Handweberei und Lagerbeständen für Maschinenweberei. Mehrere Bilder wurden von jedem “Gamucha” erfasst und in verschiedene Perspektiven geschnitten und verkleinert. Diese Datensätze wurden dann auf Trainings- und Validierungsdaten aufgeteilt. Bildaugmentierungstechniken wurden angewendet, um die Datenvielfalt zu verbessern und die Generalisierung des Modells zu fördern.

In der Studie wurden sechs verschiedene Deep-Learning-Architekturen untersucht, darunter VGG16, VGG19, ResNet50, InceptionV3, InceptionResNetV2 und DenseNet201. Jedes Modell wurde mit annotierten Bildrepositorien von Handweberei- und Maschinenweberei-“Gamuchas” trainiert. Der Schwerpunkt lag darauf, eine effiziente Lösung für das Klassifizierungsproblem zu finden. Ein benutzerdefiniertes Modell namens “Gamucha.AI” wurde entwickelt, basierend auf dem VGG16-Modell. Das Modell wurde in verschiedenen Iterationen modifiziert, um Überanpassungen und Verzerrungen zu verhindern.

Die Evaluierung basierte auf verschiedenen Metriken wie Genauigkeiten, Verlusten, Präzision, Recall, Sensitivität, Spezifität und F1-Score. Die Modelle wurden von Grund auf mit dem Adam-Optimizer trainiert. Die vorgeschlagene Mobile-App wurde mit Flutter erstellt und folgt einem Workflow zur Erfassung, Verarbeitung und Anzeige von Gamucha-Bildern. Die App ermöglicht die automatische Erfassung von Bildern, den Upload auf einen Server zur Vorverarbeitung und die Inferenz eines trainierten AI-Modells. Der Benutzer erhält schließlich das Ergebnis der Klassifizierung auf seinem Gerät, ohne dass Bilder auf dem Server gespeichert werden.