Computer vision ermöglicht die taxonspezifische Identifizierung von afrikanischen Raubtierzahnspuren an Knochen – Scientific Reports

Computer vision ermöglicht die taxonspezifische Identifizierung von afrikanischen Raubtierzahnspuren an Knochen – Scientific Reports

In dieser Studie wurden insgesamt 1256 Zahnspuren, einschließlich Zahngruben und Einschnitten, für die Analyse verwendet. Ziel dieses experimentellen Arbeiten war es, eine solide Datenbank mit Referenzbildern für die vier häufigsten rezenten Raubtiere bereitzustellen, die als potenzielle Interaktionen mit Homininen in der afrikanischen Vergangenheit interpretiert wurden: Löwen, Leoparden, Hyänen und Krokodile. Die Zahnspuren sind wie folgt aufgeteilt: Löwen (n=264), Leoparden (n=544), Hyänen (n=364) und Krokodile (n=84). Um die Bildqualität zu verbessern, wurde eine neue Bildbank erstellt, die mit einem Leica Emspira 3-Digitalmikroskop erstellt wurde, das sowohl bidimensionale als auch dreidimensionale Bilder erfassen kann. Die Zahnspuren wurden in Farbfotos unter variablem Vergrößerungsfaktor für Gruben (zwischen x7 und x60, je nach Größe der Marke) und systematisch unter x30-Vergrößerungsfaktor für Einschnitte fotografiert.

Die meisten experimentellen Proben waren neu und stammten von Kadavern kleiner (Ziege, Schaf, Wildschwein, Schwein), mittelgroßer (Hirsch) und großer Tiere (Kühe), die für die Experimente verwendet wurden. Experimentelle Serien mit Hyänen umfassten vier Fleckenhyaenen, die von der privaten Madrid Safari Reserve stammten. In Experimenten mit Löwen wurden drei erwachsene asiatische Löwen aus dem Zoo Madrid genutzt. Für Experimente mit Leoparden wurden drei Persische Leoparden aus dem Zoo Madrid genutzt. Experimente mit Krokodilen wurden mit Weibchen unterschiedlicher Größe im Faunia-Zoo in Madrid durchgeführt. Die Knochenreinigung erfolgte durch Abkochen der Kadaverreste in Wasser und Einlegen in eine Lösung aus Wasser und Wasserstoffperoxid für 24 Stunden.

Für die Analyse der Zahnspuren wurde ein Deep-Learning-Computervisionsansatz verwendet, der auf der Verwendung von zweidimensionalen Bildern von Zahnspuren basiert, die mit Vergrößerung aufgenommen wurden. Hierbei wurden Transfer-Learning-Architekturen verwendet, die auf vorherig trainierten Modellen beruhen. Die Modelle wurden mit Bildaugmentierung trainiert, um die Ergebnisse zu verbessern. Die Deep Convolutional Neural Networks (DCNN) wurden unter Verwendung von Keras API mit einem TensorFlow-Backend erstellt. Die Modelle wurden auf einer GPU HP Z6 Workstation mit einem CUDA-Computingumfeld ausgeführt. Vor der Auswahl von Aktivierungsfunktion und Optimierer wurde eine explorative Verwendung von TL-Modellen mit verschiedenen Kombinationen durchgeführt.

Zur Evaluierung der Klassifizierungsprozesse wurden Genauigkeit und F1-Scorewerte verwendet. Die Modelle wurden mit einer Dropout-Rate von 30% trainiert und zeigten Regularisierungseffekte, um eine Überanpassung an die Trainingsdaten zu vermeiden. Alle Bilddaten und der Code sind in einem öffentlichen Repository verfügbar.