Diese Studie analysierte 12.500 TTE-Studien, die zwischen 2016 und 2021 am Yale New Haven Hospital durchgeführt wurden. Die Studien wurden gemäß des Schweregrads der Aortenstenose (AS) in Hinsicht auf die Modelzentwicklung und -bewertung aufgeteilt. Dabei wurden 10.000 Studien aus den Jahren 2016 bis 2020 mit überhöhten AS-Werten für die Modelzentwicklung verwendet, während 2500 Studien aus dem Jahr 2021 als externes Testset dienten. Die Pixel-Daten von 10.865 Studien wurden extrahiert und 9710 Studien enthielten gültige Bilddaten. Nach der Datenextraktion wurden die 447.653 Videos deidentifiziert und in ein Audio-Video-Interleave (AVI) Format konvertiert.
Die Single-View Echokardiographie wurde ausgewertet, wobei der parasternale langachsige (PLAX) Blick verwendet wurde. Die Videos wurden einer Vorklassifizierung unterzogen, wobei nur Videos mit dem am besten passenden PLAX-Blick verwendet wurden. Anschließend wurden die Videos für die Modellentwicklung auf eine Auflösung von 112×112 reduziert und in Trainings-, Validierungs- und Testsets aufgeteilt. Die Echokardiogramme wurden gemäß den Empfehlungen der American Society of Echocardiography (ASE) ausgewertet und die Schweregrade der AS und linksventrikulären Hypertrophie (LVH) klassifiziert.
Für die Modellentwicklung wurde ein selbstüberwachtes Pretraining verwendet, um transferierbare Repräsentationen der Echokardiogrammvideos zu erlernen. Dabei wurde ein spezielles Algorithmen, EchoCLR, entwickelt, das Kontrastlernen und eine Prätextaufgabe zur Bildreihenfolge umfasste. Nach dem Pretraining wurde das Modell zur Klassifizierung von LVH und schwerer AS feinabgestimmt, wobei verschiedene Methoden zur Gewichtsinitialisierung verwendet wurden.
Um die Interpretierbarkeit des Modells zu bewerten, wurde eine Saliency Map-Analyse für die Diagnose einer schweren AS durchgeführt. Die Leistung der Modelle wurde anhand von AUROC- und AUPR-Metriken evaluiert, wobei alle 95% Konfidenzintervalle durch Bootstrapping berechnet wurden. Alle Experimente wurden reproduzierbar durchgeführt und der gesamte Code ist in einem Open-Source-Repository verfügbar.
Hinterlasse eine Antwort