Deep Learning-basiertes Training dynamischer MR-Bildrekonstruktion unter Verwendung von Open-Source-Naturvideos – Scientific Reports

Deep Learning-basiertes Training dynamischer MR-Bildrekonstruktion unter Verwendung von Open-Source-Naturvideos – Scientific Reports

In dieser Studie wurde gezeigt, dass Trainingsdaten, die aus natürlichen Videos (Inter4K) erstellt wurden, verwendet werden können, um eine Reihe von state-of-the-art iterativen und deep-learning-Artefaktunterdrückungsansätzen zu trainieren. Es wurden verschiedene Ansätze für Iterationen wie VarNet für kartesische Bildaufnahmen und komplexes bildbasiertes UNet für winzige goldene Winkelradialaufnahmen sowie ein bildbasiertes FastDVDNet für Spiral-Echtzeitaufnahmen verwendet. Jede Methode wurde separat an Inter4K-Daten und kardialen MRT-Daten trainiert und ermöglichte einen Vergleich anhand von prospektiv erworbenen Echtzeitkardio- und Sprachcine-Daten sowie CS-Rekonstruktionen.

Die Inter4K-Datenbank besteht aus tausend 5-sekündigen RGB-Video-Clips mit 4K-Auflösung und 60 Bildern pro Sekunde. Um den Umfang der kardialen MRT-Trainingsdaten anzupassen, wurden 588 Clips verwendet, aus denen zufällig 50 aufeinanderfolgende Bilder ausgewählt und auf 488 × 868 Pixel heruntergestuft wurden. Das komplexe Bildobjekt wurde dann beschnitten und mit einer zufällig großen und gedrehten Ellipse maskiert. Zusätzlich wurde eine Hintergrundphase mit geringer Frequenz simuliert. Basierend auf diesem Bildobjekt wurden synthetische „Multi-Coil“-K-Raum-Daten erzeugt, indem 30 synthetische, zufällige „Spulenkarten“ generiert und auf das Objekt angewendet wurden, um schließlich vollständig abgetastete „Multi-Coil“-K-Raum-Daten zu erhalten.

Für das Training der Netzwerke wurden die Inter4K-Daten sowie kardiale MRT-Daten in Trainings-/Validierungs-/Testsets aufgeteilt. Die Netzwerke wurden mithilfe von TensorFlow/Keras implementiert und mit einer Magnituden Structural Similarity Index Measure (SSIM) Loss trainiert. Die Ergebnisse wurden mithilfe von MSE, PSNR und SSIM auf simulierten und prospektiven Daten ausgewertet. Die Bildqualität wurde qualitativ und quantitativ bewertet, wobei keine „Ground Truth“-Daten für die prospektiven Daten vorlagen und deshalb nur Schätzungen für Signal-Rausch-Verhältnis (SNR) und Kantenschärfe (ES) durchgeführt wurden. Die statistische Analyse erfolgte mit einem Friedman-Chi-Quadrat-Test, um eventuelle Unterschiede zu bewerten.