Der Fokus dieser Arbeit liegt auf der Entwicklung eines Ensemble-DL-basierten quantenbasierten maschinellen Lernklassifikationsmodells zur Diagnose der AD-Krankheit. Tiefe Lernarchitekturen werden am häufigsten für die Verarbeitung und Analyse von Hirnbildern in Forschungsprojekten verwendet. In diesem Papier wird eine Methode vorgestellt, die auf Ensemble-Lernen und quantenbasierten maschinellen Lernalgorithmen basiert, die MRT-Hirnbilder analysieren und sinnvolle Merkmale für die erfolgreiche Klassifikation von AD-Stadien extrahieren. Das vorgeschlagene Algorithmus verwendet sequenzielle Schritte, in denen die ADNI1- und ADNI2-MRI-Bilddatensätze zunächst vorbereitet, vorverarbeitet und dann kombiniert werden, um sie im vorgeschlagenen Ansatz zu verwenden. Anschließend wird ein Ensemble-Modell erstellt, dessen Parameter für die Merkmalsextraktion konfiguriert werden, und die Merkmale werden in die QSVM zur Klassifizierung der AD-Demenzstadien eingegeben. Die Leistung des vorgeschlagenen Modells wird bewertet und mit anderen Spitzenmethoden verglichen, wobei verschiedene Leistungskennzahlen berechnet werden, darunter Genauigkeit, Rückruf, Präzision, F1-Score und AUC. Die Ergebnisse legen nahe, dass das Ensemble-Modell-basierte QSVM in Bezug auf die Leistung den anderen Spitzenmethoden überlegen ist.
Wie in Abbildung 1 dargestellt, besteht das VGGNet-Modell aus neun Convolutions, zwei Batch-Normalizations, drei Max-Poolings, zwei Dropouts und einer Flatten-Schicht. Ein Dropout-Layer wird unter jedem Max-Pooling- und Dense-Layer eingefügt, um Overfitting zu vermeiden. Das ResNet-Modell hingegen besteht aus einer Convolution, einem Max-Pooling, einem Average-Pooling, einer Batch-Normalization, einer Aktivierung, zwei Identity-Blocks, drei Conv-Blocks und einer Flatten-Schicht. Schließlich werden die extrahierten und geflachten Merkmale der beiden Modelle kombiniert, um in vier Alzheimer-Typen zu klassifizieren, wobei der QSVM-Klassifikator verwendet wird.
Die Daten für die Modellentwicklung stammen aus verschiedenen Quellen, wie dem ADNI-1-Datensatz und dem ADNI2-Datensatz aus den Kaggle-Datenbanken. Das Alzheimer’s Disease Neuroimaging Initiative ist eine groß angelegte Studie zur Früherkennung und Verlaufsbeobachtung der AD. Wir kombinieren die ADNI-1- und ADNI-2-Datensätze von AD, da beide aus MRT-Scans von AD-Patienten in unterschiedlichen Zeitstempeln stammen. Die Kombination verschiedener Datensatzquellen unterstützt das Training von Deep Learning-Algorithmen zur Leistungsverbesserung. Wir haben nur MRT-Scans von Patienten aus beiden Quellen verwendet, um die Anzahl der Datensätze zu erhöhen und Probleme mit Overfitting in DL-Algorithmen zu reduzieren. Die Zusammenfassung unseres Datensatzes ist in Tabelle 1 zu finden.
Die gewählten Daten wurden mit einem Standardverarbeitungspipeline vorverarbeitet. Wir verwendeten einen Cropping-Algorithmus, um die Knochen- und Skelettanteile der MRT-Bilder zu eliminieren, da dieser überflüssige Teil nicht für die AD-Klassifikation relevant ist. Der originale Datensatz hatte eine Bildauflösung von 176208. Aufgrund von Hardwarebeschränkungen mussten wir das MRT-Bild auf 128128 Pixel Breite und Höhe skalieren. Wir reduzierten die Dimensionalität des Datensatzes auf 5 Qubits, um ihn für die quantenbasierte Klassifikation zu verwenden. In unserer Studie verwendeten wir einen adaptiven Medianfilter, um Ausreißer zu entfernen und einen zuverlässigen Klassifikationsprozess zu ermöglichen. Die Augmentationstechnik wurde angewendet, um die Anzahl der Datensätze zur Alzheimer-Krankheit zu erhöhen, und damit auch Probleme mit Modell-Overfitting wurden verbessert, um die Generalisierungsfähigkeit von Deep Learning-Modellen zu erhöhen. Es gibt auch ein Klassenungleichgewichtsproblem, daher haben wir Datenverarbeitungsmaßnahmen angewendet, einschließlich willkürlicher Höhen- und Breitenverschiebung sowie Zoomen auf dem Trainingsset.
Tiefe Lernmodelle, insbesondere Convolutional Neural Networks (CNN), haben die Krankheitserkennung im Gesundheitswesen revolutioniert. Wir haben das vorbereitete VGG-16 Convolutional Neural Network-Modell verwendet, das durch Einfrieren einiger Schichten verbessert wurde. Simonyan und Zisserman identifizierten die 16-Schicht-Convolution-Architektur namens VGG-16-Modell im Jahr 2014. Das VGG-16-Modell ist ein großes Netzwerk mit etwa 138 Millionen Parametern und verwendet viele Convolutional-Schichten, um tiefere neuronale Netzwerke zu erstellen, die ihre Fähigkeit zur Erfassung versteckter Merkmale verbessern. ResNet 50 ist vielleicht die leistungsfähigste Convolutional Neural Network-Architektur der letzten Jahre und wurde auch als Gewinner des ILSVRC-Wettbewerbs ausgewählt. ResNet-50 ist ein Convolutional Neural Network mit 50 Schichten, von denen 48 Convolution-Schichten, 1 Max Pooling und 1 Average Pooling-Schicht enthalten. Es handelt sich um ein tiefes residuales Lernrahmenwerk, das auf einem neuronalen Netzwerk aufbaut. Congrats on completing the task!
Hinterlasse eine Antwort