Tiefe Lernmodelle können mit begrenzten Daten trainiert werden

Tiefe Lernmodelle können mit begrenzten Daten trainiert werden

Deep learning modelle, die beispielsweise in der medizinischen Bildgebung zur Erkennung von Krankheiten oder Anomalien eingesetzt werden, müssen mit einer großen Menge an Daten trainiert werden. Oft steht jedoch nicht genügend Daten zur Verfügung, um diese Modelle zu trainieren, oder die Daten sind zu vielfältig.

Ulugbek Kamilov, Professor für Informatik und Ingenieurwissenschaften sowie für Elektro- und Systemtechnik an der McKelvey School of Engineering der Washington University in St. Louis, hat gemeinsam mit seinen Doktoranden Shirin Shoushtari, Jiaming Liu und Edward Chandler eine Methode entwickelt, um dieses gängige Problem bei der Bildrekonstruktion zu umgehen. Die Forschungsergebnisse des Teams werden diesen Monat auf der International Conference on Machine Learning in Wien, Österreich, vorgestellt.

Zum Beispiel könnten die für das Training von Deep Learning-Modellen verwendeten MRT-Daten von verschiedenen Anbietern, Krankenhäusern, Maschinen, Patienten oder untersuchten Körperteilen stammen. Ein Modell, das auf einem Datentyp trainiert wurde, könnte Fehler verursachen, wenn es auf anderen Daten angewendet wird. Um diese Fehler zu vermeiden, hat das Team den weit verbreiteten Deep Learning-Ansatz Plug-and-Play Priors adaptiert, um die Datenverschiebung zu berücksichtigen, mit der das Modell trainiert wurde, und das Modell an einen neuen Datensatz anzupassen.

“Mit unserer Methode spielt es keine Rolle, ob Sie nicht über viele Trainingsdaten verfügen,” sagte Shoushtari. “Unsere Methode ermöglicht es, Deep Learning-Modelle anhand eines kleinen Satzes von Trainingsdaten anzupassen, unabhängig davon, aus welchem Krankenhaus, von welcher Maschine oder von welchen Körperteilen die Bilder stammen.” Mehr Informationen finden Sie auf der Website der McKelvey School of Engineering.