Richtlinien für die Verwendung von interpretierbaren Machine-Learning-Methoden in der computergestützten Biologie

Richtlinien für die Verwendung von interpretierbaren Machine-Learning-Methoden in der computergestützten Biologie

Maschinelles Lernen ist ein leistungsstarkes Werkzeug in der computergestützten Biologie, das die Analyse einer Vielzahl biomedizinischer Daten wie genomischer Sequenzen und biologischer Bildgebung ermöglicht. Wenn Forscher maschinelles Lernen in der computergestützten Biologie einsetzen, bleibt das Verständnis des Modellverhaltens entscheidend, um die zugrunde liegenden biologischen Mechanismen in Gesundheit und Krankheit aufzudecken.

In einem kürzlich erschienenen Artikel in Nature Methods schlagen Forscher an der School of Computer Science der Carnegie Mellon University Richtlinien vor, die Fallstricke und Chancen für den Einsatz interpretierbarer Methoden des maschinellen Lernens bei der Bewältigung von Problemen in der computergestützten Biologie aufzeigen. Der Artikel “Applying Interpretable Machine Learning in Computational Biology -; Pitfalls, Recommendations and Opportunities for New Developments” wird in der August-Ausgabe des Journals im Bereich Künstliche Intelligenz vorgestellt.

Interpretierbares maschinelles Lernen hat als Werkzeug der künstlichen Intelligenz signifikante Begeisterung geweckt, da es bei zunehmend wichtigen Problemen zum Einsatz kommt. Mit wachsender Komplexität dieser Modelle besteht nicht nur die vielversprechende Möglichkeit, hochprädiktive Modelle zu entwickeln, sondern auch Tools zu schaffen, die den Endbenutzern helfen zu verstehen, wie und warum diese Modelle bestimmte Vorhersagen treffen. Es ist jedoch wichtig anzuerkennen, dass interpretierbares maschinelles Lernen noch keine fertigen Lösungen für dieses Interpretationsproblem bietet.

Der Artikel ist eine Zusammenarbeit zwischen den Doktoranden Valerie Chen in MLD und Muyu (Wendy) Yang in der Abteilung für rechnergestützte Biologie von Ray und Stephanie Lane. Die frühere Arbeit von Chen, die die fehlende Verankerung der interpretierbaren maschinellen Lerngemeinschaft in nachgelagerten Anwendungsfällen kritisierte, inspirierte den Artikel, der durch Diskussionen mit Yang und Jian Ma, dem Ray and Stephanie Lane Professor für rechnergestützte Biologie, entwickelt wurde.

Ein Hauptmanko, das der Artikel anspricht, ist die Abhängigkeit von einer einzigen Methode des interpretierbaren maschinellen Lernens. Die Forscher empfehlen stattdessen, mehrere interpretierbare maschinelle Lernmethoden mit verschiedenen Sätzen von Hyperparametern zu verwenden und ihre Ergebnisse zu vergleichen, um ein umfassenderes Verständnis des Modellverhaltens und seiner zugrunde liegenden Interpretationen zu erhalten.

Ma betonte, dass das Verständnis des Modellverhaltens für wissenschaftliche Entdeckungen von entscheidender Bedeutung ist und ein grundlegend ungelöstes Problem des maschinellen Lernens darstellt. Die Autoren hoffen, dass diese Herausforderungen weitere interdisziplinäre Zusammenarbeit anregen, um die breitere Anwendung von KI für wissenschaftliche Zwecke zu ermöglichen.