MIT-Forscher verwenden große Sprachmodelle, um Probleme in komplexen Systemen zu kennzeichnen

MIT-Forscher verwenden große Sprachmodelle, um Probleme in komplexen Systemen zu kennzeichnen

Die Identifizierung eines defekten Windturbinen in einem Windpark, der Hunderte von Signalen und Millionen von Datenpunkten umfassen kann, ist wie die Suche nach der berühmten Nadel im Heuhaufen. Ingenieure optimieren dieses komplexe Problem oft mit Hilfe von Deep-Learning-Modellen, die Anomalien in wiederholt im Laufe der Zeit von jeder Turbine gemessenen Daten erkennen können, bekannt als Zeitreihendaten. Mit Hunderten von Windturbinen, die dutzende Signale pro Stunde aufnehmen, ist das Training eines Deep-Learning-Modells zur Analyse von Zeitreihendaten teuer und umständlich. Dies wird dadurch erschwert, dass das Modell möglicherweise nach der Bereitstellung neu trainiert werden muss und Betreiber von Windparks möglicherweise nicht über ausreichende maschinelle Lernkompetenzen verfügen.

In einer neuen Studie fanden MIT-Forscher heraus, dass große Sprachmodelle (LLMs) das Potenzial haben, effizientere Anomaliedetektoren für Zeitreihendaten zu sein. Die Autoren entwickelten ein Framework namens SigLLM, das eine Komponente enthält, die Zeitreihendaten in textbasierte Eingaben umwandelt, die ein LLM verarbeiten kann. Ein Benutzer kann diese vorbereiteten Daten dem Modell zuführen und es bitten, Anomalien zu identifizieren. Das LLM kann auch zur Vorhersage zukünftiger Zeitreihendatenpunkte im Rahmen einer Anomaliedetektions-Pipeline verwendet werden. Obwohl LLMs bei der Anomaliedetektion nicht mit Deep-Learning-Modellen auf dem neuesten Stand mithalten konnten, schnitten sie ähnlich gut ab wie einige andere KI-Ansätze.

Große Sprachmodelle sind autoregressiv, was bedeutet, dass sie verstehen können, dass die neuesten Werte in sequenziellen Daten von den vorhergehenden Werten abhängen. Da Zeitreihendaten sequenziell sind, dachten die Forscher, dass die autoregressive Natur von LLMs sie gut geeignet machen könnte, Anomalien in diesem Datentyp zu erkennen. Das Forschungsteam entwickelte zwei Anomalieerkennungsansätze: “Prompter”, bei dem die Daten in das Modell gefüttert und es angewiesen wird, anomale Werte zu lokalisieren, und “Detector”, bei dem das LLM als Vorhersager verwendet wird, um den nächsten Wert aus einer Zeitreihe zu prognostizieren und Anomalien aufzudecken.

Die Forscher verglichen beide Ansätze mit aktuellen Techniken und stellten fest, dass “Detector” sieben der 11 bewerteten Datensätze übertraf. Die LLM-Ansätze dauern jedoch zwischen 30 Minuten und zwei Stunden, um Ergebnisse zu liefern, sodass die Beschleunigung ein wichtiger Bereich für zukünftige Forschungen ist. Trotzdem übertrafen state-of-the-art Deep-Learning-Modelle LLMs mit deutlichem Vorsprung, was zeigt, dass noch Verbesserungsbedarf besteht, bevor ein LLM zur Anomaliedetektion eingesetzt werden kann.