Künstliche neuronale Netzwerke, die von biologischen Gehirnen inspiriert sind, stehen im Mittelpunkt der modernen künstlichen Intelligenz, hinter Chatbots und Bildgeneratoren. Diese Netzwerke können aufgrund ihrer vielen Neuronen als Black Boxes erscheinen, deren innere Funktionsweise für Benutzer uninterpretierbar ist. Forscher haben nun einen fundamental neuen Ansatz entwickelt, um neuronale Netzwerke zu erstellen, der traditionelle Systeme in mancher Hinsicht übertrifft. Diese neuen Netzwerke sind interpretierbarer und genauer, sagen Befürworter, selbst wenn sie kleiner sind. Die Entwickler sagen, dass die Art und Weise, wie sie Daten aus der Physik prägnant darstellen lernen, Wissenschaftlern helfen könnte, neue Naturgesetze aufzudecken.
Die traditionellen neuronale Netzwerke, auch Multi-Layer Perzeptron (MLP) genannt, lernen eine Gewichtung für jede Verbindung zwischen Neuronen. In der neuen Kolmogorov-Arnold-Architektur lernen die Verbindungen jedoch die vollständige Natur der Beziehung, die Funktion, die Eingabe und Ausgabe miteinander verknüpft. Im Gegensatz zur Aktivierungsfunktion in traditionellen Netzwerken können diese Funktionen komplexer sein und unterschiedlich ausfallen. Die Neuronen werden einfacher und summieren nur die Ausgaben ihrer vorherigen Verbindungen. Die neuen Netzwerke, genannt Kolmogorov-Arnold-Netzwerke (KANs), bieten eine größere Flexibilität beim Lernen der Datenrepräsentation und benötigen weniger gelernte Parameter.
Die Forscher testeten ihre KANs an einfachen wissenschaftlichen Aufgaben und fanden heraus, dass die Leistung der KANs schneller ansteigt als die traditioneller MLPs, wenn die Größe erhöht wird. Eine KAN war beispielsweise bei der Lösung von partiellen Differentialgleichungen 100-mal genauer als ein MLP mit 100-mal mehr Parametern. Durch eine visuelle Darstellung der KANs konnten die Forscher Aktivierungsfunktionen und Verbindungen analysieren, schwache Verbindungen entfernen und vereinfachte Funktionen einfügen. Die KANs können eine gesamte Funktion aus verschiedenen Komponenten rekonstruieren, was bei der Interpretation von unbekannten Datensätzen hilfreich sein kann.
Obwohl KANs langsamer pro Parameter zu trainieren sind und nicht von GPUs profitieren können, werden sie benötigen weniger Parameter. Möglicherweise können KANs in Zukunft Physikern helfen, Hochtemperatursupraleiter zu entdecken oder Möglichkeiten zur Kontrolle der Kernfusion zu finden. Andere Teams haben begonnen, KANs mit Convolutional Neural Networks (CNNs) und Transformers zu kombinieren, um deren Leistungsfähigkeit zu erhöhen.
Hinterlasse eine Antwort