Neue Methode ermöglicht KI, unendlich zu lernen

Neue Methode ermöglicht KI, unendlich zu lernen

Ein Team von KI-Forschern und Informatikern der Universität von Alberta hat festgestellt, dass aktuelle künstliche Netzwerke, die in Deep-Learning-Systemen verwendet werden, während des erweiterten Trainings mit neuen Daten ihre Fähigkeit zum Lernen verlieren. In ihrer Studie, die in der Zeitschrift Nature veröffentlicht wurde, hat die Gruppe einen Weg gefunden, um diese Probleme mit der Plastizität in sowohl überwachenden als auch verstärkenden KI-Systemen zu überwinden, was es diesen ermöglicht, weiter zu lernen.

In den letzten Jahren sind KI-Systeme weit verbreitet geworden. Darunter befinden sich große Sprachmodelle (LLMs), die scheinbar intelligente Antworten von Chatbots liefern. Aber eines haben sie alle gemeinsam: die Unfähigkeit, während ihrer Verwendung weiter zu lernen, was sie daran hindert, genauer zu werden, je mehr sie verwendet werden. Sie sind auch nicht in der Lage, intelligenter zu werden, indem sie auf neuen Datensätzen trainieren. Die Forscher haben die Fähigkeit konventioneller neuronaler Netzwerke getestet, nach dem Training auf ihren ursprünglichen Datensätzen weiter zu lernen, und festgestellt, was sie als katastrophales Vergessen bezeichnen – ein Zustand, in dem ein System die Fähigkeit verliert, eine Aufgabe durchzuführen, die es nach dem Training mit neuem Material konnte.

Sie stellen fest, dass dieses Ergebnis logisch ist, da LLMs als sequenzielle Lernsysteme konzipiert wurden und durch das Training auf festen Datensätzen lernen. Während des Tests stellte das Forschungsteam fest, dass die Systeme auch ihre Fähigkeit zum Lernen verlieren, wenn sie sequenziell auf mehrere Aufgaben trainiert werden – ein Merkmal, das sie als Verlust der Plastizität bezeichnen. Aber sie fanden auch einen Weg, um das Problem zu beheben – indem sie die Gewichte zurücksetzen, die zuvor mit Knoten im Netzwerk verbunden waren.

Mit künstlichen neuronalen Netzwerken werden Gewichte von Knoten als Maß für ihre Stärke verwendet – Gewichte können an Stärke gewinnen oder verlieren durch Signale, die zwischen ihnen gesendet werden, die wiederum durch die Ergebnisse mathematischer Berechnungen beeinflusst werden. Wenn ein Gewicht zunimmt, nimmt auch die Wichtigkeit der Information zu, die es vermittelt. Die Forscher schlagen vor, die Gewichte zwischen Trainingssitzungen auf die gleiche Weise zurückzusetzen, wie das System initialisiert wurde, um die Plastizität im System aufrechtzuerhalten und es zu ermöglichen, auf zusätzlichen Trainingsdatensätzen weiter zu lernen.