Eine neue Studie der Universität Bath und der Technischen Universität Darmstadt in Deutschland hat ergeben, dass große Sprachmodelle (LLMs) nicht eigenständig lernen können oder neue Fähigkeiten erwerben, was bedeutet, dass sie keine existenzielle Bedrohung für die Menschheit darstellen. Die Studie ergab, dass LLMs oberflächlich in der Lage sind, Anweisungen zu befolgen und sich im Sprachbereich zu bewähren, jedoch kein Potenzial haben, neue Fähigkeiten ohne explizite Anleitung zu erlernen. Dies bedeutet, dass sie grundsätzlich kontrollierbar, vorhersehbar und sicher bleiben.
Das Forschungsteam unter der Leitung von Professorin Iryna Gurevych an der Technischen Universität Darmstadt in Deutschland führte Experimente durch, um die Fähigkeit von LLMs zu testen, Aufgaben zu erledigen, mit denen die Modelle zuvor noch nie konfrontiert waren – die emergenten Fähigkeiten. Die Forscher zeigten, dass dies das Ergebnis eines bekannten Lernmechanismus von LLMs war, der als ‘in-context learning’ (ICL) bekannt ist.
Dr. Harish Tayyar Madabushi, Informatiker an der Universität Bath und Mitautor der Studie, betont, dass die Angst, größere Modelle könnten gefährliche Fähigkeiten wie logisches Denken und Planung erlangen, unbegründet ist. Die Tests des Forschungsteams haben eindeutig gezeigt, dass LLMs keine emergenten komplexen Denkfähigkeiten besitzen.
Professor Gurevych betonte, dass die Ergebnisse nicht bedeuten, dass KI überhaupt keine Bedrohung darstellt, sondern dass die behauptete Entstehung komplexer Denkfähigkeiten, die mit spezifischen Bedrohungen in Verbindung gebracht werden, nicht durch Beweise gestützt wird und dass der Lernprozess von LLMs sehr gut kontrollierbar ist. Zukünftige Forschung sollte sich daher auf andere Risiken konzentrieren, die durch die Modelle entstehen können, wie z.B. die Möglichkeit, gefälschte Nachrichten zu generieren.
Hinterlasse eine Antwort