KI-Modelle stellen keine existenzielle Bedrohung für die Menschheit dar, sagen Forscher, die Tausende Experimente durchgeführt haben.

KI-Modelle stellen keine existenzielle Bedrohung für die Menschheit dar, sagen Forscher, die Tausende Experimente durchgeführt haben.

Künstliche Intelligenz oder AI ist seit einigen Jahren das Schlagwort in der Technologie. Einige argumentieren, dass sie missbraucht werden kann, während andere sie als Segen für verschiedene Bereiche wie Medizin, Wissenschaft und kreative Industrien betrachten. Eine große Studie hat jedoch gezeigt, dass AI keine existenzielle Bedrohung für die Menschheit darstellt. Diese Studie wurde mit Tausenden von Experimenten an Large Language Models (LLMs) durchgeführt, die die Grundlage für AI-Apps wie ChatGPT bilden.

Das Forschungsteam der Bath University im Vereinigten Königreich und der Technischen Universität Darmstadt in Deutschland führte Experimente durch, um die Fähigkeit von LLMs zu testen, Aufgaben zu erledigen, mit denen die Modelle noch nie konfrontiert waren. Dabei stellten sie fest, dass LLMs zwar Anweisungen befolgen können und eine ausgezeichnete Sprachkompetenz haben, aber keine neuen Fähigkeiten ohne explizite Anweisungen erlernen können. Dies bedeutet, dass sie grundsätzlich kontrollierbar, vorhersehbar und sicher bleiben, was zu dem Schluss führt, dass LLMs keine existenzielle Bedrohung für die Menschheit darstellen.

Die Studie ergab, dass LLMs, die auf immer größeren Datensätzen trainiert werden, weiterhin ohne Sicherheitsbedenken eingesetzt werden können, obwohl die Technologie dennoch missbraucht werden kann. Es besteht die Möglichkeit, dass diese AI-Modelle in Zukunft “sprechen” und in komplexere Sprache verfassen und detailliertere Anweisungen befolgen können, aber sie werden höchstwahrscheinlich keine komplexen Denkfähigkeiten erlangen. Die Forscher sind der Meinung, dass die weit verbreitete Angst vor AI als Bedrohung für die Menschheit von den eigentlichen Problemen ablenkt, auf die wir uns konzentrieren sollten.

Die Studie wurde im Rahmen des 62. Jahrestreffens der Vereinigung für Computational Linguistik veröffentlicht und zeigt, dass die Gefahr, dass ein Modell etwas völlig Unerwartetes, Innovatives und potenziell Gefährliches tut, nicht valide ist. Es ist zwar wichtig, potenziellen Missbrauch von AI wie die Erzeugung von Fake News und das erhöhte Betrugsrisiko anzugehen, jedoch wäre es verfrüht, Vorschriften aufgrund wahrgenommener existenzieller Bedrohungen zu erlassen.