Künstliche Intelligenz wurde wiederholt als Bedrohung für die gesamte Menschheit dargestellt, wie zum Beispiel der Skynet-Aufstand in der Terminator-Franchise. Eine neue Studie argumentiert jedoch, dass es derzeit keine solche Bedrohung gibt. Die ukrainische Professorin für Informatik Iryna Gurevych, die die Studie leitete, argumentiert, dass wir uns eher darüber Gedanken machen sollten, wie künstliche Intelligenz eingesetzt wird. Dies wurde von Neuroscience News berichtet.
Eine gemeinsame Studie der Universität Bath und der Technischen Universität Darmstadt in Deutschland, die auf der 62. Jahreskonferenz der Vereinigung für Computerlinguistik (ACL 2024) veröffentlicht wurde, der führenden internationalen Konferenz für natürliche Sprachverarbeitung, zeigt, dass große Sprachmodelle (LLMs) nicht die Fähigkeit besitzen, eigenständig zu lernen. LLMs können Anweisungen und Aufgaben befolgen, aber sie sind nicht in der Lage, etwas Neues von selbst zu lernen.
Die Forscher kamen zu dem Schluss, dass LLMs, wie sie jetzt sind, ohne Sicherheitsbedenken freigesetzt werden können. Die einzige Bedrohung, die KI darstellen kann, ist ein missbräuchlicher Einsatz durch echte Personen. Im Rahmen der Studie wurde ein Experiment durchgeführt, um die Fähigkeit der KI zu testen, schwierige Aufgaben zu erledigen, die diese Modelle zuvor noch nie durchgeführt hatten. Das Ergebnis war, dass künstliche Intelligenz in der Lage war, Fragen zu sozialen Situationen zu beantworten, ohne speziell darauf trainiert oder programmiert worden zu sein.
Eine weitere Schlussfolgerung der Forscher war, dass es ein Fehler wäre, künstliche Intelligenz einzusetzen, um komplexe Aufgaben zu erledigen, die komplexe Überlegungen erfordern, ohne klare Anweisungen. Stattdessen sollten Benutzer die Aufgabe so breit wie möglich und mit allen Details beschreiben, um das beste Ergebnis zu erzielen. Iryna Gurevych sagt, dass anstatt sich über die Bedrohung durch künstliche Intelligenz Sorgen zu machen, wir uns lieber über ihren missbräuchlichen Einsatz sorgen sollten.
“Unsere Ergebnisse bedeuten nicht, dass KI überhaupt keine Bedrohung darstellt. Vielmehr zeigen wir, dass das behauptete Entstehen komplexer Denkfähigkeiten im Zusammenhang mit bestimmten Bedrohungen nicht durch Beweise gestützt wird und dass wir den Lernprozess von LLMs sehr gut kontrollieren können. Zukünftige Forschung sollte sich daher auf andere Risiken konzentrieren, die durch die Modelle entstehen, wie z.B. ihre potenzielle Verwendung zur Generierung von Fake News”, sagte Gurevych.
Hinterlasse eine Antwort