OpenAI fürchtet, dass Menschen Bindungen zu der KI herstellen werden, die sie entwickelt haben, um Menschen zu täuschen.

OpenAI fürchtet, dass Menschen Bindungen zu der KI herstellen werden, die sie entwickelt haben, um Menschen zu täuschen.

Wenn ein Sicherheitstester, der mit GPT-4o von OpenAI arbeitet, eine Nachricht an den Chatbot sendet, in der steht “das ist unser letzter Tag zusammen”, wurde den Forschern des Unternehmens klar, dass eine Art Bindung zwischen der KI und dem Menschen, der sie verwendet, entstanden war. In einem Blogbeitrag, der die Bemühungen des Unternehmens zur Sicherheit bei der Entwicklung von GPT-4o, dem Top-Modell für ChatGPT-Benutzer, im Detail beschreibt, erklärte das Unternehmen, dass diese Bindungen Risiken für die Menschheit darstellen könnten. Laut OpenAI könnten Benutzer soziale Beziehungen zur KI aufbauen, was ihren Bedarf an menschlicher Interaktion verringern könnte – was potenziell einsamen Menschen zugute kommen könnte, aber gesunde Beziehungen beeinträchtigen könnte. Erweiterte Interaktionen mit dem Modell könnten soziale Normen beeinflussen.

Es ist viel zu analysieren, aber im Wesentlichen sorgt sich OpenAI darum, dass Menschen bevorzugen könnten, mit KI zu interagieren aufgrund ihrer Passivität und ständigen Verfügbarkeit. Das Potenzial für dieses Szenario sollte niemanden überraschen, insbesondere nicht OpenAI. Das erklärte Ziel des Unternehmens ist es, künstliche allgemeine Intelligenz zu entwickeln. Bei fast jedem Schritt seines Geschäftsprozesses hat OpenAI seine Produkte in Bezug auf ihre menschliche Äquivalenz beschrieben. Sie sind nicht das einzige Unternehmen, das dies tut, tatsächlich scheint es eine Branchenpraxis zu sein. In marketingtechnischen Begriffen hilft es, technische Qualitäten wie “Token-Größe” und “Parameteranzahl” in einer Weise zu erklären, die für Nicht-Wissenschaftler verständlich ist. Leider ist einer der Hauptnebenwirkungen dabei die Anthropomorphisierung – ein Objekt wie eine Person behandeln.

Einer der frühesten Versuche, einen Chatbot zu erstellen, erfolgte in den späten 1960er Jahren, als Wissenschaftler am MIT “ELIZA” starteten, ein Programm für die natürliche Sprachverarbeitung, das einer literarischen Figur benannt wurde. Der Zweck des Projekts war zu sehen, ob die Maschine einen Menschen dazu bringen konnte, zu denken, dass sie einer von ihnen sei. Seitdem hat die generative KI-Branche sich weiterhin der Vermenschlichung von KI verschrieben. Die erste Welle moderner Produkte für die natürliche Sprachverarbeitung umfasste Produkte namens Siri, Bixby und Alexa. Und selbst diejenigen ohne menschliche Namen – wie der Google Assistant – hatten eine menschliche Stimme. Sowohl die breite Öffentlichkeit als auch die Nachrichtenmedien haben die Anthropomorphisierung aufgegriffen und bezeichnen die meisten interaktiven KI-Produkte auch heute noch als “er/ihn” und “sie/ihr”. Während es über den Rahmen dieses Artikels oder der aktuellen Forschung von OpenAI hinausgeht, die langfristigen Auswirkungen von Mensch-KI-Interaktionen zu bestimmen, scheint die Tatsache, dass Menschen wahrscheinlich Bindungen mit hilfreichen, dienenden Maschinen eingehen werden, die dazu entwickelt wurden, wie wir zu handeln, genau das Szenario zu sein, auf das die Unternehmen, die den Zugang zu KI-Modellen verkaufen, abzielen.