Was ist KI-Superintelligenz? Könnte sie die Menschheit zerstören? Und steht sie wirklich kurz bevor?

Was ist KI-Superintelligenz? Könnte sie die Menschheit zerstören? Und steht sie wirklich kurz bevor?

Die gefürchtete Zukunft der KI: Kommt die Superintelligenz und welche Risiken birgt sie für die Menschheit?

Superintelligenz: Die Zukunft der Künstlichen Intelligenz

Im Jahr 2014 veröffentlichte der britische Philosoph Nick Bostrom das Buch „Superintelligence: Paths, Dangers, Strategies“, das die Diskussion über die Zukunft der künstlichen Intelligenz (KI) maßgeblich beeinflusste. Mit seiner warnenden Botschaft über die Gefahren fortgeschrittener KI-Systeme, die die Menschheit eines Tages übertreffen und möglicherweise die Welt übernehmen könnten, hat er ein grundlegendes Interesse an der Thematik geweckt.

Fast ein Jahrzehnt später äußerte sich Sam Altman, der Chef von OpenAI, optimistisch darüber, dass Superintelligenz möglicherweise nur „ein paar tausend Tage“ entfernt sei. Dies hat die Diskussion über die Entwicklung und die Risiken von KI weiter angeheizt. Altmans Mitgründer Ilya Sutskever stellte innerhalb von OpenAI ein Team zusammen, das sich der „sicheren Superintelligenz“ widmet. Doch nun haben sie auch eine Milliarde Dollar aufgebracht, um ein eigenes Start-up zu gründen und dieses Ziel voranzutreiben.

Was bedeutet Superintelligenz?

Superintelligenz wird häufig als alles betrachtet, was intelligenter ist als der Mensch. Doch eine genauere Betrachtung zeigt, dass es unterschiedliche Ebenen und Arten von Intelligenz in der KI gibt. Der US-Computerwissenschaftler Meredith Ringel Morris und ihr Team bei Google haben ein nützliches Framework entwickelt, um die verschiedenen Leistungsniveaus von KI zu kategorisieren. Diese reichen von „keine KI“ über „aufkommend“ und „kompetent“ bis hin zu „experte“, „virtuos“ und „übermenschlich“.

Ein Beispiel für eine virtuelle KI ist das Schachprogramm Deep Blue, das 1997 den Weltmeister Garry Kasparov besiegte. In der Zwischenzeit haben wir auch Systeme gesehen, die übermenschliche Fähigkeiten besitzen, wie Alphafold, das die Struktur von Proteinen vorhersagt und kürzlich mit dem Nobelpreis für Chemie ausgezeichnet wurde.

Im Gegensatz dazu sind allgemeine KI-Systeme, die in der Lage sind, ein breiteres Spektrum an Aufgaben zu erledigen, noch nicht so weit fortgeschritten. Zum Beispiel zeigen aktuelle Sprachmodelle wie ChatGPT, dass sie sich noch auf emergente Fähigkeiten beschränken und weit davon entfernt sind, kompetent zu sein.

Wie intelligent ist KI derzeit?

Der Stand der aktuellen KI-Technologie ist umstritten. Ein Bericht aus dem Jahr 2023 deutet darauf hin, dass GPT-4 „Funkensprünge allgemeiner künstlicher Intelligenz“ zeigt. OpenAI behauptet, dass ihr neuestes Modell „komplexes Denken“ durchführen kann und in vielen Benchmarks mit menschlichen Experten konkurriert. Dennoch haben Forschungen von Apple ergeben, dass viele Sprachmodelle, einschließlich o1, erhebliche Schwierigkeiten beim Lösen echter mathematischer Probleme aufweisen. Dies deutet darauf hin, dass die Superintelligenz noch nicht so nah ist, wie vielfach angenommen wird.

Wird KI weiterhin intelligenter?

Einige Experten glauben, dass das rasante Wachstum von KI in den letzten Jahren andauern oder sogar an Tempo zunehmen wird. Die Technologieunternehmen investieren Milliarden in KI-Hardware und -Fähigkeiten, was die Aussicht auf eine allgemeine Superintelligenz innerhalb der von Altman genannten „ein paar tausend Tage“ möglicherweise nicht unrealistisch macht.

Allerdings gibt es auch Bedenken, dass es nicht genügend von Menschen generierte Daten gibt, um den Lernprozess dieser Systeme weiter zu optimieren. Die Notwendigkeit, offene und flexible Systeme zu entwickeln, die ständig neue, kreative Ausgaben generieren können, ist ein wichtiger Faktor für das Erreichen von Superintelligenz.

Welche Risiken birgt KI?

Obwohl wir uns gegenwärtig keine Sorgen über eine superintelligente KI machen müssen, dürfen wir die bestehenden Risiken nicht ignorieren. Mit einer zunehmenden Fähigkeit der KI kann auch deren Autonomie steigen. Dies kann dazu führen, dass Menschen übermäßig auf KI-Systeme vertrauen und sich auf deren Empfehlungen verlassen, anstatt kritische Entscheidungen selbst zu treffen.

Zusätzlich könnten gesellschaftliche Herausforderungen wie Jobverluste und Veränderungen im menschlichen Zusammenleben auftreten. Besondere Aufmerksamkeit verdienen zudem mögliche Entwicklungen wie parasoziale Beziehungen zu KI-Systemen.

Was kommt als Nächstes?

Sollten wir eines Tages tatsächlich mit vollautomatischen, superintelligenten KI-Agenten konfrontiert werden, stellt sich die Frage, ob diese Macht konzentrieren oder gegen die Interessen der Menschheit agieren könnten. Die Idee, dass Autonomie und Kontrolle Hand in Hand gehen können, wird in der KI-Forschung immer häufiger vertreten.

Das Potenzial für eine sichere Superintelligenz erscheint realistisch, doch der Weg dorthin ist komplex und erfordert interdisziplinäre Ansätze. Um dies zu erreichen, müssen Forscher neue Pfade beschreiten und innovative Lösungen entwickeln.

In einer Welt, in der KI zunehmend ins Zentrum unseres Lebens rückt, bleibt die Bereitschaft, über deren Entwicklung nachzudenken und verantwortungsvolle Entscheidungen zu treffen, unerlässlich. Die Zukunft der Superintelligenz steht auf der Kippe — es liegt an uns, sie mit Bedacht zu gestalten.