Ein ‘KI-Wissenschaftler’ erfindet und führt seine eigenen Experimente durch.

Ein ‘KI-Wissenschaftler’ erfindet und führt seine eigenen Experimente durch.

Auf den ersten Blick scheinen eine Reihe von Forschungsarbeiten, die von einem prominenten KI-Labor an der Universität British Columbia in Vancouver produziert wurden, nicht besonders bemerkenswert zu sein. Mit inkrementellen Verbesserungen bestehender Algorithmen und Ideen lesen sie sich wie der Inhalt einer mittelmäßigen KI-Konferenz oder Fachzeitschrift. Doch die Forschung ist tatsächlich bemerkenswert, da sie vollständig auf der Arbeit eines “KI-Wissenschaftlers” basiert, der am UBC Labor gemeinsam mit Forschern der Universität Oxford und einem Startup namens Sakana AI entwickelt wurde. Das Projekt stellt einen frühen Schritt in Richtung eines potenziell revolutionären Tricks dar: KI dabei zu lassen, durch Erfinden und Erkunden neuer Ideen zu lernen.

Obwohl die heutigen KI-Programme erstaunlich sein können, sind sie auf ihre Notwendigkeit angewiesen, von Menschen generierte Trainingsdaten zu konsumieren. Wenn KI-Programme stattdessen auf experimentelle und “interessante” Ideen untersucht lernen könnten, könnten sie Fähigkeiten freisetzen, die über das hinausgehen, was Menschen ihnen gezeigt haben. Clune’s Labor hatte zuvor KI-Programme entwickelt, die auf diese Weise lernen sollten. Ein Programm namens Omni versuchte beispielsweise, das Verhalten virtueller Charaktere in verschiedenen Videospiel-ähnlichen Umgebungen zu generieren, diejenigen, die interessant erschienen, zu speichern und dann mit neuen Designs zu iterieren. Diese Programme erforderten zuvor manuell codierte Anweisungen zur Definition von Interessantem. Große Sprachmodelle bieten jedoch eine Möglichkeit, diesen Programmen zu ermöglichen, zu identifizieren, was am interessantesten ist.

Die KI-Wissenschaftler sind ein Beispiel dafür, wie Clunes Labor auf den Möglichkeiten aufbaut. Das Programm entwickelt maschinelles Lernen-Experimente, entscheidet mit Hilfe eines LLM, was am vielversprechendsten scheint, schreibt und führt den erforderlichen Code aus – und wiederholt den Vorgang. Trotz der enttäuschenden Ergebnisse ist Clune der Ansicht, dass offenes Lernen, wie bei Sprachmodellen selbst, viel leistungsfähiger werden könnte, wenn die sie versorgende Rechenleistung erhöht wird. Ob LLM-basierte Systeme jemals wirklich neuartige oder bahnbrechende Ideen entwickeln können, bleibt ebenfalls unklar. Selbst ohne wissenschaftliche Durchbrüche kann offenes Lernen entscheidend sein für die Entwicklung von leistungsfähigeren und nützlicheren KI-Systemen in der Gegenwart. In einem Bericht eines Investitionsunternehmens wird das Potenzial von Clunes Arbeit hervorgehoben, leistungsstärkere und zuverlässigere KI-Agenten zu entwickeln, oder Programme, die autonom nützliche Aufgaben auf Computern ausführen.