Sam Altman und generative KI können nicht vertraut werden, sagt führender Experte

Sam Altman und generative KI können nicht vertraut werden, sagt führender Experte

Sam Altman, der CEO von OpenAI und das Aushängeschild für künstliche Intelligenz, hat viele Forderungen nach einer KI gestellt, die der Menschheit zugutekommen wird, und nach Regulierungen, um sicherzustellen, dass die Welt dorthin gelangt. Ein führender KI-Experte sagt jedoch, dass die Handlungen des CEO seinen öffentlichen Äußerungen widersprechen und der derzeitige Weg zur KI in die falsche Richtung führt. In einem Kolumnenbeitrag für The Guardian argumentierte Gary Marcus, Gründer des Machine-Learning-Unternehmens Geometric Intelligence und ehemaliger Leiter des KI-Labors von Uber, dass Altman die Öffentlichkeit wiederholt über seine finanzielle Beteiligung an OpenAI getäuscht hat und hinterfragt, wie aufrichtig der CEO ist, wenn er nach Regulierungen ruft.

Ein Hoffnungsträger für Altman, Marcus schrieb in der Kolumne, dass der OpenAI-Führer “echt schien” und scheinbar die gleichen Bedenken hinsichtlich der KI-Regulierung hatte, als sie beide im Mai 2023 vor Gesetzgebern über die Technologie aussagten. Der KI-Experte forderte auch Altman’s Verpflichtung zur Sicherheit in Frage und stellte fest, dass, obwohl OpenAI behauptet, er wolle Regulierung, die Realität viel komplizierter sei. Er zitierte auch Bedenken hinsichtlich der Transparenz bei OpenAI, wo Mitarbeiter gebeten wurden, restriktive NDAs zu unterzeichnen und ehemalige Kollegen Altman beschuldigten, gegenüber dem Vorstand gelogen zu haben.

Marcus stellte weiterhin fest, dass die Richtung der KI in die falsche Richtung geht, während Unternehmen versuchen, mit OpenAI Schritt zu halten. Er argumentierte auch, dass generative KI-Tools wie ChatGPT “wahrscheinlich nie sicher sein werden” und in Bereichen wie Medizin oder Klimawandel keine nützlichen Lösungen bieten werden. Generative KI-Tools sind von Natur aus widerspenstig und undurchsichtig – sogenannte “Black Boxes”, die wir niemals vollständig kontrollieren können. Marcus ist der Meinung, dass AI nicht aufgegeben werden sollte, da eine bessere KI für Medizin, Materialwissenschaften, Klimawissenschaften und dergleichen die Welt wirklich verändern könnte. Er ist der Ansicht, dass generative KI wahrscheinlich nicht ausreicht, aber eine zukünftige, noch zu entwickelnde Form von KI könnte dies erreichen.