Es ist praktisch unmöglich, ein großes KI-Unternehmen ethisch zu führen.

Es ist praktisch unmöglich, ein großes KI-Unternehmen ethisch zu führen.

Anthropic sollte das gute KI-Unternehmen sein. Das ethische. Das sichere. Es sollte sich von OpenAI, dem Hersteller von ChatGPT, unterscheiden. Tatsächlich haben alle Gründer von Anthropic einmal bei OpenAI gearbeitet, sind aber aus teilweise unterschiedlichen Gründen zur Sicherheitskultur dort ausgestiegen und haben beschlossen, ihr eigenes Unternehmen zu gründen, das verantwortungsvoller KI entwickeln sollte. Doch in letzter Zeit ist Anthropic aus weniger noblen Gründen in den Schlagzeilen: Es setzt sich gegen einen wegweisenden kalifornischen Gesetzentwurf zur Regulierung von KI zur Wehr. Es nimmt Geld von Google und Amazon auf eine Weise an, die kartellrechtliche Prüfung nach sich zieht. Und es wird beschuldigt, aggressiv Daten von Websites abzurufen, ohne ihre Zustimmung einzuholen und deren Leistung zu beeinträchtigen.

Anthropic befindet sich nun im Alter eines Kleinkindes von drei Jahren und erlebt viele der gleichen Wachstumsschmerzen wie sein älteres Geschwisterkind OpenAI. In gewisser Weise handelt es sich um die gleichen Spannungen, die alle in Silicon Valley ansässigen Technologie-Start-ups geplagt haben, die mit einer “nicht böse sein” Philosophie begannen. In der heutigen Zeit jedoch sind die Spannungen noch stärker. Ein KI-Unternehmen möchte sichere Systeme entwickeln, steht aber in einer von Hype geprägten Branche enorm unter Druck, als erstes an den Start zu gehen. Das Unternehmen benötigt Investoren, die die gigantischen Summen bereitstellen, die benötigt werden, um erstklassige KI-Modelle zu entwickeln, und um das zu erreichen, muss es sie zufriedenstellen, indem es einen Weg zu riesigen Gewinnen aufzeigt. Oh, und die Einsätze – falls die Technologie schiefgeht – sind höher als bei fast jeder vorherigen Technologie.

Wenn selbst das hochwerte Unternehmen Anthropic zu einem Lehrbeispiel für diese Unmöglichkeit wird, sollte eine weitere Option in Betracht gezogen werden: Die Regierung muss eingreifen und die Anreizstruktur der gesamten Branche ändern. Die Anreize zum weiteren Aufbau und Einsatz von KI-ModellenAnthropic hat sich immer als Unternehmen mit Vorrang für Sicherheit positioniert. Die Führungskräfte sagen, dass sie katastrophale oder existenzielle Risiken durch KI sehr ernst nehmen. CEO Dario Amodei hat vor Senatoren ausgesagt und argumentiert, dass KI-Modelle, die stark genug sind, “große Zerstörungen” zu verursachen und das internationale Machtgleichgewicht zu stören, bereits bis 2025 entstehen könnten. Es wäre also zu erwarten, dass Anthropic ein Gesetz unterstützen würde, das von dem kalifornischen Senator Scott Wiener (D-San Francisco) eingebracht wurde, den Safe and Secure Innovation for Frontier Artificial Intelligence Model Act, auch bekannt als SB 1047. Diese Gesetzgebung würde von Firmen, die die fortschrittlichsten und teuersten KI-Modelle trainieren, verlangen, Sicherheitstests durchzuführen und die Möglichkeit zu bewahren, die Modelle stillzulegen, wenn ein Sicherheitsvorfall eintritt.