Der globale Wettlauf um die KI-Regulierung

Der globale Wettlauf um die KI-Regulierung

Die Verhandlungen in der EU sind dafür bekannt, dass sie zu lange dauern und oft erst nach Mitternacht abgeschlossen werden, Produkte von Erschöpfung und hartem Handel. Das Europäische Parlament und der Rat der EU haben in der Nacht zwischen dem 8. und 9. Dezember 2023 eine Einigung erzielt, die das EU-AI-Gesetz hervorgebracht hat, das erste bedeutende Gesetz zur Regulierung künstlicher Intelligenz (KI), einschließlich ‘generativer KI’-Chatbots, die seit der Einführung von ChatGPT Ende 2022 zu einer neuen Sensation im Internet geworden sind.

Nur zwei Tage später veröffentlichte das französische Start-up Mistral AI Mixtral 8x7B, ein neues großes Sprachmodell (LLM), wie die Rechenmodelle hinter generativer KI bekannt sind. Obwohl es kleiner ist als proprietäre Äquivalente, ist es in vielerlei Hinsicht überlegen aufgrund seines eigentümlichen Aufbaus, der acht Expertenmodelle kombiniert. Sein Open-Source-Code ist jedoch von den strengeren Regeln des Gesetzes befreit, was neue Probleme für Regulierungsbehörden darstellt. Die disruptive Potenzial von Mixtral illustriert die Schwierigkeiten, vor denen Regulierungsbehörden stehen, die versuchen, den KI-Geist wieder in die Flasche des Gesetzes zu stecken.

Das Gesetz über künstliche Intelligenz der EU tritt im Mai 2025 in Kraft und stellt den ersten Versuch dar, diese Frage zu beantworten. Indem es fast alle KI-Anwendungen abdeckt, zielt es darauf ab, einen europäischen und möglicherweise globalen regulativen Rahmen zu schaffen, da die EU den Ruf eines Regulierungsgiganten hat. Der Akt ist auch der erste Versuch, mit Grundlagenmodellen oder General Purpose AI-Modellen (GPAI) umzugehen, den Softwareprogrammen, die KI-Systeme antreiben. Der Akt legt horizontale Verpflichtungen für alle Modelle fest, insbesondere die Anforderung, dass KI-generierter Inhalt als solcher erkennbar sein sollte, mit möglichen Strafen von bis zu sieben Prozent des globalen Umsatzes des Übeltäters.

Der Akt folgt einem gestuften Ansatz, der unterschiedliche Risikolevels und entsprechende Verpflichtungen für verschiedene Aktivitäten und KI-Modelle festlegt. GPAIs sind in zwei Kategorien unterteilt, solche mit und ohne systemisches Risiko, wobei letztere strengere Regeln wie obligatorische Bewertungen, Vorfallmeldungen und fortgeschrittene Cybersicherheitsmaßnahmen, einschließlich ‘Red Teaming’, einer simulierten Hacking-Attacke, unterliegen. Was als ‘systemisches Risiko’ gilt, wird nach mehreren Kriterien definiert, von denen zwei die wichtigsten sind: ob die Menge an für das Modelltraining verwendeten Computing-Einheiten größer ist als 10^25 ‘Floating-Point-Operationen’, eine Branchenmetrik, und ob das Modell über 10.000 in der EU ansässige Unternehmensbenutzer verfügt. Bisher erfüllen nur ChatGPT-4 und möglicherweise Googles Gemini diese Kriterien.

Ein weiteres Problem ist, dass die Technologie schneller Fortschritte macht als die Regulierung. Die Veröffentlichung von Open-Source-Modellen wie Mixtral 8x7B wird die Transparenz und Zugänglichkeit erhöhen, birgt jedoch auch erhebliche Sicherheitsrisiken, da der Akt sie größtenteils von der Regulierung ausnimmt, es sei denn, sie stellen ein systemisches Risiko dar. Eine weitere Schlachtlinie ist der Besitz des geistigen Eigentums für die Daten, die Grundlagenmodelle antreiben. Das Aufkommen generativer KI hat Kreative schockiert und zu rechtlichen Schritten und sogar Streiks gegen ihre Verwendung in Branchen geführt, die bisher von technologischer Disruption verschont geblieben sind, wie Hollywood.

Die Nutzung von KI birgt in der Finanzbranche große Risiken, da Bereiche wie Risikomodellierung, Schadensmanagement, Geldwäschebekämpfung und Betrugserkennung zunehmend auf KI-Systeme angewiesen sind. Ein primäres Anliegen ist das ‘Black-Box’-Problem, d.h. die mangelnde Transparenz und Rechenschaftspflicht darüber, wie Algorithmen Entscheidungen treffen. Regulierungsbehörden haben festgestellt, dass KI systemische Risiken wie Blitzabstürze, Marktmanipulation durch KI-generierte DeepFakes und konvergente Modelle, die zu digitalem Kartell führen, verstärken können. Die Branche hat zugesagt, mehr ‘Erklärbarkeit’ zu fordern, wie KI für Entscheidungsfindung verwendet wird, aber dies bleibt bisher unerreichbar, während Regulierer selbst Opfer des Automatisierungsbias werden können, wenn sie übermäßig auf KI-Systeme angewiesen sind.