Führende Mitglieder des US-Finanzdienstausschusses wollen “Regulierungssandkästen” für KI.

Führende Mitglieder des US-Finanzdienstausschusses wollen “Regulierungssandkästen” für KI.

Die Führer des Finanzausschusses der Vereinigten Staaten (FSC) haben in einem am 16. August veröffentlichten Brief auf eine Anfrage des US-Finanzministeriums zur Regulierung künstlicher Intelligenz reagiert. Der Brief, unterzeichnet von der republikanischen Führung des Ausschusses, fordert im Grunde genommen einen leichteren Regulierungsansatz. Die Unterzeichner schreiben, dass ein Einheitsansatz den Wettbewerb zwischen Finanzinstituten nur hemmen würde und fordern, dass Regulierungsbehörden den Einsatz von KI-Technologie bei jeder Institution einzeln bewerten sollen.

Der Ausschuss zeigte sich optimistisch über den Einsatz generativer KI – wie z.B. Dienste und Produkte wie OpenAI’s ChatGPT und Anthropic’s Claude – im Finanzsektor. Er betonte das Potenzial dieser Technologien, den Zugang zu Finanzdienstleistungen zu erleichtern und sowohl die Adoption als auch die Inklusion zu steigern. Es wurde auch nachdrücklich ein organischer Ansatz zur Schaffung neuer Vorschriften und Gesetze empfohlen. Der FSC scheint für die Schaffung eines “Regulierungssandkastens” für KI zu plädieren und empfiehlt, den Status quo zu erhalten, indem bestehende Regeln auf entstehende Herausforderungen angewendet werden.

In Bezug auf den Verbraucherschutz und den Datenschutz stehen die Ansichten des Ausschusses anscheinend im Widerspruch zu seinem Bestreben nach einem eher zurückhaltenden Regulierungsansatz. Bisher durften Unternehmen wie OpenAI, Google, xAI menschengenerierte Daten für das Training von KI-Systemen sammeln. Der Brief des FSC besagt jedoch, dass US-Verbraucher “das Sammeln ihrer Daten beenden oder deren Löschung verlangen” können sollten. Wenn eine solche Regelung Gesetz würde, könnte dies sich potenziell verheerend auf das primäre Geschäftsmodell einiger der größten US-amerikanischen KI-Unternehmen auswirken. Aufgrund der Art und Weise, wie KI-Systeme wie ChatGPT trainiert werden, könnte das “Beenden der Datenerfassung” eine ineffektive Maßnahme bei bestehender Technologie sein. Das eigentliche Problem ist möglicherweise, dass es nicht möglich ist, Benutzerdaten aus vortrainierten Systemen zu “löschen”.