Kalifornien hat ein wegweisendes Gesetz verabschiedet, das als erstes Sicherheitsmaßnahmen für die größten KI-Systeme einführen soll. Das Gesetz zielt darauf ab, potenzielle Risiken durch künstliche Intelligenz zu reduzieren, indem Unternehmen verpflichtet werden, ihre Modelle zu testen und ihre Sicherheitsprotokolle öffentlich zu offenlegen, um beispielsweise zu verhindern, dass die Modelle manipuliert werden, um das Stromnetz des Bundesstaates zu löschen oder chemische Waffen zu entwickeln.
Das Gesetz wurde knapp vom Versammlungsgremium genehmigt und erfordert eine endgültige Abstimmung im Senat, bevor es dem Gouverneur zur Unterzeichnung vorgelegt wird. Befürworter des Gesetzes sagen, es würde einige der dringend benötigten Sicherheitsgrundregeln für große KI-Modelle in den Vereinigten Staaten festlegen. Das Gesetz richtet sich an Systeme, die mehr als 100 Millionen Dollar an Daten zur Schulung erfordern, wobei bisher keine KI-Modelle diesen Schwellenwert erreicht haben.
Das Gesetz stieß auf heftigen Widerstand von Risikokapitalfirmen und Technologieunternehmen, die sagen, dass Sicherheitsvorschriften auf Bundesebene festgelegt werden sollten und dass die kalifornische Gesetzgebung Entwickler angreift, anstatt diejenigen anzusprechen, die KI-Systeme für Schaden nutzen und ausnutzen. Die Gesetzgebung wird von AI-Unternehmen unterstützt, nachdem der Gesetzesentwurf geändert wurde, um einige der Vorschläge des Unternehmens zu berücksichtigen.
Kalifornien, Heimat von 35 der weltweit 50 Top-KI-Unternehmen, war ein früher Anwender von KI-Technologien und könnte bald generative KI-Tools einsetzen, um Themen wie Autobahnstaus und Verkehrssicherheit anzugehen. Gouverneur Newsom, der sich zuvor nicht zu dem Gesetz geäußert hatte, hatte vor einer Überregulierung von KI gewarnt.
Hinterlasse eine Antwort