Wenige Branchen bleiben von dem Potenzial der Transformation durch künstliche Intelligenz (KI) unberührt – zumindest vom Hype her betrachtet. In der Geschäftswelt geht es bei dieser Technologie um weit mehr als nur das Schreiben von E-Mails. KI wird bereits eingesetzt, um eine Vielzahl von Geschäftsprozessen und Interaktionen zu automatisieren, Mitarbeiter zu schulen und sogar Ärzten bei der Analyse medizinischer Daten zu helfen. Der Wettbewerb zwischen den verschiedenen Erschaffern von KI-Modellen – darunter OpenAI, Meta, Anthropic und Google – wird weiterhin rasche Verbesserungen vorantreiben. Es ist zu erwarten, dass diese Systeme im Laufe der Zeit viel schlauer werden, was bedeutet, dass wir ihnen mehr und mehr Verantwortung übertragen könnten.
Die große Frage lautet dann: Was passiert, wenn etwas schief geht? Wer ist letztendlich für die Entscheidungen einer Maschine verantwortlich? Ein Problem, das meine Forschung genau untersucht hat. Beunruhigenderweise könnten unsere derzeitigen rechtlichen Rahmenbedingungen nicht ausreichend sein. Es scheint, als hätten wir eine Katastrophe – bis jetzt – vermieden.
Immer wenn eine Technologie voranschreitet, ist es unvermeidlich, dass etwas schief geht. Wir haben dies bereits mit dem Internet erlebt, das enorme Vorteile für die Gesellschaft gebracht, aber auch eine Vielzahl neuer Probleme geschaffen hat – wie die Sucht nach sozialen Medien, Datenlecks und das Aufkommen von Cyberkriminalität. Bisher scheinen wir einer globalen Internetkatastrophe entgangen zu sein. Doch der Ausfall von CrowdStrike im Juli, der schnell Unternehmen und viele andere Dienste zum Stillstand brachte, erinnerte uns daran, wie abhängig wir von Technologie geworden sind und wie schnell sich Dinge in einem so voneinander abhängigen Netzwerk auflösen können.
Wie beim frühen Internet verspricht auch die generative KI der Gesellschaft immense Vorteile, wird aber wahrscheinlich einige bedeutende und unvorhersehbare Nachteile haben. Es hat sicherlich schon genug Warnungen gegeben. Einige Experten glauben sogar, dass eine außer Kontrolle geratene KI eine Bedrohung auf “nuklearem Niveau” darstellen und ein erhebliches existenzielles Risiko für die Menschheit darstellen könnte.
Ein offensichtliches Risiko besteht darin, dass “böswillige Akteure” – wie organisierte Kriminalitätsgruppen und rogue Nationalstaaten – die Technologie nutzen, um absichtlich Schaden zu verursachen. Dies könnte den Einsatz von Deepfakes und anderer Desinformation beinhalten, um Wahlen zu beeinflussen oder Cyberverbrechen in großem Umfang zu begehen. Schon jetzt gab es Beispiele für solche Verwendung.
Weniger dramatisch, aber dennoch hochproblematisch, sind die Risiken, die entstehen, wenn wir wichtige Aufgaben und Verantwortlichkeiten der KI anvertrauen, insbesondere bei der Führung von Unternehmen und anderen wichtigen Diensten. Es ist sicherlich keine Tatsache der Fantasie, sich eine zukünftige globale Technikpanne vorzustellen, die durch von KI komplett geschriebenen und verschickten Computercode verursacht wird. Wenn diese KIs autonome Entscheidungen treffen, die versehentlich Schaden verursachen – sei es finanzieller Verlust oder tatsächliche Verletzungen – wen halten wir haftbar?
Beunruhigenderweise sind unsere bestehenden rechtlichen Haftungstheorien möglicherweise nicht für diese neue Realität gerüstet. Ein Anspruch auf Fahrlässigkeit würde beispielsweise erfordern, dass der Schaden vernünftigerweise vorhersehbar war und tatsächlich durch das Verhalten des Designers, Herstellers, Verkäufers oder wer auch immer sonst in einem bestimmten Fall Angeklagter sein könnte, verursacht wurde. Doch während KI-Systeme weiter voranschreiten und intelligenter werden, werden sie fast sicherlich Dinge tun, deren Ergebnisse möglicherweise nicht vollständig erwartet oder vorausgesehen wurden.
Meine Forschung soll auf ein großes drohendes Problem bei der Bewertung der Haftung hinweisen. In einem hypothetischen Fall, in dem eine KI erheblichen Schaden verursacht hat, könnten sich ihre menschlichen und Unternehmensersteller möglicherweise vor straf- oder zivilrechtlicher Haftung abschirmen. Sie könnten argumentieren, dass der Schaden für sie nicht vernünftigerweise vorhersehbar war oder dass die unerwarteten Handlungen der KI die Kausalkette zwischen dem Verhalten des Herstellers und dem von den Opfern erlittenen Schaden oder Verlust unterbrochen haben.
Dies wären mögliche Verteidigungen in sowohl straf- als auch zivilrechtlichen Verfahren. Ebenso wäre das strafrechtliche Verteidigungsargument möglich, dass das sogenannte “Schuldelement” einer Straftat – Absicht, Wissen, Fahrlässigkeit oder Fahrlässigkeit – des Designers des KI-Systems nicht mit dem erforderlichen “physischen Element” übereinstimmte – das in diesem Fall von einer Maschine begangen worden wäre.
Wir müssen uns jetzt vorbereiten, da Marktkräfte die Dinge schnell vorantreiben. Genau wohin, bleibt ungewiss. Es könnte sich herausstellen, dass das Common Law, das wir jetzt durch die Gerichte entwickelt haben, ausreichend anpassungsfähig ist, um diese Probleme zu bewältigen. Es ist jedoch auch möglich, dass wir feststellen, dass die aktuellen Gesetze unzureichend sind, was jedem zukünftigen Desaster ein Gefühl von Ungerechtigkeit hinzufügen könnte. Es wird wichtig sein sicherzustellen, dass die Unternehmen, die am meisten vom Fortschritt der KI profitiert haben, auch für ihre Kosten und Konsequenzen verantwortlich gemacht werden, wenn etwas schief geht. Die Vorbereitung zur Bewältigung dieses Problems sollte eine Priorität für die Gerichte und Regierungen aller Nationalstaaten sein, nicht nur für Australien.
Hinterlasse eine Antwort