Die Ethik der Künstlichen Intelligenz (KI) ist kein eigenständiges Feld oder kohärente Diskussion, sondern vielmehr eine Zusammenstellung verschiedener Perspektiven, die die potenziellen Auswirkungen automatisierter Systeme und Algorithmen für menschliche Leben in Betracht ziehen. Verschiedene Interessengruppen haben unterschiedliche ethische Konzeptionen entwickelt und diese als KI-Ethik bezeichnet, um ihren eigenen Interessen gerecht zu werden. Diese verschiedenen Konzepte haben wichtige Fragen der sozialen Technologiekritik beleuchtet. Die Stakeholder haben unterschiedliche Verpflichtungen gegenüber ethischen Theorien sowie politische und wirtschaftliche Interessen in Bezug auf KI-Technologie und deren Anwendung.
Historisch gesehen hatten KI-Ethik ihre Wurzeln in der Maschinenethik und Roboterethik. Frühe Arbeiten zur KI-Ethik befassten sich hauptsächlich mit abstrakten philosophischen Problemen in der Metaethik, wie der Frage, ob Computer programmiert werden können, ethische Entscheidungen zu treffen, oder ob ethische Theorien wie der Utilitarismus berechenbar sind. Besonders fokussiert war dies auf Probleme mit kritischer Software, die direkte Auswirkungen auf Menschenleben haben könnte, sowie Bedenken bezüglich Datenschutz und Systemsicherheit. Dies führte zur Entwicklung von ethischen Grundsätzen wie der Forderung, sensibles und unsicheres Software-Systeme nicht mit Menschenleben zu betrauen oder Sicherheitsmechanismen zum Schutz persönlicher oder wertvoller Informationen zu implementieren.
In den 2010er Jahren wurde das Interesse an KI-Ethik durch die Entwicklungen im Bereich der autonomen Systeme, insbesondere selbstfahrende Autos, verstärkt. Es entstanden Diskussionen über ethisch schwierige Entscheidungen, die von autonomen Systemen auf der Grundlage von Algorithmen getroffen werden müssten. Dies führte zu einer Wiederbelebung des „Trolley-Problems“, eines philosophischen Gedankenexperiments, um aufzuzeigen, dass autonom agierende Systeme ethisch schwierige Entscheidungen treffen müssen. Des Weiteren führte die Diskussion um ethische Fragen zu fortgeschrittener KI und Superintelligenz zur Gründung von internen Ethik-Komitees in Technologieunternehmen.
Der Trend zur Schaffung interner Ethik-Komitees und zur Veröffentlichung von „KI-Ethik-Prinzipien“ durch Technologieunternehmen diente vor allem dazu, das Image der Unternehmen zu verbessern. Diese Prinzipien versprachen, dass die entwickelte KI nützlich und harmlos sei. Jedoch fehlte es oft an Transparenz, wie diese Regeln angewandt oder interpretiert wurden. Die Bemühungen der Industrie um Ethik sahen oft davon ab, tatsächlich rechtlich bindende Regulierungen für die Branche zu schaffen. Es gab und gibt noch keine solchen Regulierungen in den USA, während die EU ihre ersten Versuche zur Schaffung eines dedizierten AI-Regulierungsrahmens unternimmt.
Die andere Strömung der KI-Ethik, die sich in den 2010er Jahren entwickelte, befasste sich damit, wie Technologien unterschiedliche Auswirkungen auf verschiedene Menschen und Gruppen haben können. Es wurden Analysen durchgeführt, die aufzeigten, dass viele Technologien soziale Ungerechtigkeiten verstärken, Rassismus, Sexismus oder Klassismus zeigen oder auf andere Weise Voreingenommenheiten in ihren Auswirkungen auf verschiedene Gruppen aufweisen. Diese Bemühungen zielten darauf ab, „Daten- und algorithmengerechte Gerechtigkeit“ zu erreichen. Konferenzen und Forschungsbemühungen in diesem Bereich befassten sich mit der Identifizierung, Abschwächung und Beseitigung von sozialen Voreingenommenheiten in Algorithmen.
Der Autor des Textes, Peter M. Asaro, ist Mitbegründer des Internationalen Komitees für die Kontrolle von Roboterwaffen und der Kampagne zur Stoppt der Killerroboter. Er ist zudem außerordentlicher Professor an der School of Media Studies der New School.
Hinterlasse eine Antwort