Forscher des NIST schlagen historisches Vorbild für ethische KI-Forschung vor

Forscher des NIST schlagen historisches Vorbild für ethische KI-Forschung vor

Eine multidisziplinäre Forschergruppe des National Institute of Standards and Technology (NIST) schlägt vor, dass beim Training von Künstlicher Intelligenz (KI) auf voreingenommenen Daten die gleichen ethischen Grundsätze angewendet werden sollten, die seit Jahrzehnten zum Schutz von menschlichen Versuchspersonen angewendet werden. Die Grundideen des Belmont-Berichts aus dem Jahr 1979, die als “Respekt vor Personen, Wohltätigkeit und Gerechtigkeit” zusammengefasst werden, sind die Kernprinzipien, die die US-Regierungspolitik zur Durchführung von Forschungsstudien beeinflusst haben. Die Forschergruppe hat ihre Arbeit im Februarheft des IEEE Computer-Magazins veröffentlicht und schlägt vor, dass diese Grundsätze auf alle Studien angewendet werden, die menschliche Versuchspersonen einschließen, um sicherzustellen, dass KI-Systeme ethisch trainiert werden.

Die Belmont-Report entstand als Reaktion auf unethische Forschungsstudien und legte die ethischen Grundprinzipien für den Schutz von Menschen in Forschungsstudien fest. Obwohl die Regeln des Belmont-Reports nur für Regierungsforschung gelten, schlagen die NIST-Autoren vor, dass die Konzepte breiter auf alle Forschung angewendet werden, die menschliche Versuchspersonen einschließt. Ein wichtiger Aspekt bei der Anwendung dieser Prinzipien auf KI-Forschung ist die Notwendigkeit, sicherzustellen, dass die Daten ethisch erhoben und verwendet werden, um jegliche Verzerrungen in den Datensätzen zu vermeiden, die sich auf bestimmte Bevölkerungsgruppen auswirken könnten.

Die Anwendung der drei Prinzipien des Belmont-Berichts auf die KI-Forschung könnte relativ einfach sein: Respekt vor Personen würde erfordern, dass Studienteilnehmer informierte Einwilligung für die Verwendung ihrer Daten geben, während Wohltätigkeit implizieren würde, dass Studien so gestaltet werden müssten, dass das Risiko für Teilnehmer minimiert wird. Gerechtigkeit würde erfordern, dass Teilnehmer fair ausgewählt werden, um eine unangemessene Ausgrenzung zu vermeiden. Die Autoren betonen, dass ihr Papier als Ausgangspunkt für eine Diskussion über KI und unsere Daten betrachtet werden sollte und dazu beitragen könnte, ethische Grundsätze bei Unternehmen und Nutzern ihrer Produkte zu fördern. Es wird betont, dass dies aus moralischen Gründen erfolgen sollte und nicht aus einer Forderung nach staatlicher Regulierung.