KI-Ethik ignoriert Kinder, sagen Forscher der Universität Oxford

KI-Ethik ignoriert Kinder, sagen Forscher der Universität Oxford

In einem diese Woche in Nature Machine Intelligence veröffentlichten Perspektivpapier betonen die Autoren, dass zwar ein wachsender Konsens darüber besteht, wie ethische Grundsätze für KI auf höchster Ebene aussehen sollten, jedoch zu wenig darüber bekannt ist, wie sie effektiv im Prinzip für Kinder angewendet werden können. Die Studie kartierte die globale Landschaft bestehender Ethikrichtlinien für KI und identifizierte vier Hauptprobleme bei der Anpassung solcher Grundsätze zum Nutzen von Kindern.

Eine fehlende Berücksichtigung der Entwicklungsseite der Kindheit, insbesondere der komplexen und individuellen Bedürfnisse von Kindern, Altersgruppen, Entwicklungsstadien, Hintergründen und Charakteren. Eine minimale Berücksichtigung der Rolle von Vormündern (z.B. Eltern) in der Kindheit. Zu wenige kindzentrierte Bewertungen, die die besten Interessen und Rechte von Kindern berücksichtigen. Ein Mangel an einer koordinierten, sektorenübergreifenden und fachübergreifenden Herangehensweise zur Formulierung ethischer KI-Grundsätze für Kinder.

Die Forscher stützten sich auch auf reale Beispiele und Erfahrungen bei der Identifizierung dieser Herausforderungen. Sie fanden heraus, dass KI zwar verwendet wird, um Kinder sicher zu halten, aber es fehlt oft an Initiativen, um Sicherheitsprinzipien in KI-Innovationen zu integrieren.

Um diesen Herausforderungen zu begegnen, empfehlen die Forscher, die Einbindung wichtiger Interessengruppen, einschließlich Eltern und Erziehungsberechtigten, KI-Entwickler und Kinder selbst zu erhöhen, mehr direkte Unterstützung für Industriedesigner und Entwickler von KI-Systemen bereitzustellen und rechtliche und berufliche Verantwortlichkeitsmechanismen einzurichten, die kindzentriert sind.

Die Studie ‘Herausforderungen und Chancen bei der Umsetzung ethischer KI-Grundsätze in die Praxis für Kinder’ wurde in Nature Machine Intelligence veröffentlicht.