In den letzten Jahrzehnten haben Informatiker eine Vielzahl von tiefen neuronalen Netzwerken (DNNs) entwickelt, um verschiedene realweltliche Aufgaben zu bewältigen. Einige dieser Modelle haben sich als äußerst effektiv erwiesen, jedoch ergaben einige Studien, dass sie unfair sein können, was bedeutet, dass ihre Leistung je nach den Daten, auf denen sie trainiert wurden, und sogar den Hardwareplattformen, auf denen sie eingesetzt wurden, variieren kann.
Beispielsweise zeigten einige Studien, dass kommerziell erhältliche Deep-Learning-Tools zur Gesichtserkennung signifikant besser darin waren, die Merkmale von hellhäutigen Personen im Vergleich zu dunkelhäutigen Personen zu erkennen. Diese beobachteten Unterschiede in der Leistung von KI-Modellen, hauptsächlich aufgrund von Disparitäten in den verfügbaren Trainingsdaten, haben Anstrengungen inspiriert, die darauf abzielen, die Fairness bestehender Modelle zu verbessern.
Forscher an der University of Notre Dame haben kürzlich untersucht, wie Hardware-Systeme zur Fairness der KI beitragen können. Ihr in Nature Electronics veröffentlichtes Papier identifiziert Möglichkeiten, wie neuartige Hardware-Designs, wie Computing-in-Memory (CiM)-Geräte, die Fairness von DNNs beeinflussen können.
Die kürzlich erfolgte Arbeit dieses Forschungsteams könnte zu zukünftigen Bemühungen beitragen, die Fairness von KI zu erhöhen, und Entwickler dazu ermutigen, sich sowohl auf Hardware- als auch auf Softwarekomponenten zu konzentrieren. Dies könnte wiederum die Entwicklung von KI-Systemen erleichtern, die sowohl genau als auch gerecht sind und bei der Analyse von Daten von Benutzern mit unterschiedlichen physischen und ethnischen Merkmalen gleichermaßen gute Ergebnisse liefern.
Hinterlasse eine Antwort