Ein Schüler bittet einen künstlichen Intelligenz-Bildgenerator, wie Google’s Gemini, um ein Bild eines Arztes, und es zeigt wahrscheinlich einen weißen Mann in einem Laborkittel und Stethoskop. Bittet man ein generatives KI-Tool wie ChatGPT, zwei nahezu identische Schüleressays zu bewerten, die Musik erwähnen, so würde der Klassik-Liebhaber höhere Noten erhalten als der Rap-Fan. Obwohl Roboter und Computer Maschinen sind und keine eigenen Meinungen zu einem Benutzer haben, reflektiert die KI-Technologie oft die in der Gesellschaft vorhandenen Vorurteile. AI-Tools sind so voreingenommen wie wir, da sie auf uns trainiert wurden und ein Spiegel unserer Gesellschaft sind.
Experten betonen, dass bei der Transformation der K-12-Bildung durch KI Lehrkräfte auf die in den Daten reflektierten gesellschaftlichen Vorurteile achten müssen, da diese nicht nur auf Rasse, Geschlecht oder Einkommensfragen begrenzt sind, sondern auch auf Sprachschüler, Lern- und Denkunterschiede oder die Leistungsebene der Schüler abzielen können. Es wird darauf hingewiesen, dass KI nicht kontextbezogen denken kann, sondern nur auf Muster und Inkonsistenzen basiert. Lehrkräfte sollten die Vorteile nutzen, die KI bietet, aber sicherstellen, dass die Technologie niemals das letzte Wort bei Entscheidungen über Schüler hat, um Diskriminierungen zu vermeiden.
Die Bias-Probleme bei KI entstehen aufgrund von Informationsmängeln, da die Technologie nicht ausreichend Informationen über bestimmte Gruppen hat. Beispielsweise verfügen die Datensätze meist über viele Informationen zu Englischmuttersprachlern und neurotypischen Schülern, aber nur begrenzte Informationen über Englischlernende oder Schüler mit besonderen Bedürfnissen. Generative KI-Tools wie ChatGPT können durch die Analyse großer Datenmengen schlauer werden, aber die hauptsächlich auf Englisch basierende Online-Inhalte können zu erheblichen Voreingenommenheiten in den Empfehlungen führen.
Experten warnen davor, dass echte Konsequenzen für Schüler entstehen können, wenn Maschinen das menschliche Urteil übertrumpfen, da dies zu diskriminierenden Entscheidungen führen kann. Es wird empfohlen, AI als Brainstorming-Partner und nicht als Autorität zu betrachten, um kritisches Denken zu fördern und nicht blind den Empfehlungen der Technologie zu vertrauen. Schulen sollten Lehrkräfte sorgfältig darauf schulen, wie sie diese Tools nutzen können und Anbieter kritisch auf mögliche Voreingenommenheiten überprüfen. Schließlich sollte eine breite Palette von Schülern Zugang zu AI-Kursen haben, um mögliche Ungleichheiten zu minimieren und einen besseren Schutz vor Bias zu gewährleisten.
Hinterlasse eine Antwort