Begegnen Sie diesen 4 großen Risiken bei Experimenten mit KI.

Begegnen Sie diesen 4 großen Risiken bei Experimenten mit KI.

Künstliche Intelligenz hat das enorme Potenzial, das Lernerlebnis der Schüler zu verbessern. Neue Forschungen von Cognitive Resonance legen jedoch nahe, dass große Sprachmodelle keine Suchmaschinen sind. Administratoren und Pädagogen müssen die mit KI verbundenen Risiken verstehen, während sie innovative Wege finden, um sie in ihren Schulen zu nutzen. Interaktionen mit großen Sprachmodellen, auch als LLMs bekannt, wirken oft wie Gespräche, was dazu führen kann, dass Nutzer glauben, dass die Technologie das spezielle Thema “kennt” oder “versteht”. Dies kann dazu führen, dass LLMs autoritärer wirken, als sie tatsächlich sind.

LLMs bestimmen nicht, welche Antwort am besten zu Ihren spezifischen Bedürfnissen passt, und sie produzieren nicht unbedingt wahre Antworten. Um Pädagogen, die KI-basierte Initiativen in ihren Schulbezirken leiten, besser zu unterstützen, nennt der Bericht vier “Gefahren” der generativen KI. Jede Gefahr behandelt die Auswirkungen auf die Unterrichtsplanung, die Erstellung von Lehrmaterialien, die Bewertung, das Tutoring und administrative Aufgaben. LLMs sollten nicht wie Suchmaschinen behandelt werden, sondern sind darauf ausgelegt, Text vorherzusagen.

In Bezug auf die Unterrichtsplanung könnten LLMs beispielsweise nicht korrekt vorhersagen, welche Unterrichtssequenz das Wissen der Schülerinnen und Schüler effektiv aufbauen würde. LLMs lernen nicht auf die Weise, wie Menschen lernen. Sie sind durch einseitige kulturelle Praktiken und Werte beeinflusst. LLMs produzieren ihre Antworten auf der Grundlage von Mustern, nicht des Denkens. Die effektive Nutzung von LLMs erfordert menschliches Wissen und Fachwissen, da Wissen nicht an KI ausgelagert werden kann.

Insgesamt zeigt der Bericht, dass die Verwendung von LLMs menschliches Wissen und Expertise erfordert. Beispielsweise lösen LLMs mathematische Probleme normalerweise nicht, indem sie formale Mathe-Regeln anwenden. Bildungsfachleute müssen daher die Ausgabe von LLMs sorgfältig überwachen, wenn sie für den Mathematikunterricht verwendet werden. Der effektive Einsatz von LLMs erfordert daher menschliches Wissen und Fachwissen, um das volle Potenzial von KI auszuschöpfen.