Stellen Sie sich die Szene vor: Eine neue Technologie wurde eingeführt, die anders ist als alles, was wir zuvor gesehen haben. Diese Technologie schafft eine neue Möglichkeit des Wissensaustauschs, die sowohl interessant als auch unterhaltsam ist und verspricht, regelmäßig neue Formen des Wissens zu generieren. Tatsächlich erscheint diese neue Schöpfung so transformativ, dass einer der weltweit prominentesten Unternehmer vorhersagt, dass die Methode der Wissensvermittlung an Schüler in nur wenigen Jahren radikal verändert werden wird. Ich beziehe mich natürlich auf das Jahr 1913 und die Einführung der Filmtechnologie – Filme -, die Thomas Edison dazu veranlasste, vorherzusagen, dass Bücher in Schulen innerhalb eines Jahrzehnts veraltet sein würden.
Hier sind wir wieder. Die Einführung von generativer künstlicher Intelligenz, insbesondere von “Large-Language-Models” (LLM)-Chatbots wie ChatGPT, hat viele dazu veranlasst vorherzusagen, dass diese neue Technologie die Bildung, wie wir sie kennen, verändern wird. Bill Gates zum Beispiel prognostizierte im April 2023, dass generative KI “innerhalb von 18 Monaten – bis Oktober dieses Jahres – so gut sein wird wie jeder menschliche Tutor sein könnte.” Nicht zu überbieten, glaubt Sal Khan, der Gründer der Khan Academy, dass KI “wahrscheinlich die größte Transformation sein wird, die die Bildung je gesehen hat.” Seine Organisation vermarktet den auf Bildung fokussierten Chatbot Khanmigo derzeit an Schulen.
Warum machen wir immer wieder denselben Fehler? Warum scheinen wir dazu verdammt zu sein, den endlosen Zyklus von Ed-Tech-Enthusiasten zu wiederholen, die bei den Ergebnissen weit über das Ziel hinausschießen und radikal unterliefern? Es gibt viele Gründe, aber ich werde mich hier auf einen konzentrieren: Wir verstehen die Rolle, die Technologie in der Bildung spielen kann, nicht richtig, weil wir das Wissenschaft des menschlichen Denkens und Lernens nicht richtig verstanden haben.
Weder ChatGPT noch Khanmigo noch eine andere vorhandene LLM-basierte Technologie ist derzeit in der Lage, eine robuste Theorie des Geistes hinsichtlich dessen zu entwickeln, was in den Köpfen ihrer menschlichen Benutzer passiert. Das ist einfach nicht, wie die Technologie funktioniert. Stattdessen sind diese Modelle im Wesentlichen nächstes-Wort-Vorhersage-Maschinen, was bedeutet, dass sie nachdem sie von von Menschen erstelltem Text angeregt wurden, eine komplizierte Reihe von statistischen Algorithmen ausführen, um vorherzusagen, welchen Text sie als Ausgabe generieren sollen. Dies fühlt sich oft an wie eine menschliche Unterhaltung, als ob ein anderer Verstand hinter der Maschine arbeiten würde, aber Gefühle können trügerisch sein.
Hinterlasse eine Antwort