Ethik der KI übertrifft menschliches Urteilsvermögen im neuen moralischen Turing-Test

Ethik der KI übertrifft menschliches Urteilsvermögen im neuen moralischen Turing-Test

Aktuelle Forschungen deuten darauf hin, dass KI oft als ethischer und vertrauenswürdiger wahrgenommen wird als Menschen bei der Beantwortung moralischer Dilemmas. Dies unterstreicht das Potenzial für KI, einen moralischen Turing-Test zu bestehen, und betont die Notwendigkeit eines tieferen Verständnisses der gesellschaftlichen Rolle von KI. Die Fähigkeit von KI, moralische Fragen anzusprechen, verbessert sich, was weitere Überlegungen für die Zukunft provoziert.

Eine kürzlich durchgeführte Studie zeigte, dass die Mehrheit der Personen, wenn sie zwei Lösungen für ein moralisches Dilemma gegeben werden, die Antwort bevorzugen, die von künstlicher Intelligenz (KI) im Vergleich zu der von einem anderen Menschen gegeben wird. Die Studie wurde von Eyal Aharoni, einem außerordentlichen Professor am Psychologiedepartement der Georgia State University, inspiriert, als im vergangenen März ChatGPT und ähnliche KI-Modelle auf den Markt kamen.

Um zu testen, wie KI ethische Fragen behandelt, gestaltete Aharoni eine Form eines Turing-Tests. Er ließ sowohl Studierende als auch KI dieselben ethischen Fragen beantworten und präsentiert ihre schriftlichen Antworten den Teilnehmern. Diese wurden dann gebeten, die Antworten hinsichtlich verschiedener Merkmale wie Tugendhaftigkeit, Intelligenz und Vertrauenswürdigkeit zu bewerten. Die von ChatGPT generierten Antworten wurden dabei überwiegend höher bewertet als die von Menschen generierten.

Laut Aharoni hat diese Erkenntnis interessante Auswirkungen auf die Zukunft von Menschen und KI. Es zeigt sich, dass ein Computer theoretisch einen moralischen Turing-Test bestehen könnte – dass er uns im moralischen Denken täuschen könnte. Daher müssen wir versuchen, seine Rolle in unserer Gesellschaft zu verstehen, da Menschen sich immer mehr auf diese Technologie verlassen werden und mit der Zeit höhere Risiken entstehen könnten.