Wir haben Menschen zu der Verwendung von KI zur Nachrichtenerstellung befragt. Sie sind besorgt und genervt.

Wir haben Menschen zu der Verwendung von KI zur Nachrichtenerstellung befragt. Sie sind besorgt und genervt.

Manchmal denken die Menschen beim Einsatz von künstlicher Intelligenz im Journalismus an einen Taschenrechner, ein akzeptiertes Werkzeug, das die Arbeit schneller und einfacher macht. Manchmal denken sie, dass es einfach nur Betrug ist, wenn die Arbeit eines Roboters als die eines menschlichen Journalisten ausgegeben wird. Manchmal wissen sie überhaupt nicht, was sie denken sollen – und das macht sie ängstlich. Alle diese Einstellungen stammen aus einer neuen Fokusgruppenforschung der University of Minnesota, die vom Poynter Institute in Auftrag gegeben wurde, über die Einstellungen der Nachrichtenkonsumenten zur künstlichen Intelligenz im Journalismus. Die Forschung, durchgeführt von Benjamin Toff, Direktor des Minnesota Journalism Center und außerordentlicher Professor an der Hubbard School of Journalism & Mass Communication in Minnesota, wurde den Teilnehmern auf dem AI, Ethics and Journalism Summit des Poynter Institute am 11. Juni vorgestellt.

Die Fokusgruppen, die Ende Mai durchgeführt wurden, umfassten 26 durchschnittliche Nachrichtenkonsumenten, einige davon wussten viel über die Nutzung von KI im Journalismus, andere wussten wenig. Toff diskutierte drei wichtige Erkenntnisse aus den Fokusgruppen: einen Hintergrundkontext von Angst und Ärger, den Wunsch nach Offenlegung seitens der Nachrichtenkonsumenten, sowie die Sorge vor zunehmender Isolation durch den verstärkten Einsatz von KI im Journalismus. Einige Teilnehmer sahen KI als Teil eines jahrhundertealten Zyklus, bei dem disruptive Technologien eine Branche oder eine Gesellschaft verändern, während andere größere Bedenken hatten.

Ein bemerkenswerter Befund der Fokusgruppen war, dass viele Teilnehmer bestimmte KI-Anwendungen zur Erstellung von Journalismus – insbesondere im Bereich der Verwendung von Sprachmodellen zum Schreiben von Inhalten – als Betrug empfanden. Die meisten Teilnehmer gaben an, dass sie wissen wollten, wann KI in Nachrichtenberichten verwendet wurde – und Offenlegung sei ein Bestandteil vieler Ethikrichtlinien von Nachrichtenredaktionen. Einige sagten jedoch, dass es für einfache, “niedrigschwellige” Inhalte nicht wichtig sei.

Poynter hat sich auf die ethischen Fragen konzentriert, die sich für Journalisten beim Einsatz von KI in ihrer Arbeit ergeben. Im März veröffentlichte Poynter ein “Starter-Kit” Rahmenwerk für Nachrichtenredaktionen, die eine Ethikrichtlinie für den Einsatz von KI erstellen mussten, das von McBride, Mahadevan und Dozent Tony Elkins verfasst wurde. Nach dem kürzlichen KI-Gipfel werden die Poynter-Experten dieses Rahmenwerk aktualisieren und erweitern. Diese Änderungen werden voraussichtlich auch den Datenschutz ansprechen, der zwar ein Thema auf dem Gipfel war, jedoch in den Fokusgruppen nicht so präsent war. Es wird also entscheidend sein, wie Journalisten ihren Zuhörern mitteilen, was sie mit KI machen, sagte Kelly McBride, die Senior Vice President von Poynter und Vorsitzende des Craig Newmark Center for Ethics and Leadership. Toff wird weiterhin Erkenntnisse aus den Ergebnissen der Fokusgruppen gewinnen müssen, da die Einstellungen der Verbraucher möglicherweise wichtige Einsichten für die Zukunft finanziell kämpfender Nachrichtenorganisationen enthalten.