Eine manipulierte Version einer Rede der demokratischen Präsidentschaftskandidatin Kamala Harris wurde Ende letzten Monats vom Besitzer Elon Musk auf der Plattform X, früher als Twitter bekannt, erneut veröffentlicht. Das Video enthielt gefälschte Aussagen über Harris’ Qualifikationen für die Präsidentschaft und ihre Zeit im Weißen Haus. Musk sagte später, das Video sei als Satire gedacht gewesen, aber der Schaden war bereits angerichtet – zum Zeitpunkt dieser Veröffentlichung hatte das manipulierte Video mehr als 219.000 Nachbildungen, 930.000 Likes und 100.000 Lesezeichen. Es ist nur das neueste Beispiel dafür, wie gut KI-generierte Inhalte geworden sind und wie schädlich sie sein können.
Ein Deepfake ist eine Kombination aus “Deep Learning” und “Fake”, die sich auf die hyperrealistische, digital manipulierte Arbeit bezieht, die es produziert. Deepfakes umfassen Gesichtstausch, Audiomanipulation, Gesichtsreaktionen und Lippen-Synchronisation, die KI-Anwendungen nutzen, um Bilder und Videoclips zu mischen, zu ersetzen und zu überlagern, um gefälschte Produkte zu erzeugen, die authentisch erscheinen. Der Begriff hat aufgrund der von ihm produzierten Inhalte eine negative Konnotation – häufig Mobbing, Fake News und sogenannter Rache-Porno. Es hat jedoch auch positive Anwendungen, wie die Übersetzung von Videos in andere Sprachen.
Laut UC-Professor Jeffrey Shaffer ist KI an sich nicht schlecht, aber die Modelle, die verwendet werden, um sie zu trainieren, basieren auf menschlichem Wissen und Erfahrung und beziehen unsere eigenen Vorurteile in die Reaktionen der KI mit ein. Fünf Tipps zum Erkennen von KI-Deepfakes sind: ein grundlegendes Verständnis von KI zu bewahren, Inkonsistenzen im Video oder Audio zu suchen, skeptisch gegenüber zu perfekt erscheinenden Inhalten zu sein, Rückwärtssuche von Bild- oder Videosuchwerkzeugen zu verwenden, um zu sehen, ob der Inhalt manipuliert wurde oder von einer anderen Quelle stammt, und KI-Tools zu verwenden, um die Pixel und Abbildungsmerkmale zu analysieren. Shaffer empfiehlt, nach Hinweisen zu suchen, die darauf hindeuten, dass der Inhalt von einer KI erstellt wurde, und andere KI-Tools zu nutzen, um zu überprüfen, ob ein misstrauisches Werk KI-generiert ist. Er weist darauf hin, dass es mit dem Fortschritt der KI-Technologie für Menschen zunehmend schwieriger wird, Deepfakes visuell zu erkennen.
Hinterlasse eine Antwort