
Kritik an Musk Audio von US-Vize Vance wohl KI-generiert
In den sozialen Netzwerken kursiert eine Audio-Datei, in der US-Vize Vance sich sehr kritisch über Musk äußert. Vieles deutet darauf hin, dass es sich dabei um ein Fake handelt.
"Er lässt uns schlecht dastehen. Er lässt mich schlecht dastehen." Das soll US-Vizepräsident JD Vance über Tech-Milliardär Elon Musk gesagt haben. Nachzuhören ist das in einem knapp einminütigen Audio, das in den sozialen Netzwerken verbreitet wird und innerhalb weniger Stunden millionenfach aufgerufen wurde.
Dort wird behauptet, es handele sich um ein geleaktes Gespräch des US-Vizepräsidenten. Allerdings deutet vieles darauf hin, dass dieses Audio nicht echt, sondern gefälscht und möglicherweise KI-generiert ist.
Scharfe Kritik an Musk
In dem Audio ist die Stimme von Vance zu hören, zudem ein latentes Hintergrundrauschen. Dass in dem Audio über Musk gesprochen wird, geht aus dem Kontext hervor. So sagt die Stimme, dass "er aus Südafrika" kommt, was auf Musk zutrifft. Später heißt es: "Wenn er also die Wirtschaft und seine Autos in den Abgrund reißen will, hat er vielleicht genau das verdient." Musk ist Chef des Autokonzerns Tesla, dessen Aktienkurs in den vergangenen Wochen zwischenzeitlich stark eingebrochen war.
Die Stimme von Vance kritisiert Musk in dem Audio scharf. Musk helfe nicht und hätte die Dreistigkeit, so zu tun, als sei er gewählt worden. Dabei sei eigentlich Vance der "wichtige Mann". Musk sei "nicht einmal Amerikaner", verkleide sich aber als großer amerikanischer Führer. Musk hat keine offizielle Position in der US-Regierung inne. Allerdings leitet er das neu eingerichtete Gremium Department of Government Efficiency, kurz DOGE, um Einsparungen bei den Ausgaben der US-Regierung zu ermitteln.
Vance dementiert
Das offizielle Dementi von Vance folgte prompt. "Es ist ein gefälschter, KI-generierter Clip", schreibt er auf X. Sein Kommunikationsdirektor schrieb ebenfalls auf X, dass "diese Aufnahme zu 100 Prozent gefälscht ist und ganz sicher nicht vom Vizepräsidenten stammt".
Tatsächlich spricht viel dafür, dass das Audio eine Fälschung ist. Die frühesten Versionen des Audios sind Recherchen von ARD-faktenfinder und DW Fact check zufolge am 23. März auf TikTok erschienen. In einem dieser mittlerweile gelöschten TikTok-Videos wird der Name des US-Vize Präsidenten fälschlicherweise "Vence" geschrieben, was zumindest ein Indiz für eine Fälschung sein kann.
Auch geben die Accounts keinerlei Hinweise darauf, woher die angeblich geleakte Audiodatei stammt oder von wem sie diese bekommen haben. Es bleibt darüber hinaus unklar, wo oder wann das Video aufgenommen wurde.
KI-Detektoren weisen auf Deepfake hin
Analysen verschiedener KI-Detektoren kommen zu dem Schluss, dass das Audio mit großer Wahrscheinlichkeit gefälscht ist. Allerdings variieren die Tools in ihren Ergebnissen. Während einige es als sehr wahrscheinlich einschätzen, geben andere die Wahrscheinlichkeit eines Fakes mit etwa 50 Prozent an. Ein einziges getestetes Tool kommt wiederum zu dem Ergebnis, dass das Audio echt ist.
"Dass verschiedene Tools zu unterschiedlichen Ergebnissen kommen, ist nicht ungewöhnlich", sagt Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC). "Gerade neue oder bislang unbekannte Deepfakes lassen sich oft schwer zuverlässig identifizieren, insbesondere, wenn die Detektoren nicht darauf hin entwickelt worden sind."
Die Plattform deepfake-total.com vom AISEC kommt bei dem Audio auf eine Fake-Wahrscheinlichkeit von 81 Prozent. "Unsere KI hat also deutliche Hinweise auf einen Audio-Deepfake erkannt", so Müller. Allerdings müsse dabei beachtet werden, dass diese erste Einschätzung allein auf der Vorhersage der KI basiere und darüber hinaus keine Analyse oder Prüfung vorgenommen sein worden.
Hundertprozentig klären, ob die Audiodatei echt oder gefälscht ist, lässt sich mit den Tools allein somit nicht.
Audio laut Experten wohl KI-generiert
Doch auch aus Sicht von Experten spricht einiges dafür, dass es KI-generiert ist. "Nach unserer Überprüfung sind wir der Meinung, dass die Aufnahme wahrscheinlich nicht authentisch ist", sagt Hany Farid, Professor für Digitale Forensik an der UC Berkeley School of Information. Für die Untersuchung habe sein Team die hochwertigste verfügbare Version aufgespürt, die Stimme isoliert und Hintergrundgeräusche entfernt.
Raid zufolge stimmen zum einen Kadenz und Intonation nicht mit den typischen Sprachmustern von Vizepräsident Vance überein. "Darüber hinaus haben wir zwar keine vollständige biometrische Analyse durchgeführt, aber die Identität der Stimme in der Tonaufnahme klingt nicht nach Vance", so Raid. "Die ungewöhnlich niedrige Audioqualität - ein üblicher Trick, um Beweise für eine Manipulation/Synthese zu verschleiern - ist ebenfalls höchst verdächtig."
Audio-Deepfakes würden immer raffinierter, und es gebe einen wachsenden Trend zu gefälschten Leaks, die auf hochrangige Politiker und Journalisten abzielten.
Frequenz deutet auf Manipulation hin
Noch ein weiteres Indiz deutet darauf hin, dass das Audio ein Fake ist. Andrey Guzhov, der am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern an multimodalen lernenden Systemen und KI-gestützter Datenanalyse forscht, hat in einer spontanen Analyse vor allem die Frequenz des Hintergrundrauschens untersucht. Diese deute darauf hin, dass die Datei verändert wurde.
"In allen drei Aufnahmen gibt es keine klare Spitze um 50 Hz, was darauf hindeutet, dass die Aufnahmen nicht in Europa gemacht wurde, wo ein 50-Hz-Hintergrundbrummen üblich ist", so Guzhov. Gleichzeitig sei der Hauptpeak, der in den USA bei etwa 60 Hz liegen sollte, in Richtung 58 Hz verschoben. "Das deutet darauf hin, dass die Audioaufnahme bearbeitet wurde." Um sicher festzustellen, ob die Datei künstlich erstellt oder manipuliert wurde, seien gründlichere Analysen erforderlich.
Mitarbeit: Anwar Ashraf, DW Fact check
Hinweis: Dieser Artikel entstand im Rahmen der Kooperation der ARD Faktenchecker von ARD-faktenfinder, BR24 #Faktenfuchs, und DW Fact check.