Die Künstliche Intelligenz hat sich in den vergangenen Jahren und Monaten rasant weiterentwickelt. Einige Technologie-Experten sehen in der klugen Technik sehr viel Potenzial, andere warnen vor einer zu schnellen Weiterentwicklung. Eine Studie, die von Kimberly Mai und ihren Kollegen von der Universität London, über Plos One veröffentlicht wurde, konzentrierte sich nun auf sogenannte Speech Deepfakes, also durch KI gefälschte Reden, und darauf, wie gut Menschen sie als solche erkennen.
Täuschender Algorithmus
Deepfakes sind Algorithmen, die die Aufgabe haben, sich die Stimme oder die Gestik eines echten Menschen anzueignen. Infolgedessen können sie unter anderem dazu verwendet werden, um Personen über das Internet, Chatnachrichten oder Videos zu täuschen. In der Vergangenheit wurden bereits mehrfach Prominente und Politiker Opfer eines solchen Deepfakes. Dabei wurde ihr Gesicht verwendet, um etwa eine Falschnachricht zu überbringen. Mai, Chefautorin der Studie, erläutert die Risiken der digitalen Bedrohungen. „Frühere Literatur hat Deepfakes als eine der größten Sicherheitsbedrohungen hervorgehoben, die sich aufgrund ihres Missbrauchspotenzials aus dem Fortschritt der künstlichen Intelligenz ergeben.“
"That's something that can ruin someone's life."@emilychangtv and @charlidamelio discuss the very real dangers of deepfake technology.
Watch the full episode of The Circuit here: https://t.co/gaXDO7Tp87 pic.twitter.com/29Z9dr0Yoq
— Bloomberg Originals (@bbgoriginals) September 5, 2023
Mensch oder Deepfake?
Mai und ihr Team haben es sich zunächst zur Aufgabe gemacht, herauszufinden, wie gut Menschen einen Deepfake als solchen erkennen können. Untersuchungen hierzu seien aktuell kaum vorhanden: „Studien, die menschliche Nachweisfähigkeiten untersuchen, sind begrenzt.“
Für ihre Studie suchte das Team 529 Probanden. An der Universität in London wurden dann einige Tests durchgeführt. Allen Teilnehmern wurden jeweils vier Sprachaufnahmen in Englisch und Mandarin vorgespielt. Im Anschluss sollten sie angeben, welche von einer echten Person stammte und welche nicht. „Wir haben festgestellt, dass die Erkennungsfähigkeit unzuverlässig ist.“, so die Forscher. „Die Zuhörer entdeckten die Deepfakes nur in 73 % der Zeit richtig, und es gab keinen Unterschied in der Nachweisbarkeit zwischen den beiden Sprachen.“
Die Testpersonen konnten also die Mehrheit der Deepfakes erkennen. Dennoch wurden zahlreiche Aufnahmen nicht als Fake erkannt. Die Teilnehmer gaben also an, dass sie von einer echten Person eingesprochen wurde, obwohl dahinter eine künstliche Intelligenz steckte. Die Forscher beschreiben, dass ihre Ergebnisse die Bedenken einiger Experten unterstreichen. Sie gehen außerdem davon aus, dass das Erkennen der Deepfakes im Alltag vermutlich noch schwerer fallen würde und die Quote dementsprechend weiter sinken könnte.
Die Wissenschaftler weisen auch darauf hin, dass es die Möglichkeit gibt, Deepfakes mit einem Algorithmus zu bekämpfen. Doch auch diese KIs müssten erst lernen, sie zu erkennen. Demnach könnte sich die Technologie in Zukunft möglicherweise selbst bekämpfen.
Bild von Alexandra_Koch auf Pixabay