Ljudi ne mogu da prepoznaju dipfejk govor u 27% slučajeva, otkrila je studija koju su sproveli naučnici sa Univerzitetskog koledža u Londonu (UCL).
U studiji je učestvovalo 529 ljudi kojima je pušteno 100 stvarnih i dipfejk govora. Njihov zadatak je bio da pokušaju da identifikuju dipfejk. Učesnici studije su mogli da identifikuju lažni govor samo u 73% slučajeva, iako se preciznost detekcije poboljšala u proseku za 3,84% nakon što su prošli obuku za prepoznavanje lažnog govora.
Istraživači su koristili algoritam za pretvaranje teksta u govor (TTS) obučen na dva javno dostupna skupa podataka da bi proizveli dipfejk uzorke govora i to na engleskom i kineskom mandarinskom kako bi se saznalo da li jezik može da utiče na performanse otkrivanja i obrazloženje donošenja procene.
„Naši nalazi potvrđuju da ljudi nisu u stanju da pouzdano otkriju lažni govor, bez obzira da li su prošli obuku koja će im pomoći da uoče veštački sadržaj. Takođe je vredno napomenuti da su uzorci koje smo koristili u ovoj studiji kreirani sa algoritmima koji su relativno stari, što postavlja pitanje da li bi ljudi bili manje sposobni da otkriju dipfejk govor kreiran korišćenjem najsofisticiranije tehnologije koja je dostupna sada i u budućnosti.“
Studija je prva koja procenjuje sposobnost ljudi da prepoznaju veštački generisan govor na jeziku koji nije engleski. Istraživači sada planiraju da razviju bolje automatizovane detektore govora kao deo napora da se stvore mogućnosti detekcije dipfejk zvuka i slika.
Dipfejk tehnologija – sintetički mediji generisani pomoću veštačke inteligencije i algoritama mašinskog učenja – poslednjih godina postaje sve realističnija. To uključuje manipulacije zvuka, videa i slika ili potpuno lažne kreacije sadržaja pojedinaca, često javnih ličnosti.
Godine 2019, izvršni direktor jedne energetske kompanije sa sedištem u Velikoj Britaniji prevaren je da prebaci 243.000 dolara nakon što je dobio telefonski poziv od nekoga ko je tvrdio da je nemački izvršni direktor kompanije. Prevaranti su koristili AI tehnologiju za lažiranje glasa. Ovo je bio prvi zabeleženi slučaj dipfejk prevare.
U drugom slučaju iz 2021. godine, jedna banka u Hong Kongu prevarena je za 35 miliona dolara kada su prevaranti koji su koristili tehnologiju da kloniraju glas direktora kompanije koji se sprema da izvrši akviziciju, zatražili od banke da odobri transfere vredne 35 miliona dolara.
Sve je više poziva da se reguliše dipfejk zbog njegovog potencijala da se koristi za prevare i širenje dezinformacija, kao što je to uradila Velika Britanija čiji zakon o bezbednosti na mreži uključuje odredbe kojima se kriminalizuje deljenje „dipfejk pornografije“.