Dipfejk – sofisticirana tehnologija za kreiranje dezinformacija (Video)

NOVINAR DIPFEJK dezinformacije
Izvor: Sora

Lažna vest ne mora da bude tekst – može da bude i fotografija koja izgleda potpuno stvarno.
Od pape u puf jakni do „uhapšenog Trampa“, generisane slike i dipfejk video snimci preplavljuju internet i ozbiljno testiraju kapacitete medija da razlikuju istinu od manipulacije. U eri veštačke inteligencije, granica između stvarnog i izmišljenog postaje sve tanja – a odgovornost novinara sve veća.

 

Veštačka inteligencija danas može da stvori vizuelni sadržaj koji izgleda potpuno uverljivo – ali koji zapravo nikada nije zaista postojao. Dva najčešća oblika takvog sadržaja su dipfejk video-snimci i VI generisane fotografije.

 

Deepfake (skraćeno od deep learning + fake) su video ili audio zapisi u kojima se nečije lice, glas ili pokreti manipulišu pomoću algoritama mašinskog učenja. Cilj je da osoba na snimku izgleda i zvuči kao da je nešto rekla ili uradila – iako nikada nije. Ovi snimci su sve sofisticiraniji i sve teže ih je razlikovati od autentičnih, naročito kad se distribuiraju bez konteksta.

 

S druge strane, VI generisane slike nastaju uz pomoć tzv. generativnih modela (poput Midjourney, DALL·E ili Stable Diffusion), koji na osnovu tekstualnog opisa stvaraju potpuno nove fotografije. Ove slike mogu prikazivati događaje koji se nikada nisu dogodili, ljude koji ne postoje ili čak realne osobe u lažnim situacijama.

 

Ako je ovakav sadržaj jasno označen, on može biti koristan u primeni u umetnosti, marketingu ili edukaciji. Međutim, korišćenje ovih alata u novinarstvu nosi ozbiljne rizike – posebno kada se lažni sadržaji predstavljaju kao autentični dokazi.

 

Fotomontaža ili dipfejk: u čemu je razlika?

 

 

 

 

Iako oba pojma označavaju vizuelne manipulacije, razlika između klasične fotomontaže i dipfejk tehnologije je značajna – kako u načinu izrade, tako i u stepenu uverljivosti.

 

„Dipfejk je sadržaj koji je nastao uz pomoć veštačke inteligencije i pod tim prvenstveno mislim na fotografije, video snimke i audio zapise“, objašnjava novinarka FakeNews Tragača Teodora Koledin.

 

„Ono kako se taj sadržaj razlukuje od standardnih, odnosno, manipulacija na koje smo navikli, jeste upravo po tome kako je kreiran, jer ga je kreirala veštačka inteligencija na osnovu određenog korpusa znanja na koji se ona bazira, a standardna manipulacija je uglavnom kreirana ručno ili polautomatski, gde imamo osobu koja sedne za računar, otvori neki program, recimo Fotošop i onda kreira neku manipulaciju. I ono po čemu se takođe razlikuje, barem danas, jeste da je nekako dipfejk zapravo i teže prepozntljiv nego ta standardna manipulacija“, dodaje ona.

 

Fotomontažu je lakše detektovati jer ostavlja tragove obrade i uz pomoć alata za obrnutu pretargu fotografija lako možemo pronaći originalnu sliku.

 

Dipfejk, s druge strane, nastaje uz pomoć algoritama dubokog učenja i može biti izuzetno uverljiv – toliko da ih je često teško prepoznati bez napredne forenzike.

 

Za razliku od fotomontaže, izrada dipfejka je jednostavnija jer ne zahteva profesionalne veštine i dostupna je svima.

 

Dipfejk možemo naći u mnogim sadržajima

 

Upotreba dipfejka i VI generisanih slika dozvoljena je i korisna ako se upotrebljava u ilustrativne ili umetničke svrhe. Međutim, na ovakav sadržaj možemo naići i u političkoj propagandi, teorijama zavere ili lažnim izveštajima i tada je svrha upotrebe manipulacija.

 

Na domaćoj sceni poznat je slučaj zlouportebe dipefejka na televiziji Pink, kada je u centralnoj informativnoj emisiji emitovano nekoliko VI generisanih video priloga u kojima su glavni akteri bili opozicioni političari, koji su stavljeni u manipulativan i zlonameran kontekst. Na snimcima nije postojala nikakva oznaka da nisu autentični, odnosno da su proizvedeni uz pomoć alata veštačke inteligencije.

 

Regulatorno telo za elektrosnke medije tada je preporučilo elektronskim medijima  da sadržaj generisan veštačkom inteligencijom jasno označe kao takav pre, tokom i nakon emitovanja, kao i da on ne bude deo informativnih emisija, već drugih žanrova, poput zabavnog, dokumentarnog ili obrazovnog.

 

Teodora Koledin posebno izdvaja korišćenje dipfejka u prevarantskim oglasima.

 

„To su uglavnom različite manipulativne reklame koje se odnose na neproverene medicinske preparate i takozvane lekove. I tu smo recimo imali dipfejk, čini mi se, Branimira Nestorovića, kako promoviše neki preparat, ili, na primer, dipfejk pevačice Konstrakte, kako reklamira preparat za zlobove. I zapravo i jedan i drugi su nastali na osnovu nekih već postojećih njihovih snimaka, da li iz intervjua, da li iz nekih emisija, koji su zatim uz pomoć veštačke inteligencije naknadno manipulisani. Naravno, bili su neki signali da ti videi nisu autentični. Sve zavisi od korisnika do korisnika, da li mogu da prepoznaju… Ali po komentarima smo mogli primetiti da postoje ljudi koji su zaista poverovali u autentičnost sadržaja“, navodi naša sagovornica.

 

Ona dodaje i da je taj sadržaj objavljen i sponzorisan na Fejsbuk stranicama: „Ono što je posebno zabrinjavajuće, što smo pronašli jeste da su targetirani ljudi koji su stariji od 65 godina. I to je opet dosta problematično zato što oni nisu u toj meri digitalno pismeni uglavnom. I zbog toga su podložniji ovakvoj vrsti manipulacije, pogotovo ukoliko još imaju taj konkretan zdravstveni problem.“

 

Kako možemo da prepoznamo dipfejk?

 

Za otkrivanje lažnog audio ili vizuelnog sadržaja ponekad je dovoljno samo pažljivo poslušati  ili pogledati sadržaj.

 

Postoji više „signala za uzbunu“ koji ukazuju da na to da je video naprvljen uz pomoć VI.

 

„Tako recimo, imamo neprirodno pomiranje usana kada govornik priča, imamo neku čudnu mimiku, potpuno izostajanje emocija dok govornik priča, ukoliko se naravno radi o snimcima.  Zatim, dešavalo se da neki delovi tela bukvalno u jednom trenutku nestanu, čudno se pomeraju i tako dalje“, objašnjava Teodora Koledin.

 

Kada su u pitanju fotografije, novinarka FakeNews Tragača kaže da treba da obratimo pažnju na sitne detalje.

 

„Što se tiče fotografija, to već znamo da veštačka inteligencija, na primer, često greši kada je broj prstiju u pitanju, da tu bude neki prst više ili prosto neki sitni detalji koji nisu logični. Ponekad greši u proporcijama stvari. Takođe ne obraćamo posebno pažnju na pozadinu fotografije. Tako da, eto postoje ti neki sitni znaci da je možda nešto generisano uz pomuć veštačke inteligencije, ali potrebno je dobro analizirati konkretan sadržaj“, pojašnjava naša sagovornica.

 

Za detekciju veštačke inteligencije posao olakšavaju i mnogi onlajn alati i softveri, poput InVID, FotoForensics, TinEye, Hive Moderation, Sensity AI ili DeepWare Scanner.

 

Tri osnovna alata koje novinari FakeNews Tragača koriste su DeepWare Scanner, inVID verify i softver BioID Playground, ali Koledin napominje da ipak nijedan nije u potpunosti pouzdan.

 

  • Za potrebe NUNS-ovog serijala edukativnih tekstova o veštačkoj inteligenciji, montirali smo deipfejk intervju sa glavnim i odgovornim urednikom BIRN-a Miloradom Ivanovićem, uz njegovu saglasnost, koji možete pogledati u nastvaku i pokušati da utvrdite nedostatke veštačke inteligencije. A ceo dipfejk intervju možete pogledati na sledećem linku.

 

 

Kako novinari treba da postupe ako posumnjaju da je neki sadržaj napravljen uz pomoć veštačke inteligencije?

 

U digitalnoj eri, kada se vesti šire brže nego ikad i kada publika informacije često konzumira vizuelno, sve teže je razlikovati autentičan vizuelni sadržaj od veštački generisanog.

 

Zbog toga, kako kaže Teodora Koledin, najbolje je ne objaviti sadržaj ukoliko posumnjamo da je  generisan uz pomoć veštačke inteligencije ili je u pitanju dezinformacija.

 

„Trebalo bi, da se recimo prvo (novinari) konsultuju sa kolegama ukoliko sami nisu dovoljno upoznati sa tom temom. Ali svakako danas, mislim da je važno da se svaki novinar ponaosob edukuje pogotovo o principima veštačke inteligencije, o sadržaju koji je generisan uz pomoć nje i prosto i sam da se upozna sa tim nekim alatima koji mogu olakšati proveru. I na kraju krajeva mogu se uvek obratiti ekspertima, da li fektčekerima ili nekim drugim poznavaocima, čisto kako bi bili sigurni pre nego što taj sadržaj plasiraju svojoj publici. A ukoliko već objave, naravno da kasnije objave ispravku ili obrišu tekst“, savetuje naša sagovornica.

 

Dakle, uloga novinara više nije samo da proverava činjenice – već i autentičnost fotografija i video zapisa, a bez novih znanja, alata i etičkih smernica, rizikuju da izgube poverenje publike.

 

  • Više o detekciji sadržaja nastalog uz pomoć veštačke inteligencije možete pronaći na sajtu FakeNews Tragača u posebnom odeljku, gde takođe, kroz vežbe, možete proveriti koliko ste uspešni u ovoj vrsti fektčekinga.

 

 

  • Ovaj multimedijalni sadržaj nastao je uz asistenciju sledećih VI alata: ChatGPT – pretraga pojmova „deepfake“ i „AI generisane slike“ koji se nalaze u uvodu teksta, Sora – generisnje naslovne ilustracije, HeyGen – pretvaranje slike u video i teksta u audio zapis i Canva – kreiranje videa i transkripcija

 

Tagovi

Povezani tekstovi