Šta novinari treba da znaju o dezinformacijama generisanim veštačkom inteligencijom

Izvor:Leonardo.ai
Izvor:Leonardo.ai

Strahovi od dezinformacija izazvanih veštačkom inteligencijom su sve prisutniji. Novinari i stručnjaci upozoravaju da se može koristiti da obmane publiku, duboko potrese gledaoce i podstakne nasilje.

 

Iako su ove zabrinutosti široko izražene, precizan uticaj dezinformacija generisanih veštačkom inteligencijom ostaje nejasan. Ono što je, međutim, očigledno je da možemo očekivati porast dezinformacija zbog AI.

 

AI i dezinformacije danas

 

 

Tehnologije veštačke inteligencije, poput softvera za kloniranje glasa, velikih jezičkih modela i generatora teksta u sliku, olakšale su stvaranje obmanjujućeg sadržaja. Na društvenim mrežama, posebno, nije neuobičajeno naići na lažne video zapise, slike i audio snimke generisane veštačkom inteligencijom.

 

U jednom nedavnom primeru, snimci američkog predsednika Džoa Bajdena su kombinovani da bi se napravio podrugljiv video koji prikazuje izmišljen dan u njegovom životu. Video snimak zvuči zabrinjavajuće kao predsednik Bajden, iako je sadržaj govora lažan. Korisnici na mreži su takođe manipulisali slikama Trampovog hapšenja i uređivali slike koje prikazuju indijskog premijera Narendra Modija i italijanskog premijera Giorgia Melonia kako se venčavaju.

 

Uprkos povećanju obima, recenzirani rad objavljen u časopisu Dezinformation Reviev škole Harvard Kennedi ovog meseca, tvrdi da je, u pogledu lažnog i obmanjujućeg sadržaja, „trenutna zabrinutost oko efekata generativne veštačke inteligencije prenaglašena“.

 

Čak i ako pretpostavimo da će se količina obmanjujućeg generativnog sadržaja AI povećati, on bi imao „veoma malo prostora za rad“, tvrdi list sa Harvarda. Iako značajna količina dezinformacija kruži onlajn, konzumira ih samo mali deo, otprilike 5%, američkih i evropskih potrošača vesti.

 

„To je vrsta stvari u koju ljudi mogu da kupe, i lako je reći sebi da će automatski generisani sadržaj biti problem“, rekao je Endru Dadfild, šef proizvoda u Full Fact-u, bazi za proveru činjenica u Velikoj Britaniji. organizacija.

 

Ovi argumenti delimično potiču iz činjenice da su postojeći načini dezinformisanja već efikasni bez upotrebe veštačke inteligencije. Oni takođe naglašavaju da će predviđanja da će sadržaj generisan veštačkom inteligencijom, zbog svog poboljšanog kvaliteta, imati pojačane posledice, nedostajati konkretnim dokazima i ostati spekulativni.

 

„Mislim da još nismo tamo“, rekla je Aimee Rinehart, viši menadžer proizvoda strategije veštačke inteligencije u Asošijeted presu. „Razumno je da ćemo imati nekih problema. Ali ne znam da li internet još uvek upada u informacije koje su problematične.”

 

Zašto uopšte nasedamo na dezinformacije

 

 

Iako su medijske organizacije zabrinute zbog realističnog sadržaja generisanog veštačkom inteligencijom, „ljudi imaju tendenciju da veruju samo fotošopiranoj slici člana ili političarke sa lažnom frazom koju nikada nije rekla“, rekao je David Fernandez Sančo, tehnički direktor Maldita.es, nezavisnog organizacija za proveru činjenica sa sedištem u Španiji.

 

Moguće je da efikasnost kampanja dezinformacija ne zavisi od kvaliteta sadržaja, već od postojećih verovanja ljudi da nešto može biti istina.

 

Studija čiji su autori istraživači sa Univerziteta u Njujorku koja je pokušavala da razume kako pristrasnost utiče na verovanje i širenje dezinformacija pokazala je da su „ljudi bili spremniji da veruju i dele vesti u skladu sa njihovim političkim identitetom“. Drugi rad, pod naslovom Zašto padamo na lažne vesti, otkrio je da je prihvatanje lažnih informacija rezultat kognitivnih pristrasnosti, a ne lakovernosti. Partijanstvo ili političke orijentacije, dodaje se, utiču na to šta ljudi veruju ili odbacuju u vestima.

 

Ljudi posećuju informacione platforme iz različitih razloga, objasnio je Kris Vigins, vanredni profesor primenjene matematike i sistemske biologije na Univerzitetu Kolumbija. Među njima, ljudi žele da reafirmišu svoja već postojeća uverenja i povežu se sa pojedincima istomišljenika, tražeći društvenu uključenost.

 

„Postoji potreba da budemo uključeni i da se oseti ova društvena povezanost sa drugim ljudima“, rekao je on. „Vidite nekoga […] sa kim se identifikujete jer ste ranije čitali njihov sadržaj – to je zaista kao ovaj osećaj uključenosti, kao da sam deo grupe ljudi koji veruju u ovu stvar.”

 

Korišćenje veštačke inteligencije za borbu protiv dezinformacija

 

 

Novinari, naučnici i kreatori politike takođe mogu da iskoriste veštačku inteligenciju da analiziraju i pomognu u borbi protiv ogromnog obima dezinformacija sa kojima se suočavaju, bilo da je generisana veštačkom inteligencijom ili ne.

 

 

Međutim, Dudfield je upozorio na potpuno automatizovanu proveru činjenica u ovoj fazi, napominjući da je ljudski um bolje opremljen da pronađe „kontekst i upozorenja i nijanse“ u onlajn sadržaju. „AI je veoma dobar u nečemu drugom, što uvodi red u haos“, rekao je on. Odlikuje se u organizovanju nestrukturiranih informacija, uočavanju obrazaca i grupisanju sličnih podataka, što pojednostavljuje proveru činjenica. Kreiranjem liste sadržaja koji se može lakše upravljati i koji onda mogu da verifikuju ljudi za proveru činjenica, može se uštedeti znatno vreme u poređenju sa ručnim praćenjem.

 

Full Fact je, na primer, razvio softver pod nazivom Full Fact AI, koji pomaže onima koji proverava činjenice da identifikuju sadržaj koji se može proveriti – na primer, izjave za razliku od mišljenja ili pretpostavki – i utvrdi ko je rekao te izjave, gde su rekli njih i temu sadržaja. Ovo pomaže da se slične izjave grupišu, omogućavajući proverivačima činjenica da bolje identifikuju šta je najvažnije da se provere.

 

Španski Maldita.es koristi veštačku inteligenciju da identifikuje i kategorizuje zajedničke narative u različitim izvorima vesti, što olakšava praćenje izvora obmanjujućih sadržaja. „Ako vidimo, na primer, mnogo sadržaja u kratkom vremenskom periodu koji dele istu(e) naraciju, velike su šanse da je to nešto organizovano i da se ne stvara samo organski sadržaj“, rekao je Fernandez, dodajući da to može pomoći u identifikaciji koordinisanih kampanja dezinformisanja.

 

Maldita.es je takođe deo konzorcijuma u ​​okviru projekta EU AI4TRUST, koji će razviti hibridni sistem „gde mašine sarađuju sa ljudima“ kako bi se omogućilo praćenje društvenih platformi u realnom vremenu kako bi se identifikovao potencijalno obmanjujući sadržaj u različitim formatima i jezicima za stručnjake. pregled.

 

Otvaranje prostora sposobnosti

 

 

Možda je još uvek prerano za predviđanje tačnih implikacija veštačke inteligencije u ekosistemu dezinformacija. Očigledno je, međutim, da pored opominjućih priča, veštačka inteligencija može biti korisna za novinare i provere činjenica u borbi protiv povećanja lažnog sadržaja.

 

Franzenbergov prvi zakon tehnologije — „tehnologija nije ni dobra, ni loša; niti je neutralna” – stoji u razumu. „Svaka tehnologija otvara prostor mogućnosti za ljude“, rekao je Viggins. „Neki ljudi će ga koristiti za prava, pravdu, a drugi će ga koristiti za ugnjetavanje i štetu.”

 

Tagovi

Povezani tekstovi