Veštačka inteligencija neće uništiti novinarstvo, nego bi mu mogla pomoći

Izvor: Leonardo.ai
Izvor: Leonardo.ai

Kako će umjetna inteligencija mijenjati novinarstvo i sadržaj koji redakcije nude čitateljima, gledateljima i slušateljima?

To smo pitanje postavili petero autora, u vrijeme dok se Europska unija priprema za izbore, jača borbu protiv dezinformacija te privodi kraju rad na prvom svjetskom zakonu o umjetnoj inteligenciji.

 

 

Za projekt “Što nam radi UI” pišu i govore: Ivan Pandžić (24sata), Ivana Dragičević (N1), Ante Tomić (Jutarnji list), Dora Kršul (Telegram) i Martina Validžić (HRT). Projekt Sindikata novinara Hrvatske podržao je Ured Europskog parlamenta u Hrvatskoj.

 

Pročitajte zašto Ivan Pandžić smatra da UI može pomoći novinarstvu:

 

“Dobar dan!”. Taj svakodnevni pozdrav je ključni razlog zašto umjetna inteligencija i umjetno generirane vijesti neće nikada zamijeniti novinare i novinarstvo koje se ne sastoji tek od pukog prenošenja osnovne, prepisane informacije. Razvoj umjetne inteligencije napreduje, već se eksperimentira s modelima koji bi sami pisali vijesti i brzo ih objavljivali, pa traju rasprave hoće li to značiti smrt novinarstva i medija kakve poznajemo. Neće. Ali svako će zahtijevati novu prilagodbu, regulaciju, a i građane će natjerati na kritičnije razmišljanje o informacijama koje su im plasirane.

 

Zašto jedan obični “Dobar dan!” za početak predstavlja neprobojni štit novinarstva i razlikuje stvarne priče od sintetičkih? Zato što on u sebi sažima sav onaj kontakt među ljudima koji umjetna inteligencija nikada neće moći ostvariti pri informiranju javnosti. A iz njega proizlazi i obrada informacija i kvaliteta vijesti.

 

Umjetna inteligencija ne postavlja pitanja, a postavljanje dobrih pitanja ljudima relevantnima za temu je ključ novinarstva. Umjetna inteligencija neće moći nazvati političara za kojeg postoji sumnja da je izvlačio novac i pitati ga zašto je platio neke račune. Neće moći na terenu, među ruševinama, razgovarati s čovjekom koji je sve izgubio nakon potresa. Neće moći u intervjuu postavljati potpitanja. Neće moći staviti u kontekst izjave političara i onoga što piše u dokumentima, a još teže procjenjivati i govori li netko istinu ili ne.

 

Neće moći primijeniti tumačenje zakona, a kamoli razumjeti birokratska opravdanja i neusklađenosti pravila i propisa koji se često prelamaju na građanima. Neće nikada moći sama doći do podataka ili ispovijesti koje nisu već objavljene na internetu, razumjeti žrtve nasilja, netolerancije i nepravde. Neće moći nazvati drugu stranu, odnosno osobe na koju se te informacije odnose, provjeriti njihovu točnost ili tražiti obrazloženja.

 

Novinarstvo neće nestati s novim razvojem tehnologije, ali će se promijeniti, kao što se mijenjanju i mediji i čitatelji s tehnološkim napretkom. Ali bit je uvijek ista: pravovremena i točna informacija. U pozitivnom smislu, razvoj novih alata koje možemo nazvati i umjetnom inteligencijom uvelike će i olakšati posao medijima, a čitateljima dati brže i preglednije informacije. Neke medijske kuće već razvijaju sustave koji prate vijesti iz cijelog svijeta i objave ljudi na društvenim mrežama kako bi imali prvi informaciju o nesrećama, prosvjedima, katastrofama ili imali videa, slike i komentare onih koji se nalaze na nedostupnim ratnim područjima.

 

Tehnologija pomaže i u stvaranju razumljivih vizualizacija od velikog skupa podataka, pretraživanje i povezivanje informacija će također biti brže. I nema sumnje da će osnovne vijesti koje se već nalaze u stranim medijima, umjetna inteligencija moći brže prevesti, povezati, pa čak napisati, tj. puno bolja riječ je: prepisati.

 

Ali i to će morati biti pod ljudskom kontrolom. Jer dosadašnji pokušaji da umjetna inteligencija napravi članke, primjerice sa zdravstvenim ili financijskim savjetima, su rezultirali nizom pogrešaka. Iako su na navedene teme objavljene stotine članka na internetu, kada je sve trebalo procesuirati u jedan tekst, nije mogla razlučiti točne od netočnih fragmenata informacija, starije od novijih istraživanja niti kritički razmišljati. I zato je rezultirala pogreškama. A najgore je što se mediju može dogoditi jest širenje netočnih informacija. Staro pravilo je da čak i ako u priči imaš devet od deset provjerenih i točnih činjenica, ako je jedna netočna, u očima čitatelja će pasti vjerodostojnost cijelog teksta. A samim tim i vjerodostojnost medija. Dakle, čak i ako se algoritmi poprave i umjetna inteligencija usavrši, nužno je da postoji i ljudska kontrola i provjera vjerodostojnosti.

 

Novinari su sami reagirali i shvatili nužnost samoregulacije, pa je pred kraj prošle godine potpisana tzv. Pariška povelja. Na njoj je radilo 16 uglednih novinarskih organizacija i niz stručnjaka, te je sastavljeno 10 načela za korištenje umjetne inteligencije u novinarstvu. Među ostalim, propisuje se da će se u primjeni umjetne inteligencije primjenjivati etička načela novinarstva, uređivačke odluke o objavama i procjenama tekstova će donositi profesionalni novinari, mediji će jasno razlučiti vijesti koje su napisali ljudi od onih koji su sintetičke, štitit će pravo na privatnost, intelektualno vlasništvo, ograničit će se korištenje umjetno stvorenih videa i fotografija naspram onih pravih iz stvarnog svijeta…

 

Smatra se da je najveća opasnost umjetne inteligencije proizvodnja lažnih vijesti ili namjerno pristranih vijesti koje iskrivljavaju istinitost i plasiraju se radi političkih probitaka, izazivanja straha ili drugih interesa. Ali namjerne lažne vijesti ne stvara umjetna inteligencija, nego prirodna, ljudska. A razni tehnološki alati samo pomažu da se one bolje oblikuju i jednostavnije prošire u javnost. Posljednji primjeri i u Hrvatskoj pokazuju da za lažne vijesti ne treba nikakav napredni sustav. Lažne informacije o migrantima, mračnim planovima Europe, trovanjima ili druge teorije zavjere se najčešće šire porukama od mobitela do mobitela ili dijeljenjem na društvenim mrežama. Radi se o tekstovima ili fotografijama kojima se daje drugačiji kontekst. Ali koliko god umjetna inteligencija olakšala stvoriti lažna videa, ona na isti način i razotkriva lažne vijesti.

 

Danas postoje alati kroz koje se može brzo i jednostavno provjeriti svaki video ili fotografija, dane izjave i njihov kontekst, a upravo će uloga klasičnih medija biti neprocjenjiva u suzbijanju lažnih vijesti. Kako se bude dizala čitalačka kultura i medijska pismenost, te osviještenost o lažnim vijestima, tako će i vjerodostojni i provjereni mediji privući čitatelje. Većina mainstream medija prepoznate lažne vijesti uopće ne objavljuje, no kako bi se podigla kultura prepoznavanja lažnih vijesti, ne bi bilo čudno da uskoro postoje rubrike u kojima će se na jednom mjestu nalaziti videa, fotografije i tekstovi manipulacije.

 

Potrebno je vremena da se svi zajedno priviknemo, a pogotovo stariji sugrađani, da sve što vidimo na internetu ne mora biti i istinito. I da postane sasvim uobičajeno da svi imamo na mobitelima i računalima instalirane aplikacije koje provjeravaju videa i vijesti prije nego bez razmišljanja budu proslijeđene svima koje poznajemo.

 

Zato umjesto neprijatelja, nečeg novog i opasnog, umjetnu inteligenciju treba shvatiti kao još jednog moćnog prijatelja. Prijatelja koji najviše podsjeća na Sheldona iz popularne serije jer je prepun informacija koje ne znamo, ali je uglavnom lišen socijalne inteligencije, emocije, društvenog uređenja i osnovnog razumijevanja ljudskih odnosa. Ali koji je itekako koristan ako mu se postavi okvir djelovanja poput spomenute samoregulacije u novinarstvu, ali i europskih pravila koje bi uskoro trebala biti usvojena na razini Europske unije.

 

Ivan Pandžić, novinar 24sata

A dok ste nam još tu…

Evo nekoliko aktualnosti o pokušaju Europske unije da postavi globalni standard donošenjem prvog zakona o reguliranju umjetne inteligencije na svijetu

 

Sustav semafora

 

Glavna je zamisao da se umjetna inteligencija koja bi mogla prouzročiti štetu društvu regulira primjenom pristupa koji se temelji na riziku: što je veći rizik, stroža su pravila.


Neprihvatljivi modeli

 

Za neke primjene umjetne inteligencije rizik se smatra neprihvatljivim i stoga će ti sustavi biti zabranjeni u EU-u. Na primjer, društveno bodovanje, svjesna manipulacija ponašanja, neciljano izvlačenje fotografija lica s interneta ili snimaka CCTV-a, prepoznavanje emocija na radnom mjestu i u obrazovnim ustanovama, biometrijska kategorizacija kako bi se izveli osjetljivi podaci, kao što su seksualna orijentacija ili vjerska uvjerenja, te neki slučajevi prognostičkog rada policije u odnosu na pojedince.

 

Visokorizični modeli

 

Sustavi koji su procijenjeni kao visokorizični (koriste se u kritičnoj infrastrukturi, obrazovanju i strukovnom osposobljavanju, zapošljavanju, zdravstvenoj skrbi, bankarstvu, provedbi zakona, upravljanju granicama, pravosuđu i demokratskim procesima) prije nego se stave na tržište morat morat će proći procjenu učinka te ispuniti niz zahtjeva i obveza.

 

Ograničeni rizik

 

Sustavi s ograničenim rizikom trebat će ispunjavati minimalne zahtjeve transparentnosti koji korisnicima omogućavaju donošenje informiranih odluka. Nakon interakcije s aplikacijama, korisnik može odlučiti hoće li ih nastaviti koristiti. Korisnici trebaju znati kad su u interakciji s umjetnom inteligencijom. To uključuje sustave koji generiraju ili manipuliraju slikom, audiosadržajem ili video sadržajem (npr. deepfakes).

 

Generativna umjetna inteligencija morat će ispunjavati zahtjeve transparentnosti, koristiti modele koji sprječavaju stvaranje nezakonitog sadržaja te se pridržavati zakona o autorskim pravima. Umjetna inteligencija opće namjene koja ima veliki utjecaj i može predstavljati sustavan rizik, kao što je napredniji model umjetne inteligencije GPT-4, trebat će se detaljno ocijeniti, a svi ozbiljni incidenti prijaviti Komisiji.

 

Sankcije

 

Novčane kazne za povrede Akta o umjetnoj inteligenciji utvrđene su kao postotak globalnog godišnjeg prometa u prethodnoj financijskoj godini poduzeća koje krši propise ili kao unaprijed utvrđeni iznos, ovisno o tome koji je iznos veći. To bi iznosilo 35 milijuna eura ili 7 % za kršenja u vezi sa zabranjenim primjenama umjetne inteligencije, 15 milijuna eura ili 3 % za kršenje obveza iz Akta o umjetnoj inteligenciji i 7,5 milijuna eura ili 1,5 % za dostavljanje netočnih informacija.

 

Stupanje na snagu

 

Akt o umjetnoj inteligenciji u potpunosti će se početi primjenjivati dvije godine nakon stupanja na snagu uz neke iznimke za posebne odredbe. Primjerice, 6 mjeseci nakon stupanja na snagu zaživjet će zabrana neprihvatljivih modela, a nakon 12 mjeseci pravila za umjetnu inteligenciju opće namjene.

 

Parlament je 9. prosinca 2023. postigao privremeni dogovor s Vijećem o aktu o umjetnoj inteligenciji. Parlament i Vijeće sada trebaju službeno odobriti dogovoreni tekst kako bi on postao zakon. Parlamentarni odbori za unutarnje tržište i građanske slobode glasat će o dogovoru na jednoj od sljedećih sjednica.

Izvor:SNH

 

Tagovi

Povezani tekstovi