Facebooku slična eksperimentalna platforma koja moderiranje stavlja u ruke svojih korisnika pokazuje da ljudi učinkovito ocjenjuju postove i svoje procjene dijele s drugima
Kad se bore protiv širenja dezinformacija, platforme društvenih mreža obično većinu korisnika stavljaju na suvozačko sjedalo. Platforme često koriste algoritme strojnog učenja ili ljudske provjere činjenica kako bi označile lažan ili dezinformirajući sadržaj za korisnike.
PROTOTIP PLATFORME
No, sad su istraživači MIT-ovog Laboratorija za računalnu znanost i umjetnu inteligenciju (CSAIL) razvili prototip platforme koja korisnicima omogućuje da procijene točnost sadržaja, naznače kojim korisnicima vjeruju da će procijeniti točnost i filtriraju objave koje se pojavljuju u njihovim feedovima na temelju tih procjena.
Terenskom studijom otkrili su da su korisnici mogli učinkovito procijeniti dezinformirajuće objave bez prethodne obuke. Štoviše, korisnici su cijenili mogućnost ocjenjivanja objava i pregleda procjena na strukturiran način. Pokazalo se kako ljudi različito koriste filtre sadržaja; dok su neki blokirali sav dezinformirajući sadržaj, drugi su samo filtrirali pojedine članke.
UČINKOVITIJE I SKALABILNIJE
Rad predstavljen u ACM Digital Library pokazuje da decentralizirani pristup moderiranju može dovesti do veće pouzdanosti sadržaja na društvenim medijima. Ovaj je pristup ujedno i učinkovitiji i skalabilniji od centraliziranih shema moderiranja i može se svidjeti korisnicima koji ne vjeruju platformama, kažu istraživači.
„Mnoga istraživanja dezinformacija pretpostavljaju da korisnici ne mogu odlučiti što je istina, a što nije pa im moramo pomoći. No, čini se da ljudi zapravo tretiraju sadržaj s pažnjom i da pokušavaju pomoći jedni drugima. Ali dosad nije postojala platforma koja bi ih podržavala“, upozoravaju istraživači.
BORBA PROTIV DEZINFORMACIJA
Trenutne metode koje platforme društvenih mreža koriste za označavanje ili uklanjanje dezinformirajućeg sadržaja imaju svoje loše strane. Na primjer, kad platforme koriste algoritme za provjeru činjenica, to može stvoriti napetost među korisnicima koji to tumače kao kršenje slobode govora.
„Ponekad korisnici žele da se u njihovom feedu pojave dezinformacije jer žele znati čemu su njihovi prijatelji ili obitelj izloženi, kako bi znali kada i kako razgovarati s njima o tome“, tvrde istraživači.
Korisnici često sami pokušavaju procijeniti i označiti dezinformacije te pomoći jedni drugima tražeći od prijatelja i stručnjaka da im pomognu shvatiti ono što čitaju. Korisnik objavu može komentirati ili reagirati ljutitim emojijem, ali većina platformi te radnje smatra znakovima angažmana. Na Facebooku, na primjer, to bi moglo značiti da će dezinformirajući sadržaj biti prikazan većem broju ljudi, uključujući korisnikove prijatelje i sljedbenike, a to je upravo suprotno od onoga što je korisnik želio.
OCJENJIVANJE SADRŽAJA
Stoga su istraživači nastojali stvoriti platformu koja korisnicima daje mogućnost pružanja i pregledavanja strukturiranih procjena točnosti objava, označavanja drugih kojima vjeruju da će procijeniti objave i korištenja filtara za kontrolu sadržaja prikazanog u njihovom feedu.
Tako je nastao Trustnet, prototip platforme nalik na Facebook, na kojoj korisnici objavljuju i dijele stvarne, cjelovite članke s vijestima i mogu pratiti jedni druge kako bi vidjeli sadržaj koji objavljuju drugi. Ali prije nego što korisnik može objaviti bilo kakav sadržaj na Trustnetu, mora ocijeniti taj sadržaj kao točan ili netočan ili se raspitati o njegovoj istinitosti, što će biti vidljivo drugima.
OSOBE OD POVJERENJA
„Razlog zbog kojeg ljudi dijele dezinformacije obično nije taj što ne znaju što je istina, a što laž. Umjesto toga, u trenutku dijeljenja njihova je pažnja pogrešno usmjerena na druge stvari. Ako ih zamolite da procijene sadržaj prije nego što ga podijele, to im pomaže da budu pronicljiviji“, tvrde istraživači.
Korisnici također mogu odabrati osobe od povjerenja čije će procjene sadržaja vidjeti. To rade privatno, u slučaju da prate nekoga s kim su društveno povezani ali ne vjeruju u njegove procjene. Platforma također nudi filtre koji korisnicima omogućuju konfiguriranje feeda na temelju toga kako su postovi ocijenjeni i tko ih je ocjenjivao.
TESTIRANJE TRUSTNETA
Testiranje Trustneta na malom uzorku pokazalo je kako ne čitaju svi vijesti na isti način. Korisnicima je ponekad bilo teško procijeniti sadržaj kada je sadržavao više tvrdnji, neke istinite, a neke lažne, ili ako su naslov i članak bili nepovezani. Zbog toga su istraživači pokrenuli i projekt proširenja preglednika koje korisnicima omogućuje izmjenu naslova vijesti kako bi bili usklađeniji sa sadržajem članka.
Trustnet bi korisnicima mogao omogućiti da ubuduće imaju aktivniju ulogu u borbi protiv dezinformacija. S druge strane, svjesni su njegovi tvorci, ovaj pristup mogao bi stvoriti situacije u kojima će korisnici vidjeti samo informacije iz izvora istomišljenika. Kako bi ublažili ovaj problem, program je napravljen tako da se filtri i strukturirane procjene mogu rekonfigurirati.
Istraživači sad žele proučiti metode koje bi mogle potaknuti ljude da čitaju procjene sadržaja ljudi različitih stajališta, možda putem gamifikacije. A budući da platforme društvenih mreža nerado unose promjene, razvijaju i tehnike koje će korisnicima omogućiti objavu i pregled procjena sadržaja putem uobičajenog pregledavanja weba, umjesto na platformi.