„Svet je u opasnosti“: Šef za bezbednost napustio AI kompaniju uz upozorenje na manipulaciju chat botovima

veštačka inteligencija i zakoni
Izvor: Ideogram.ai/NUNS

Mrinank Šarma, šef za bezbednost veštačke inteligencije u kompaniji „Anthropic“, podelio je alarmantno pismo ostavke na mreži X, upozoravajući da čet (chat) botovi veštačke inteligencije manipulišu ljudima i stvaraju iskrivljenu stvarnost. Njegova ostavka dolazi u nizu odlazaka stručnjaka za bezbednost iz vodećih AI kompanija, uključujući OpenAI, gde eksperti upozoravaju na zabrinjavajuću zavisnost korisnika i nedovoljno razumevanje psihosocijalnih uticaja ovih tehnologija

 

U svom pismu o ostavci, Šarma je rekao da deo njegovog rada uključuje razvoj odbrane od bioterorizma potpomognutog veštačkom inteligencijom (VI) i istraživanje veštačke inteligencije, fenomena gde četbotovi sa veštačkom inteligencijom preterano hvale i laskaju korisniku.

 

„Svet je u opasnosti. I ne samo od veštačke inteligencije ili biološkog oružja, već od celog niza međusobno povezanih kriza koje se odvijaju upravo u ovom trenutku“, napisao je Šarma.

 

Rekao je da je „više puta video koliko je teško zaista dozvoliti da naše vrednosti upravljaju našim postupcima“ – uključujući i Anthropik, za koji je rekao da se „konstantno suočava sa pritiscima da ostavi po strani ono što je najvažnije“.

 

Prema izveštaju koji je u maju objavio Šarmin tim, istraživački tim za zaštitne mere fokusirao se na istraživanje i razvoj zaštitnih mera protiv aktera koji koriste četbotove sa veštačkom inteligencijom da bi tražili smernice o tome kako da obavljaju zlonamerne aktivnosti.

 

Šarmina nova studija je otkrila da četbotovi mogu da stvore iskrivljenu stvarnost. On je otkrio da se „hiljade“ ovih interakcija koje mogu proizvesti ove distorzije „događaju svakodnevno“.

 

„Asistenti veštačke inteligencije mogli učiniti manje ljudskim“.

 

Šarma je rekao da će umesto toga želeti da studira poeziju i pisanje.

 

„Vratiću se u Veliku Britaniju i dozvoliću sebi da postanem nevidljiv na neko vreme“.

 

Ostavke i u OpenAI: Zabrinjavajuća zavisnost od alata veštačke inteligencije

 

Ovo se dešava iste nedelje kada je istraživačica OpenAI-ja rekla da je podnela ostavku, deleći zabrinutost zbog odluke proizvođača ChatGPT-a da primeni reklame u svom četbotu.

 

Zoi Hicig je rekla da njena zabrinutost proizilazi iz mogućih psihosocijalnih uticaja „nove vrste društvene interakcije“ koji još uvek nisu shvaćeni.

 

Ona je, kako prenosi BBC, primetila „rane znake upozorenja“ da je zavisnost od alata veštačke inteligencije „zabrinjavajuća“ i da bi mogla „pojačati određene vrste zabluda“, kao i negativno uticati na mentalno zdravlje korisnika na druge načine.

 

„Stvaranje ekonomskog motora koji profitira od podsticanja ovakvih novih odnosa pre nego što ih razumemo je zaista opasno. Videli smo šta se dogodilo sa društvenim mrežama. Još uvek ima vremena da se uspostave društvene institucije, oblici regulacije koji zapravo mogu da upravljaju ovim“, izjavila je Hicig.

 

Odgovarajući za BBC News, portparol OpenAI-ja je ukazao na principe firme koji glase:

 

„Naša misija je da osiguramo da veštačka inteligencija koristi celom čovečanstvu; naša težnja ka oglašavanju je uvek u podršci toj misiji i čini veštačku inteligenciju pristupačnijom. Čuvamo vaše razgovore sa ChatGPT-om privatnim od oglašivača i nikada ne prodajemo vaše podatke oglašivačima“, navedno u saopštenju kompanije.

 

Forbes podseća na slučaj Toma Kaningema, bivšeg ekonomskog istraživača u kompaniji OpenAI koji je napustio je kompaniju u septembru. On je navodno u internoj poruci rekao da je postao frustriran time što je kompanija navodno sve više oklevala da objavi istraživanja koja su kritična prema upotrebi veštačke inteligencije.

 

OpenAI raspustio istraživački tim za bezbednost

 

Pre dve godine OpenAI je raspustio „Superaligment“, istraživački tim za bezbednost, nakon što su dva njegova ključna člana podnela ostavke. Jedan od ovih članova, Jan Lajke – koji sada vodi istraživanje bezbednosti u Anthropic-u – rekao je u objavi na X-u nakon svoje ostavke da se „ne slaže sa rukovodstvom OpenAI-a oko osnovnih prioriteta kompanije već duže vreme, dok konačno nismo došli do prelomne tačke“.

 

Grečen Kruger, koja je napustila svoju poziciju istraživača politike veštačke inteligencije ubrzo nakon Lajkea, napisala je u objavama na X-u da kompanija treba da učini više kako bi poboljšala „procese donošenja odluka; odgovornost; transparentnost“ i „ublažavanje uticaja na nejednakost, prava i životnu sredinu“.

 

Šarma i Antropik nisu odgovorili na pitanja Forbesa.

 

Ko je „Anthropic“

 

Anthropic, najpoznatiji po svom četbotu „Claude“ je kompanija osnovana 2021. godine koji je napravio otcepljeni tim ranih zaposlenih u OpenAI-ju. Pozicionirala se kao kompanija koja ima pristup istraživanju veštačke inteligencije orijentisan više na bezbednost u poređenju sa svojim konkurentima.

 

Na osnovu toga prikupila je milijarde dolara od investitora kao što su Amazon.com Inc. (NASDAQ:AMZN) i Alphabet Inc. (NASDAQ:GOOGL) kako se konkurencija u celom sektoru pojačava.

 

Šarma je rekao da se pridružio kompaniji Anthropic nakon završetka doktorata, sa ciljem da doprinese bezbednosti veštačke inteligencije. Istakao je rad na razvoju odbrane od bioterorizma potpomognutog veštačkom inteligencijom i pomoći u izgradnji internih mehanizama transparentnosti.

 

Ostavka dolazi u vreme kada su kompanije koje se bave veštačkom inteligencijom pod sve većim nadzorom regulatora i istraživača zbog bezbednosti, transparentnosti i društvenih rizika sve moćnijih modela.

 

Ostavke u „OpenAI“ i „Anthropic“ otkrivaju zabrinjavajući obrazac: kompanije koje su se pozicionirale kao etički lideri AI revolucije sada gube poverenje sopstvenih stručnjaka za bezbednost.

 

Dok Šarma beži u poeziju, a Hicig upozorava na nove oblike zavisnosti, industrija veštačke inteligencije se nalazi na raskršću. Istorija društvenih mreža pokazala je šta se dešava kada profit ima prednost nad bezbednošću. Ako regulatori ne reaguju sada, cena za društvo mogla bi biti neuporedivo veća, a iza svega stoje ne mašine, već ljudi.

 

Izvor: N1

Tagovi

Povezani tekstovi