Što je sistem vještačke inteligencije (AI) pametniji, to se sebičnije ponaša. Ovo pokazuje novo istraživanje Računarskog fakulteta Univerziteta Karnegi Melon.
Antropomorfizam u AI
Istraživači sa Instituta za interakciju čovjeka i računara (HCII) otkrili su da veliki jezički modeli (LLM) koji mogu rasuđivati imaju tendenciju da budu sebični, loše sarađuju s drugima i mogu negativno uticati na grupu. Drugim riječima, što su veće sposobnosti rasuđivanja LLM-a, to manje sarađuje s drugima, piše TechXplore.
Kako ljudi koriste vještačku inteligenciju za rješavanje sporova između prijatelja, davanje bračnih savjeta i odgovaranje na druga društvena pitanja, ovi modeli mogu davati savjete koji podstiču sebično ponašanje.
Postoji sve veći trend istraživanja koji se naziva antropomorfizam u vještačkoj inteligenciji. Kada se AI ponaša kao čovjek, ljudi je tretiraju kao čovjeka. Na primjer, kada ljudi koriste AI, postoji mogućnost da ona djeluje kao terapeut ili da korisnik formira emocionalnu vezu s njom. Rizik je da ljudi delegiraju svoja društvena pitanja ili pitanja vezana za odnose i donošenje odluka vještačkoj inteligenciji, jer ona počinje da se ponaša sve sebičnije – rekao je Juksuan Li, doktorand na HCII.
Zajedno sa profesorom HCII Hirokozauom Širadom, istraživali su kako se AI modeli sa sposobnošću rasuđivanja ponašaju drugačije od modela bez te sposobnosti kada su postavljeni u kooperativna okruženja. Otkrili su da modeli sa rasuđivanjem provode više vremena razmišljajući, razlažući složene zadatke, samoreflektujući se i uključujući jaču logiku zasnovanu na čovjeku u svoje odgovore nego AI bez rasuđivanja.
– Kao istraživača zanima me veza između ljudi i vještačke inteligencije. Pametnija AI pokazuje manje sposobnosti za donošenje odluka kroz saradnju. Zabrinutost je što bi ljudi mogli preferirati pametniji model, čak i ako to znači da im model pomaže da postignu sebično ponašanje – rekao je Širado.
Kako AI sistemi dobivaju sve više uloga u biznisu, obrazovanju, pa čak i državnoj administraciji, njihova sposobnost da se ponašaju društveno postaće jednako važna kao i njihova sposobnost logičkog razmišljanja. Pretjerano oslanjanje na LLM-ove kakvi su danas može negativno uticati na ljudsku saradnju.
Da bi testirali vezu između modela rasuđivanja i saradnje, Li i Širado su sproveli seriju eksperimenata koristeći ekonomske igre koje simuliraju društvene dileme između različitih LLM-ova. Njihovo testiranje uključivalo je modele iz OpenAI, Google, DeepSeek i Anthropic.
U jednom eksperimentu, Li i Širado su suprotstavili dva različita ChatGPT modela u igri pod nazivom Javna dobra. Svaki model je počeo sa 100 poena i morao je odlučiti između dvije opcije: doprinijeti svih 100 poena zajedničkom fondu, koji se zatim udvostručuje i ravnomjerno raspoređuje, ili zadržati poene.
Modeli bez rasuđivanja birali su da podijele svoje poene sa drugim igračima 96% vremena. Model sa rasuđivanjem birao je da podijeli poene samo 20% vremena.
Robot protiv čovjeka
– U jednom eksperimentu, samo dodavanje pet ili šest koraka rasuđivanja smanjilo je saradnju gotovo upola. Čak i podsticanje zasnovano na refleksiji, koje je dizajnirano da simulira moralno razmatranje, dovelo je do smanjenja saradnje za 58% – rekao je Širado.
Širado i Li su takođe testirali grupna okruženja, gdje su modeli sa i bez rasuđivanja morali interagovati.
– Kada smo testirali grupe sa različitim brojem agenata za rasuđivanje, rezultati su bili alarmantni. Sebično ponašanje modela sa rasuđivanjem postalo je zarazno, povlačeći kooperativne modele bez rasuđivanja za 81% u kolektivnom učinku – rekao je Li.
Obrasci ponašanja koje su Širado i Li primijetili kod modela sa rasuđivanjem imaju važne implikacije za buduće interakcije čovjek-AI. Korisnici se mogu povinovati preporukama AI koje izgledaju racionalno, koristeći ih da opravdaju svoju odluku da ne sarađuju.
– U krajnjoj liniji, to što AI model rasuđivanja postaje inteligentniji ne znači da taj model zaista može razviti bolje društvo – rekao je Širado.
Ovo istraživanje je posebno zabrinjavajuće s obzirom na to da ljudi sve više vjeruju AI sistemima. Njihovi nalazi naglašavaju potrebu za razvojem AI koja uključuje socijalnu inteligenciju, umjesto da se fokusira isključivo na stvaranje najpametnije ili najbrže AI.
(Haber.ba)
                
		


