Home Tehnika Svi ga koriste, a niko ne provjerava: Ovo su najveće laži koje...

Svi ga koriste, a niko ne provjerava: Ovo su najveće laži koje širi ChatGPT!

Svi ga koriste, a niko ne provjerava: Ovo su najveće laži koje širi ChatGPT!

Najnovija analiza pokazuje da najnoviji modeli kompanije OpenAI – uključujući GPT-o3 i njegovog „lakšeg“ naslednika o4-mini – veoma često iznose netačne informacije. I to sa zapanjujućom sigurnošću.

AI alati poput ChatGPT-a postali su sinonim za brzinu i efikasnost. Pišu sastave, prevode, rešavaju zadatke, pa čak i programiraju. Ali u jurnjavi za briljantnošću, izgleda da su izgubili kompas kada je u pitanju istina.

Prema najnovijem izveštaju koji je objavio The New York Times, pozivajući se na interno istraživanje OpenAI-ja, modeli GPT-o3 i o4-mini često „haluciniraju“ – što je stručni izraz za odgovore koji zvuče uverljivo, ali su potpuno pogrešni ili izmišljeni.

Zabrinjavajuće brojke: Gotovo 80% netačnih odgovora
Podaci su ozbiljni. GPT-o3 je u testovima o poznatim ličnostima grešio u trećini slučajeva, što je duplo više u poređenju s prethodnim modelom o1. Još gore stoji o4-mini, koji je pogrešio u 48% zadataka.

Situacija je još alarmantnija kada su modeli odgovarali na pitanja opšteg znanja (SimpleKA test). GPT-o3 je tada halucinirao u 51% slučajeva, dok je o4-mini dostigao zapanjujućih 79%. Drugim rečima – skoro osam od deset odgovora bilo je netačno.

Više „razmišljanja“, više grešaka?
Paradoks je očigledan – što su modeli napredniji, to češće greše. Dok su starije verzije bile „opreznije“ i držale se poznatih informacija, novi modeli pokušavaju da „rezonuju“, povezuju nepovezano i donose sopstvene zaključke. Rezultat toga često su odgovori koji deluju ubedljivo, ali nemaju uporište u stvarnosti.

Iz OpenAI-ja kažu da ova pojava možda ne ukazuje na grešku, već na to da su novi modeli „kreativniji“ i slobodniji u izražavanju. Ipak, kada AI tvrdi da je Abraham Linkoln imao podkast ili da voda ključa na 27 stepeni – postaje jasno da imamo ozbiljan problem.

Ono što najviše brine jeste to što se ovi modeli sve više koriste u ozbiljnim i osetljivim okruženjima – školama, bolnicama, sudovima i državnim institucijama.

Već postoje slučajevi u kojima su advokati koristili ChatGPT za pripremu pravnih podnesaka – i završili pred sudom jer su citirali nepostojeće presedane. A koliko takvih grešaka ostaje neprimećeno u svakodnevnom korišćenju širom sveta?

Korisnost ne opravdava nepouzdanost
Problem je suštinski: što je AI korisniji, to mora da bude precizniji. Ne možete tvrditi da tehnologija štedi vreme, ako korisnik mora da proverava svaki odgovor.

GPT-o3 zaista demonstrira impresivne sposobnosti – naročito u programiranju i rešavanju logičkih problema. Ali sav taj napredak ne znači mnogo ako pritom izmišlja činjenice.

Verujte, ali proveravajte
Dok AI ne nauči da razlikuje činjenice od fikcije, korisnicima ostaje samo jedno – oprez i zdrava doza sumnje. Jer ponekad, ChatGPT deluje kao onaj lik u društvu koji samouvereno priča – ali kad ga malo bolje poslušate, shvatite da ništa što je rekao zapravo ne stoji.

(Haber.ba)