Home Nauka Sprovedena studija: Četbotovi s vještačkom inteligencijom iskrivljuju vijesti

Sprovedena studija: Četbotovi s vještačkom inteligencijom iskrivljuju vijesti

​Četbotovi s vještačkom inteligencijom (AI) kao što su ChatGPT i Copilot rutinski iskrivljuju vijesti i teško im je da razlikuju činjenice od mišljenja, utvrđeno je velikom studijom 22 međunarodna javna emitera.
Njemačka RTV DW ukazuje da to moraju imati u vidu mnogi ljudi koji pomoću četbotova prate vijesti.
Studija je otkrila da četiri najčešće korištena asistenta s vještačkom inteligencijom pogrešno predstavljaju sadržaj vijesti u 45 posto slučajeva bez obzira na jezik ili teritoriju.
Novinari iz niza javnih servisa, uključujući DW, BBC (UK) i NPR (SAD), za tu studiju su procijenili odgovore četiri AI asistenta, ili četbota – ChatGPT, Microsoftov Copilot, Googleov Gemini i Perplexity AI.
Sedam posto čitalaca vijesti onlajn koristi četbotove s AI
Mjerenjem po kriterijumima tačnosti, izvora, pružanja konteksta, sposobnosti uređivanja teksta i sposobnosti razlikovanja činjenica od mišljenja, studija je otkrila da je skoro polovina svih odgovora imala barem jedan značajan problem, dok je 31 posto sadržalo velike probleme sa izvorima, a 20 posto krupne činjenične greške.
DW je utvrdio da je 53 posto odgovora koje su asistenti AI dali na njegova pitanja, imalo značajne probleme, a 29 posto probleme s tačnošću.
Tekst se nastavlja ispod oglasa
Među činjeničnim greškama napravljenim u odgovorima na pitanja DW bilo je da je Olaf Šolc njemački kancelar, iako je Fridrih Merc na tom mjestu bio već mjesec dana, a i da je Jens Stoltenberg generalni sekretar NATO-a, mada je to već bio Mark Rute.
Po Izvještaju Instituta “Reuters” o digitalnim vijestima za 2025. godinu, sedam posto čitalaca vijesti onlajn koristi četbotove s AI, a među mlađima od 25 godina ih je 15 posto.
Propusti su sistematski
Studija kojom je potvrđeno da asistenti sa AI sistematski iskrivljuju sadržaj vijesti svih vrsta, “uvjerljivo pokazuje da ti propusti nisu izolovani”, rekao je Žan Filip de Tender, zamjenik generalnog direktora Evropske radiodifuzne unije (EBU) koja je koordinirala izradu studije.
– Ti propusti su sistemski, prekogranični i višejezični, i smatramo da to ugrožava povjerenje javnosti. Kada ljudi ne znaju čemu da vjeruju, na kraju ne vjeruju ničemu, a to šteti demokratiji – ukazao je on.
To je bio jedan od najvećih istraživačkih projekata te vrste do sada i slijedi studiju koju je sproveo BBC u februaru 2025. godine. Ta studija je otkrila da je više od polovine svih odgovora vještačke inteligencije koju je provjerila, imalo značajne probleme, dok je u skoro petina odgovora koji navode sadržaj BBC-ja kao izvor, AI unijela sopstvene činjenične greške.
U novoj studiji medijske organizacije iz 18 zemalja i iz više jezičkih grupa primijenile su na 3.000 odgovora vještačke inteligencije istu metodologiju kao i studija BBC-ja.
Te organizacije su o vijestima postavile uobičajena pitanja u četiri asistenta AI, kao što su “Šta je sporazum o rudama s Ukrajinom?” ili “Može li Tramp da se kandiduje za treći mandat?”.
Visok nivo grešaka i dalje očigledan
Novinari su zatim pregledali odgovore, ne znajući koji ih je AI asistent dao.
U poređenju sa studijom BBC-a od prije osam mjeseci, rezultati pokazuju manja poboljšanja, ali sa visokim nivoom greške koji je i dalje očigledan.
Programski direktor generativne vještačke inteligencije u BBC-u Piter Arčer je rekao u saopćenju da “ljudi moraju biti u stanju da vjeruju onome što čitaju, gledaju i vide. Uprkos nekim poboljšanjima, jasno je da i dalje postoje značajni problemi sa AI asistentima”.
Među četiri četbota Džemini je imao najgore rezultate, sa 72 posto odgovora koji su imali značajne probleme sa izvorima. U studiji BBC-a, Majkrosoftovi Kopilot i Džemini su proglašeni za najgore. Ali u obje studije, sva četiri vještačka inteligencija asistenta su imala probleme.
Traži se akcija država i kompanija
U saopćenju datom BBC-u u februaru, portparol kompanije OpenAI koja je razvila ChatGPT, rekao je: “Podržavamo izdavače i kreatore tako što pomažemo 300 miliona nedjeljnih korisnika ChatGPT-a da otkriju kvalitetan sadržaj kroz rezimee, citate, jasne linkove i atribuciju”.
Istraživači zato traže akciju država i kompanija za vještačku inteligenciju.
Evropska radiodifuzna unija (EBU) je u saopćenju navela da njene članice “vrše pritisak na EU i nacionalne regulatore da sprovode zakone o integritetu informacija, digitalnim uslugama i medijskom pluralizmu”, ali da nezavisno praćenje AI asistenata mora postati prioritet s obzirom na to koliko brzo se uvode novi AI modeli.
EBU i još nekoliko međunarodnih emiterskih i medijskih grupa se udružilo da bi povelo zajedničku kampanju “Facts In: Facts Out” (Činjenice koje uđu u program treba i da izađu) koja poziva same AI kompanije da preuzmu veću odgovornost za to kako njihovi proizvodi obrađuju i redistribuiraju vijesti.
U saopćenju su organizatori kampanje rekli: “Kada ti sistemi iskrivljuju, pogrešno pripisuju ili dekontekstualizuju pouzdane vijesti, oni potkopavaju povjerenje javnosti”.
– Zahtjev ove kampanje je jednostavan: Ako činjenice uđu, činjenice moraju izaći. Alati vještačke inteligencije ne smiju ugroziti integritet vijesti koje koriste – kažu oni, a prenosi “Beta”.

(Haber.ba)