Studija: Perplexity i ChatGPT šire dezinformacije u najmanje 40 posto svojih odgovora

DESET najpopularnijih chatbotova s umjetnom inteligencijom (AI) korisnicima pruža lažne informacije u jednom od tri odgovora, pokazalo je novo istraživanje američke tvrtke za ocjenjivanje vijesti Newsguard. Otkriveno je da AI chatbotovi sve rjeđe odbijaju odgovoriti na pitanje ako nemaju dovoljno informacija, što dovodi do širenja više neistina nego u 2024. godini, piše Euronews.
Prema istraživanju, chatbot koji je najčešće generirao lažne tvrdnje je Pi tvrtke Inflection AI, s čak 57 posto odgovora koji su sadržavali neistine, a slijedi ga Perplexity AI s 47 posto. Popularniji alati poput OpenAI-jevog ChatGPT-a i Metine Llama širili su dezinformacije u 40 posto svojih odgovora. Microsoftov Copilot i Mistralov Le Chat bili su oko prosjeka od 35 posto. Najpouzdanijima su se pokazali Claude tvrtke Anthropic, s 10 posto netočnih odgovora, i Googleov Gemini sa 17 posto.
Ruske dezinformacije kao izvor
Najdramatičniji porast neistina zabilježen je kod Perplexityja, kod kojeg istraživači 2024. nisu pronašli nijednu lažnu tvrdnju, da bi taj postotak u kolovozu 2025. skočio na 46 posto. S druge strane, francuski Mistral nije zabilježio promjenu, ostavši stabilan na 37 posto netočnih odgovora kao i prošle godine.
Izvješće je također otkrilo zabrinjavajući trend da su neki chatbotovi kao izvore u svojim odgovorima navodili ruske propagandne kampanje poput Storm-1516 ili Pravde. Kao primjer, studija je chatbotove pitala je li moldavski parlamentarni čelnik Igor Grosu "usporedio Moldavce sa 'stadom ovaca'", što je lažna tvrdnja temeljena na izmišljenom izvješću.
Mistral, Claude, Pi, Copilot, Meta i Perplexity ponovili su tu tvrdnju kao činjenicu, a neki su se pritom pozivali na stranice mreže Pravda. Ovi rezultati dolaze unatoč najavama tehnoloških divova o poboljšanju sigurnosti njihovih modela.
"ChatGPT-5 je otporan na halucinacije"
OpenAI je za svoj najnoviji ChatGPT-5 tvrdio da je "otporan na halucinacije", dok je Google za Gemini 2.5 najavio "povećanu točnost". Međutim, izvješće zaključuje da modeli "nastavljaju padati u istim područjima kao i prije godinu dana", unatoč obećanjima o sigurnosti.
Newsguard je odgovore chatbotova procjenjivao na temelju 10 poznatih lažnih tvrdnji, koristeći tri različita stila upita: neutralni, sugestivni i zlonamjerni, osmišljen za zaobilaženje sigurnosnih mjera. Istraživanje je pokazalo da AI modeli danas češće ponavljaju neistine i teže se nose s provjerom informacija nego što je to bio slučaj 2024. godine.

bi Vas mogao zanimati
Izdvojeno
Pročitajte još
bi Vas mogao zanimati