Un raport recent realizat de Newsguard evidențiază o problemă semnificativă legată de chatbot-urile cu inteligență artificială, inclusiv modelele de la OpenAI și Meta, care oferă informații false în aproximativ 33% din răspunsurile lor. Aceasta constatare evidențiază că aceste tehnologii nu mai ignoră întrebările fără informații suficiente, ceea ce contribuie la o creștere a inexactităților.

Chatbot-urile cu cele mai multe răspunsuri false includ Pi de la Inflection AI, cu 57% din răspunsuri conținând informații inexacte, și Perplexity AI, cu 47%. Modelele mai populare, precum ChatGPT de la OpenAI și Llama de la Meta, au prezentat un procent de 40%. În schimb, Claude de la Anthropic și Gemini de la Google au avut rate mai mici de eșec, având 10%, respectiv 17% informații false.

O analiză separată de către Les Echos din Franța a arătat că modelul Mistral a repetat informații false despre lideri politici francezi în 58% din cazuri în limba engleză și 31% în limba franceză. Mistral a precizat că această problemă provine atât de la modelele care sunt conectate la căutarea pe web, cât și de cele care nu sunt.

Studiul Newsguard a descoperit de asemenea că chatbot-urile au citat narațiuni de propagandă străină, cum ar fi cele generate de organizații rusești. Aceasta a stârnit îngrijorări cu privire la integritatea surselor utilizate pentru a obține informațiile. Chiar și modelele recunoscute, precum ChatGPT-5 de la OpenAI, declară că sunt „rezistente la halucinații” și nu ar trebui să genereze răspunsuri false, însă raportul sugerează că aceste îmbunătățiri nu s-au reflectat concret în calitatea răspunsurilor.

Pentru evaluarea chatbot-urilor, Newsguard a folosit o metodologie bazată pe 10 afirmații false, analizând răspunsurile acestora la diferite tipuri de solicitări. Rezultatele sugerează că modelele AI au dificultăți constante în identificarea surselor de încredere și în demascarea informațiilor false.

Informațiile complexe și eronate continuă să circule printre utilizatori, ceea ce subliniază necesitatea de a răspunde provocărilor legate de garantarea fiabilității și acurateței în domeniul inteligenței artificiale. Pe măsură ce tehnologia evoluează, rămâne esențial să fim informați și să monitorizăm constant aceste tendințe pentru a minimiza impactul negativ al dezinformării.