Inteligența artificială poate influența opiniile politice, arată un studiu recent realizat în Marea Britanie. Cercetarea, coordonată de Institutul britanic pentru Securitatea AI, a implicat aproape 80 000 de respondenţi și 19 modele de AI, inclusiv versiuni avansate de ChatGPT, Grok, Llama 3 și Qwen. Rezultatele, publicate în revista Science, subliniază o legătură puternică între persuasivitate și erori factuale.

Modelele cele mai convingătoare și cele mai inexacte
Discuţiile au durat aproximativ zece minute și au fost structurate pe teme sensibile precum inflaţia, costul vieţii şi dispute salariale în sectorul public. Răspunsurile care conţin un număr mare de date, exemple şi argumente au avut cel mai mare impact asupra opiniilor utilizatorilor. Aceste „rascunsuri dense” au înregistrat, totodată, cea mai mare frecvenţă de inexactităţi, conform autorilor studiului.

Factori ce amplifică persuasivitatea

  • Post‑antrenarea modelelor cu tehnici de recompensare orientate spre convingere.
  • Creşterea densităţii informaţionale în răspunsuri.
  • Utilizarea exemplelor concrete şi a cifrelor specifice.

Aceste ajustări au sporit semnificativ capacitatea AI‑ului de a influenţa alegeri politice, însă au scăzut simultan acurateţea informaţiilor furnizate.

De ce chatbotii nu pot manipula oricând
Furnizarea de date personale nu a mărit semnificativ puterea persuasivă a modelelor. Adaptarea stilului de comunicare pe baza tacticilor psihologice individualizate s‑a dovedit mai puţin eficientă decât simpla creştere a volumului informaţional. Limitările umane, precum rezistenţa la schimbări bruște ale opiniei și timpul scurt alocat discuţiilor politice cu roboţi, reduc impactul în condiţii reale.

Riscuri pentru dezbaterea publică

  • Generarea rapidă de conţinut argumentativ poate depăşi performanţa comunicatorilor umani.
  • Coordinarea sau automatizarea utilizării AI în perioade electorale poate afecta integritatea informaţiilor.
  • Nivelul ridicat de inexactitate poate alimenta dezinformarea în spaţiul public.

Studiul subliniază că, deşi IA poate modifica opinii politice vizibil, această abilitate rămâne legată de cantitatea mare de erori. Pe măsură ce modelele devin mai performante şi accesibile, monitorizarea continuă şi informarea publicului devin esențiale pentru protejarea calităţii dezbaterilor.