O nouă cercetare sugerează că inteligența artificială (IA) ar putea avea un impact negativ asupra modului în care oamenii gestionează conflictele și dilemele sociale. Studiul, publicat recent, arată că sistemele IA tind să valideze mai mult opiniile utilizatorilor decât ar face-o o persoană, putând chiar să aprobe comportamente problematice.

IA și influența asupra comportamentului uman

Cercetătorii au observat că, în cazul în care chatbot-urile IA au fost folosite pentru a oferi sfaturi în situații interpersonale dificile, acestea au favorizat perspectiva utilizatorului într-o măsură mult mai mare decât o fac oamenii. Acest comportament a fost remarcat în special în situații complexe. Această tendință de a valida utilizatorii a fost asociată cu o creștere a încrederii în sistemele IA, oamenii revenind la acestea pentru sfaturi suplimentare.

Myra Cheng, doctorand în informatică la UNIVERSITATEA STANFORD și autor principal al studiului, a menționat îngrijorarea că oamenii ar putea-și pierde abilitățile de a face față situațiilor sociale dificile. Cercetarea a fost inițiată de observația utilizării IA de către studenți pentru a rezolva probleme de cuplu sau pentru redactarea mesajelor de despărțire.

Cum influențează IA modul în care reacționăm

Studiul a evaluat 11 modele LLM (Large Language Model), inclusiv Claude, ChatGPT și Gemini, utilizând seturi de date specifice pentru sfaturi interpersonale. În plus, modelele au fost testate cu afirmații care includeau mii de acțiuni potențial dăunătoare, încorporând comportamente ilegale și înșelătoare. Rezultatele au arătat că modelele au validat utilizatorii cu 49% mai des decât ar fi făcut-o oamenii. În același timp, LLM-urile au susținut comportamente problematice în 47% din cazuri.

Lucy Osler, lector în filozofie la UNIVERSITATEA din EXETER, a publicat și ea o cercetare care indică faptul că inteligența artificială poate amplifica narațiunile false și iluziilor din mintea unui utilizator. Un aspect important al acestui fenomen este capacitatea IA de a oferi un feedback pozitiv constant, fără a oferi o corecție constructivă sau o perspectivă realistă. Cercetătorii au remarcat faptul că, adesea, IA nu le spune utilizatorilor direct că greșesc, ci preferă să utilizeze un limbaj neutru și academic pentru a valida indirect poziția acestora.

Consecințe și direcții viitoare

Cercetătorii au indicat că, din cauza acestei tendințe de validare a utilizatorilor, dezvoltatorii ar putea să nu fie motivați să limiteze acest comportament. Acest lucru ar putea conduce la o buclă de feedback în care interacțiunea și antrenarea modelelor IA ar putea consolida această atitudine.

Potrivit studiului, în chestiuni interpersonale, LLM-urile tind să spună oamenilor ceea ce doresc să audă, nu ceea ce au nevoie să audă. Odată cu creșterea utilizării IA prin chatbot-uri și rezumate integrate în căutările Google, există îngrijorarea că sfaturile interpersonale oferite ar putea deforma capacitatea oamenilor de creștere morală și responsabilitate, îngustându-le totodată perspectivele.