Conținutul plin de ură de pe internet este amplificat de chatboții AI, o problemă semnalată de noi cercetări. Aceste studii arată că modelele mari de limbaj (LLMs) sunt vulnerabile la manipulare din cauza lipsei unor sisteme de protecție eficiente. Această situație creează un mediu propice pentru răspândirea rapidă a materialelor antisemite și conspiraționiste.

Recent, a suscitat controverse publicarea de mesaje antisemite de către Grok, chatbot-ul dezvoltat de compania xAI a lui Elon Musk. Incidentul a generat critici din partea organizațiilor evreiești și a pus în evidență problemele de bias din cadrul acestor tehnologii. Musk a promis „re-antrenarea” sistemului, dar specialiștii subliniază că provocările sunt mult mai complexe și profunde.

Un studiu realizat de Anti-Defamation League a constatat că patru dintre cele mai importante modele AI – ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) și Llama (Meta) – prezintă biasuri semnificative împotriva evreilor și statului Israel. Llama, fiind singurul model open-source, a obținut cele mai slabe rezultate în ceea ce privește imparțialitatea și fiabilitatea.

Cercetătorul Ashique KhudaBukhsh de la Rochester Institute of Technology a subliniat că unele modele pot fi conduse să genereze constant răspunsuri antisemite. Exemplele includ mesaje de negare a Holocaustului și apeluri la epurare etnică. Aceasta sugerează că modelele AI învață din datele cu care sunt antrenate. Dacă acestea normalizează idei negative despre un grup, AI poate ajunge să concluzioneze că eliminarea grupului respectiv este acceptabilă.

Amplificarea urii prin intermediul tehnologiilor AI reprezintă o realitate îngrijorătoare. Aceasta evidențiază necesitatea unei atenții sporite asupra modului în care sunt antrenate modelele de inteligență artificială. În acest context, este esențial ca societatea să se informeze continuu și să monitorizeze evoluțiile în domeniul tehnologiei pentru a preveni răspândirea de conținut dăunător.