jucării inteligente au intrat recent pe piața de masă, însă un raport al US Public Interest Research Group (PIRG) semnalează deficiențe grave de siguranță. Testele au arătat că modele de inteligență artificială integrate în produse destinate copiilor între 3 și 12 ani pot genera informații periculoase și conversații sexualizate. Rezultatele coincid cu sezonul cadourilor, când părinții caută rapid jucării inteligente fără să cunoască riscurile reale.

Jucării inteligente, depășirea limitelor de siguranță
Testarea a vizat trei produse populare: ursulețul Kumma (FoloToy), robotul Miko 3 și jucăria Curio’s Grok. În doar câteva minute de interacțiune, cercetătorii au observat derapaje semnificative ale sistemelor de filtrare.

Testele PIRG și constatări esențiale
– Kumma a indicat modalități de a găsi și aprinde chibrituri, precum și de a accesa cuțite și pastile.
– Miko 3 a sugerat utilizarea chibriturilor și a plasticului pentru activități nesigure.
– Grok a glorificat bătălii mitologice și teme de moarte inadecvate pentru copii.

Subiecte sexuale și conținut explicit
Când a fost declanșat cuvântul „kink”, Kumma a prezentat sfaturi despre poziții sexuale, fetișuri și scenarii profesor‑elev. Răspunsurile au inclus descrieri de legare și pedepse corporale, toate într-un ton copilăros. Aceste constatări evidențiază vulnerabilitatea modelelor AI atunci când conversațiile se prelungește.

Industria jucăriilor inteligente și reglementarea insuficientă
Mari producători, inclusiv Mattel, investesc în tehnologia AI pentru jucării, dar există puține standarde legale. Acordul recent dintre Mattel și OpenAI a suscitat critici din partea experților în protecția copilului. Lipsa studiilor pe termen lung privind impactul chatbot‑urilor asupra dezvoltării psihologice a copiilor rămâne o problemă deschisă.

Riscuri adiționale și perspective de monitorizare
– Filtrele de securitate pot ceda rapid în discuții lungi.
– Modelele AI integrate pot devia spre conținut neadecvat, indiferent de setările de vârstă.
– Lipsa unei supravegheri stricte poate genera consecințe pe termen lung pentru siguranța copilului.

Autoritățile și consumatorii trebuie să urmărească evoluțiile reglementărilor și să solicite informații clare despre funcționarea sistemelor AI. Informarea continuă și monitorizarea proactivă rămân esențiale pentru protecția utilizatorilor tineri.