Teoria internetului mort a revenit în atenția publică odată cu mesajul recent al lui Sam Altman, directorul general al OpenAI, care a recunoscut prezența tot mai numeroasă a conturilor generate de inteligență artificială pe rețelele de socializare. În cadrul declarației sale, Altman a subliniat că algoritmi avansați produc un volum uriaș de conținut automatizat, amplificând riscurile de dezinformare și manipulație online.

Teoria internetului mort, adusă în discuție de una dintre cele mai importante voci din lumea tech
În august 2021, The Atlantic a fost prima publicație majoră care a tratat teoria internetului mort, clasificând-o inițial ca o conspirație de nișă. Declarația lui Sam Altman pe platforma X, publicată pe 4 septembrie, a revigorat subiectul, atrăgând atenția asupra conturilor administrate de modele lingvistice mari (LLM) precum ChatGPT. Comentariul său a fost interpretat ca parte a disputei publice dintre Altman și Elon Musk, fost co‑fondator al OpenAI, însă a generat și discuții privind implicațiile reale ale acestei teorii.

Impactul conținutului generat de inteligență artificială

  • Creșterea traficului produs de boți începând cu 2016.
  • Amplificarea informațiilor false prin mecanisme de viralizare automate.
  • Dificultăți în identificarea sursei autentice a datelor online.

Aaron Harris, directorul tehnologic global al Sage, avertizează că „internetul se schimbă rapid” și că filtrarea informațiilor devine esențială pentru menținerea credibilității. Într-un interviu pentru El País, Harris a subliniat necesitatea dezvoltării de tehnologii de verificare care să protejeze utilizatorii de conținutul zgomotos generat de inteligență artificială.

Adam Aleksic, autorul cărții Algospeak: How Social Media is Transforming the Future of Language, a remarcat că, la momentul apariției inițiale a teoriei internetului mort, nu existau modele AI suficient de evoluate pentru a susține conturi de AI credibile. În prezent, el evidențiază că „teoria internetului mort a trecut de la a fi o concepție marginală la o realitate palpabilă”, în urma mesajului lui Sam Altman.

Îngrijorări majore legate de boții pe rețelele de socializare
Jake Renzella și Vlada Rozova, cercetători la Universitățile din Melbourne și New South Wales, au publicat în The Conversation un studiu ce evidențiază manipularea opiniei publice prin conturi automate. Ei susțin că numărul mare de urmăritori legitime conferă credibilitate conturilor controlate de AI, generând o „armată de conturi” capabile să difuzeze dezinformare la scară largă.

Un studiu recent din Physical Review Letters, realizat de cercetători de la Universitatea Vermont și Institutul Santa Fe, explică modul în care informațiile se propagă conform unui model de cascade. Conform cercetărilor prezentate la conferința de securitate cibernetică din Seattle, instrumentele AI pot profita de vulnerabilitățile utilizatorilor, consolidând profilarea și personalizarea conținutului.

Legi pentru inteligență artificială care să protejeze mediul online
Luca Luceri, cercetător la Universitatea din California de Sud, propune un set de principii etice inspirate din legile roboticii lui Asimov, vizând restricționarea manipulării utilizatorilor în scopuri comerciale sau politice. Aceste principii includ interdicția influențării comportamentului prin strategii de dominație și protejarea libertății de exprimare în mediul digital.

Aaron Harris susține că un internet etic este realizabil, dar necesită implicarea activă a companiilor și reglementărilor autorităților. El propune un cadru legal care să obligueze dezvoltatorii de inteligență artificială să respecte standarde de responsabilitate și transparență, fără a renunța la inovațiile tehnologice.

Concluzie
Evoluția teoriei internetului mort, alimentată de declarațiile lui Sam Altman și de cercetările recente, evidențiază necesitatea monitorizării continue a conținutului generat de inteligență artificială. Informarea permanentă și adoptarea de măsuri de reglementare rămân esențiale pentru a asigura un spațiu online autentic și sigur.