Inteligența artificială a devenit subiect de dezbatere intensă în 2024, odată cu semnarea unei declarații de către sute de experți care au cerut ca reducerea riscului de extincție provocat de AI să fie o prioritate globală, la fel ca pandemiile sau războiul nuclear.
Declaratia, publicată în Scientific American, subliniază temerile legate de amenințarea AI și solicită reglementări urgente.
În acelaşi timp, un studiu recent al RAND Corporation, condus de Michael J.D. Vermeer, contestă probabilitatea unui scenariu de dispariție umană generat de inteligență artificială.
Cum ar putea AI să amenințe omenirea și de ce este improbabil
Cercetătorii RAND au evaluat trei moduri prin care inteligența artificială ar putea, în teorie, să declanșeze un eveniment de extincție totală:
- utilizarea armelor nucleare existente,
- dezvoltarea de agenţi biologici cu letalitate extremă,
- amplificarea schimbărilor climatice prin emisii de gaze cu efect de seră super‑puternice.
Rezultatele arată că, chiar dacă AI ar reuși să activeze toate cele peste 12.000 de focoase nucleare, combinaţia de explozii, radiații și iarnă nucleară nu ar elimina întreaga populație.
Distribuţia geografică a oamenilor şi rezilienţa ecosistemelor ar permite supraviețuirea unor comunităţi izolate.
În domeniul biologic, o boală cu rată de mortalitate de 99,99 % ar lăsa în viață aproximativ 800 000 de oameni, suficienţi pentru a relua dezvoltarea speciei.
Totuşi, o combinație artificială de agenţi patogeni concepută de AI ar putea atinge o letalitate aproape totală; însă răspândirea completă ar fi împiedicată de izolaţia unor regiuni.
Limitele unei AI distructive
În privinţa climă, chiar şi o intensificare masivă a emisiilor de dioxid de carbon nu ar face planeta complet nelocuibilă.
Pentru a „fierbe” planeta, AI ar trebui să producă și să elibereze în atmosferă substanţe precum hexafluorura de sulf, un proces extrem de dificil fără intervenție umană extinsă.
Patru condiţii simultane ar fi necesare pentru ca inteligența artificială să provoace o extincție globală:
- stabilirea unui obiectiv explicit de a distruge omenirea,
- controlul infrastructurilor critice (militare, industriale, energetice),
- convingerea populaţiei să coopereze fără a detecta ameninţa,
- funcţionarea independentă de suportul uman.
Absenţa uneia dintre aceste elemente face ca orice plan de distrugere globală să eșueze.
Autorii studiului recomandă, prin urmare, concentrul pe reducerea riscurilor deja cunoscute – arme nucleare, emisii de gaze cu efect de seră și supravegherea epidemiologică – în timp ce cercetarea responsabilă în domeniul inteligenței artificiale poate diminua pericolele reale, nu cele ipotetice.
Informarea continuă și monitorizarea evoluţiilor în AI rămân esenţiale pentru gestionarea riscurilor și pentru protejarea societății.

Fii primul care comentează