.Într-un interviu publicat pe 22 decembrie 2025, Sanaz Yashar, CEO al Zafran, avertizează că un incident AI ransomware cu impact comparabil cu WannaCry „încă nu s‑a întâmplat”, dar „se va întâmpla”. Comentariul se axează pe creşterea vitezei atacurilor AI în domeniul securității cibernetice și pe riscul unui timp negativ de exploatare a vulnerabilităților.

Negative time‑to‑exploit și amenințarea unui atac AI similar WannaCry

Analiza Mandiant din 2024 indică un timp median de exploatare de –1 zi, adică atacatorii exploatează bug‑ul cu o zi înainte de patch. În 2023, media era de 5 zile, iar în 2018‑2019 era de 63 de zile. Datele subliniază faptul că ritmul atacurilor AI depășește reflexele defensive tradiționale.

Accelerarea vulnerabilităților prin inteligență artificială

Yashar explică că LLM‑urile permit generarea rapidă de exploituri pentru vulnerabilități zero‑day. Fereastra dintre descoperire și weaponizare s‑a comprimat de la aproape un an la câteva ore. Acest fenomen crește costul scăzut al atacului AI și simplifică reproducerea atacului la scară.

  • Generare automată de cod exploatabil
  • Adaptarea rapidă la patch‑uri noi
  • Scăderea necesarului de expertiză umană

Suprafața de atac se extinde odată cu integrarea AI

Companiile adaugă AI în produse și procese fără evaluări de securitate adecvate. Vulnerabilitățile de tip prompt injection permit manipularea modelelor pentru a accesa date sensibile. Astfel, riscul de daune colaterale se amplifică, chiar și în mâinile grupurilor haotice.

Riscuri specifice ale sistemelor AI

Framework‑urile AI prezintă puncte slabe la nivel de pluginuri și permisiuni greșite. Guardrails incomplete pot lăsa deschise căi de exploatare. Aceste deficiențe facilitează lanțuri de atacuri autonome, similare cu răspândirea rapidă a WannaCry.

Strategii de răspuns bazate pe AI pentru securitate cibernetică

Zafran propune agenți AI care prioritizează vulnerabilitățile reale și generează planuri de acțiune. Automatizarea trierei și investigării devine obligatorie pentru a menține pasul cu atacatorii AI. Intervenția umană rămâne necesară pentru validarea deciziilor AI.

Pasi concreti pentru organizații

  1. Implementarea monitorizării continue a vulnerabilităților
  2. Utilizarea AI pentru evaluarea riscului în timp real
  3. Revizuirea regulată a configurărilor de securitate AI

Acest avertisment al lui Sanaz Yashar subliniază necesitatea unei reacții rapide în securitatea cibernetică. Menținerea informării permanente și monitorizarea evoluțiilor AI rămân esențiale pentru a contracara riscul unui atac AI de amploare.