Inteligența artificială generează cod malițios, dar studiul recent al Netskope Threat Labs arată că modelele LLM nu pot lansa atacuri complet autonome; codul produs este fragil și necesită intervenție umană extensivă.
Modelele AI pot fi păcălite să genereze malware, dar codul e fragil
Netskope a testat capacitatea modelelor de inteligență artificială de a scrie scripturi malițioase pentru Windows. Prompt‑injection bazat pe rol a forțat GPT‑4 să producă un cod de injectare, însă rezultatul a fost incomplet și adesea nefuncțional. Testele de detectare a mediilor virtualizate au arătat:
- GPT‑4: 50 % succes în VMware, 15 % în AWS, 90 % pe hardware real.
- GPT‑3.5: performanțe similare, ușor mai slabe în AWS.
- GPT‑5 (teste preliminare): 90 % succes în AWS, dar modelul refuză în mare parte solicitările de cod malițios.
Aceste rezultate indică faptul că, deși generarea de cod malițios devine mai ușoară, stabilitatea și consistența rămân problematice.
Atacurile reale asistate de AI încă depind de oameni
Datele colectate de alte companii, cum ar fi Anthropic și Google, confirmă că atacurile cibernetice asistate de inteligență artificială necesită încă aprobarea manuală. Exemple notabile:
- Spyware chinez utilizând Claude a supraestimat vulnerabilitățile și a introdus date fictive, necesitând validare umană pentru fiecare pas critic.
- Modul “Thinking Robot” bazat pe Gemini a reușit să rescrie cod pentru a evita detecția, dar nu a putut compromite singur sisteme sau rețele.
În toate cazurile, AI-ul a jucat rolul de multiplicație a forței, fără a prelua controlul operațional.
De ce nu va exista prea curând un atac 100 % autonom
Cercetătorii identifică trei bariere majore:
- Lipsa înțelegerii contextului tehnic – LLM‑urile “ghicesc” cuvinte, nu analizează în timp real mediul țintă, producând erori semnificative.
- Guardrails avansate – Modelele noi detectează tentativele de manipulare și generează cod benign sau inutil.
- Complexitatea operaționalizării malware‑ului – Un atac complet necesită recon, exploatare, persistență și exfiltrare, pași în care AI-ul se blochează rapid.
Prin urmare, deși generarea de cod malițios se simplifică, transformarea acestuia într-o armă autonomă rămâne improbabilă în viitorul apropiat.
- Accelerarea dezvoltării de malware.
- Scăderea barierei de intrare pentru atacatori amatori.
- Crearea rapidă de variante care ocolesc semnăturile de detecție.
- Producerea de mesaje phishing mult mai convingătoare.
Netskope avertizează că evoluția modelelor LLM trebuie monitorizată nu pentru capacitățile actuale, ci pentru potențialul pe termen mediu, în special dacă actori statali combină AI cu infrastructură operațională.
Monitorizarea continuă a evoluției inteligenței artificiale în domeniul securității cibernetice rămâne esențială pentru a înțelege riscurile emergente și a adapta strategiile defensive.

Fii primul care comentează