Vulnerabilitățile IDE AI au fost raportate recent în peste 30 de instrumente de dezvoltare asistate de inteligență artificială, expunând riscuri serioase de exfiltrare a datelor și execuție de cod la distanță. Analiza publicată de The Hacker News menționează cel puțin 24 de CVE asociate cu lanțul de atac denumit „IDEsaster”. Descoperirile arată că multe IDE‑uri AI tratează funcțiile interne ca fiind sigure, permițând atacatoriilor să le exploateze automat.
Lanțul de atac IDEsaster și mecanismul vulnerabilităților IDE AI
Paragraful descrie modul în care vulnerabilitățile IDE AI conectează trei vectori: deturnarea prompturilor, acțiuni automate ale agenților AI și exploatarea funcțiilor legitime ale IDE‑ului. Prin hijacking‑ul contextului, agenții AI pot citi fișiere sensibile sau modifica setări fără confirmare utilizator. Acest model prezintă un pericol sporit față de lanțurile de atac tradiționale, care necesitau intervenție manuală.
Scenarii de exfiltrare și execuție de cod
- Citirea fișierelor confidențiale și trimiterea datelor către domenii controlate (Cursor, Roo Code, Junie, GitHub Copilot, Kiro.dev, Claude Code).
- Modificarea fișierelor de configurare (settings.json, workspace.xml) pentru a lansa executabile malițioase (Copilot, Cursor, Roo Code, Zed.dev).
- Rescrierea fișierelor .code‑workspace, declanșând comenzi la deschiderea proiectului (Copilot, Cursor, Roo Code).
Toate aceste atacuri sunt posibile datorită vulnerabilităților IDE AI care aprobă scrierile interne fără intervenție umană.
Alte vulnerabilități semnificative în ecosistemul AI IDE
Pe lângă lanțul IDEsaster, cercetătorii au identificat vulnerabilitatea de command injection în OpenAI Codex CLI (CVE‑2025‑61260) și prompt injections în Google Antigravity, capabile să sustragă credențiale. O nouă clasă de atac, denumită PromptPwnd, vizează agenții AI conectați la pipeline‑uri CI/CD din GitHub Actions și GitLab. Aceste defecte extind suprafața de atac a vulnerabilităților IDE AI în medii de dezvoltare corporate.
Recomandări pentru protecția împotriva vulnerabilităților IDE AI
- Lucrul cu proiecte și fișiere de încredere.
- Verificarea serverelor MCP și monitorizarea modificărilor.
- Inspectarea manuală a surselor adăugate (URL‑uri, README, nume de fișiere) pentru text ascuns.
- Aplicarea principiului „least privilege” la configurarea agenților AI.
- Testarea sistematică a protecțiilor împotriva path traversal, scurgerilor de date și command injection.
Implementarea unui cadru „Secure for AI” poate reduce riscul exploatării vulnerabilităților IDE AI pe termen lung.
Păstrarea unei monitorizări continue a evoluțiilor în securitatea dezvoltării asistate de AI este esențială pentru a preveni exploatări viitoare ale vulnerabilităților IDE AI.

Fii primul care comentează