.Prompt injection reprezintă o amenințare emergentă în contextul browserelor AI, iar recent OpenAI a accentuat riscurile asociate cu acești vectori de atac în noul său ChatGPT Atlas. Browserul cu agent AI integrat poate completa formulare, compara produse și trimite e‑mailuri, dar, odată ce primește permisiunea să acționeze, devine un țintă valoros pentru atacatori ce exploatează vulnerabilități de tip prompt injection.

Ingineria socială și prompt injection

Atacurile de tip prompt injection se bazează pe interpretarea contextuală a modelelor lingvistice. Un mesaj aparent inofensiv – newsletter, document atașat sau pagină de termeni – poate conține comenzi ascunse pe care agentul AI le urmează.
Centrul Național de Securitate Cibernetică al Regatului Unit a subliniat că, în interiorul unui model lingvistic, diferența dintre „date” și „instrucţiuni” nu este clară, iar acest lucru amplifică dificultatea de a elimina complet riscul.

ChatGPT Atlas și extinderea suprafeței de atac

Lansat în octombrie 2025, ChatGPT Atlas aduce „agent mode”, funcție prin care AI-ul nu doar explică conținutul, ci interacționează direct cu site‑urile pentru a îndeplini sarcini. Această capacitate sporită crește numărul punctelor de intrare pentru prompt injection.
Cercetători în securitate au demonstrat că instrucţiuni ascunse în elemente HTML neafișate pot determina agentul să efectueze acţiuni nedorite, de la trimiterea de mesaje până la inițierea de plăţi.

Măsuri de reducere a riscului de prompt injection

OpenAI a adoptat un ciclu de testare continuă și a dezvoltat un „atacator automatizat” bazat pe modele mari de limbaj. Exemple concrete de mitigare includ:
– Verificarea automată a comenzilor suspecte înainte de execuție.
– Semnalarea utilizatorului când un e‑mail conţine cereri neobișnuite.
– Actualizări rapide ale modelului în urma descoperirii unor noi tehnici de prompt injection.

Recomandări practice pentru utilizatorii de browsere AI

Pentru a limita impactul potențial al unui atac de tip prompt injection, se recomandă:
– Acordarea de permisiuni stricte agentului, doar pentru sarcinile necesare.
– Activarea confirmărilor explicite pentru acţiuni sensibile (trimitere de e‑mail, plăţi, modificări de cont).
– Separarea sesiunilor: una pentru navigare obișnuită, alta pentru sarcini automate cu date personale.

Aceste practici reduc probabilitatea ca un atac de tip prompt injection să aibă consecinţe majore, chiar dacă nu pot elimina complet vulnerabilitatea.

Agentul AI din ChatGPT Atlas marchează un pas important în evoluţia navigării asistate, dar introducerea funcţiei „agent mode” agravează zona de expunere la prompt injection. Monitorizarea constantă a actualizărilor de securitate și aplicarea riguroasă a măsurilor de control reprezintă elemente esențiale pentru protejarea utilizatorilor pe termen lung.