Vulnerabilitățile AI identificate în noile modele GPT‑4o și GPT‑5 au declanșat un val de îngrijorări în domeniul securității cibernetice, raportul Tenable arătând că atacatorii pot păcăli ChatGPT pentru a extrage date personale și istoricul conversațiilor utilizatorilor. Cercetătorii au descoperit șapte tipuri de defecte critice, dintre care unele rămân încă vulnerabile în ciuda remedierilor parțiale aplicate de OpenAI. Experții subliniază că riscurile persistă atâta timp cât modelele de limbaj au acces la conținut extern nesecurizat.
Tipuri de vulnerabilități și tehnici de atac
– Prompt injection indirect prin pagini de încredere.
– Zero‑click prompt injection, care nu necesită interacțiune utilizatorului.
– Bug în redarea codului Markdown, folosit pentru ascunderea comenzilor malițioase.
– Memory injection, introducerea de instrucțiuni în memoria chatbotului.
– Safety mechanism bypass, exploatarea listelor de siteuri considerate sigure.
– Agent session smuggling, inserarea de comenzi între cereri și răspunsuri.
– CamoLeak, sustragerea de secrete din depozite private în GitHub Copilot Chat.
Prompt injection indirect prin pagini de încredere permite inserarea de cod ascuns în secțiunile de comentarii ale unui articol. Atunci când utilizatorul solicită ChatGPT să rezume pagina, modelul poate executa instrucțiunile malițioase fără ca utilizatorul să observe. Vulnerabilitatea se bazează pe încrederea AI-ului în domenii etichetate ca sigure.
Zero‑click prompt injection despachetează atacul fără ca utilizatorul să facă clic pe vreun link. Simplă interogare a unei pagini deja indexate poate declanșa execuția codului ascuns, reducând considerabil bara de apărare a securității cibernetice. Astfel, atacatorii pot compromite informațiile utilizatorilor în mod pasiv.
Bugul Markdown ascunde comenzile malițioase în formatul de afișare, făcând detectarea dificilă. Memory injection technique permite introducerea de instrucțiuni ascunse direct în memoria internă a chatbotului, generând divulgarea de date sensibile în răspunsuri ulterioare. Ambele vulnerabilități pot ocoli filtrele de securitate existente.
Safety mechanism bypass exploatează lista de siteuri considerate sigure, cum ar fi bing.com. Prin utilizarea de linkuri false tipul bing.com/ck/a, atacatorii pot masca adrese periculoase și pot determina AI-ul să acceseze conținut malițios. Vulnerabilitatea subliniază importanța revizuirii constante a parametrilor de încredere.
Incidente similare în alte platforme AI
– Claude (Anthropic) – atacul „PromptJacking” prin conectori Chrome, iMessage și Apple Notes.
– GitHub Copilot Chat – vulnerabilitatea CamoLeak cu scor CVSS 9,6, care a sustras secrete din depozite private.
– Alte modele de limbaj – tehnica “agent session smuggling” a permis manipularea comunicațiilor între AI‑uri.
Contaminarea datelor și fenomenul de “brain rot” reprezintă o amenințare subtilă pentru modelele de antrenament. Studii de la Texas A&M, Purdue și University of Texas arată că introducerea a doar 250 de documente otrăvite poate declanșa “LLM brain rot”, degradând progresiv performanța modelului. Conform cercetărilor Anthropic și The Alan Turing Institute, contaminarea poate genera erori sistematice fără a necesita un volum mare de date compromise.
Recomandări pentru dezvoltatori și utilizatori
– Implementaţi teste de penetrare periodice axate pe prompt injection și zero‑click atacuri.
– Actualizaţi regulat filtrele de siteuri de încredere și monitorizaţi comportamentul AI-ului în timp real.
– Restricţionaţi accesul automat al modelelor la conţinut extern, solicitând verificări suplimentare.
– Utilizaţi mecanisme de izolare a memoriei pentru a preveni memory injection.
– Educaţi utilizatorii să verifice sursele și să raporteze comportamente neobișnuite ale chatbotului.
Vulnerabilitățile AI și atacurile de tip prompt injection evidențiază necesitatea unei monitorizări continue a evoluțiilor în securitatea cibernetică a modelelor de limbaj. Informarea periodică și actualizarea protocoalelor de protecție rămân esențiale pentru a diminua riscurile în mediul digital.

Fii primul care comentează