Cercetătorii în securitate cibernetică au descoperit o amenințare deosebit de îngrijorătoare, un program malițios care folosește capabilități de tip Large Language Model (LLM) pentru a genera la cerere cod de tip ransomware sau pentru a crea un reverse-shell. Acest instrument, denumit MalTerminal, reprezintă una dintre primele implementări cunoscute în care un LLM este integrat direct într-un malware.

Instrumentul MalTerminal pare să conțină integrarea unei versiuni GPT-4 accesate printr-un endpoint API, element care sugerează că autorii probei au folosit funcționalități de generare a codului la rulare. Alături de fișierul executabil pentru Windows au fost descoperite scripturi Python cu funcționalități similare și un set de unelte conexe, unele cu rol defensiv, altele cu potențial abuziv.

Includerea modelelor LLM în instrumentele de atac marchează o schimbare de calitate în practiciile adversarilor, deoarece modelele pot genera logică malițioasă la cerere, adapta payload-uri sau produce comenzi complexe în timp real, complicând detectarea prin semnături convenționale și sporind capacitatea atacatorilor de a improviza. Specialiștii recomandă abordări prudente și multilaterale, menținerea sistemelor și a aplicațiilor patch-uite, monitorizarea semnelor comportamentale anormale și implementarea controalelor multiple de securitate.

Organizațiile și utilizatorii trebuie să fie conștienți de aceste amenințări și să ia măsuri pentru a se proteja. Educația utilizatorilor rămâne esențială pentru a reduce succesul campaniilor de phishing, iar furnizorii de soluții de securitate trebuie să adapteze detecțiile pentru a face față comportamentelor dinamice generate de LLM-uri. Apariția LLM-enable malware arată că viitorul confruntării cibernetice va include modele AI nu doar ca instrumente de atac, ci și ca elemente care pot redefini rapid tacticile și contra-măsurile.