gruparea kimsuky, cunoscută pentru atacurile asupra instituțiilor militare, guvernamentale și think tank-urilor din coreea de sud, a exploatat instrumente ai pentru a produce o legitimație militară contrafăcută, folosită într-o campanie de spionaj. un raport recent publicat de genians security center dezvăluie modul în care hackeri susținuți de statul nord-coreean au folosit chatgpt pentru a fabrica o legitimație militară falsă. acest raport arată că actorii statali recurg la inteligența artificială pentru a diversifica metodele de atac.
specialiștii au descoperit că metadatele fișierului compromis indicau utilizarea instrumentelor grafice integrate în chatgpt, în ciuda restricțiilor impuse de openai. pentru a ocoli filtrele de securitate ale platformei, hackerii au apelat la tehnici de „prompt engineering”, formulând cereri care sugerau realizarea unui „mock-up” sau „design de probă” pentru uz legitim. metoda a permis generarea unei imagini false suficient de convingătoare pentru a fi folosită în atacuri de inginerie socială.
raportul indică o schimbare în strategia grupării kimsuky, care acum recurge la falsuri vizuale bazate pe ai și tehnici de deepfake, în locul documentelor word infectate sau campaniilor clasice de phishing. această tactică nouă ridică semne de întrebare despre securitatea modelelor generative și capacitatea lor de a produce conținut false. concluzia este că informarea continuă și monitorizarea evoluțiilor în domeniul securității cibernetice sunt esențiale pentru prevenirea și combaterea unor astfel de atacuri.

Fii primul care comentează