Anthropic, o companie de tehnologie de vârf, a dezvăluit un nou model de inteligență artificială (AI) capabil să identifice vulnerabilități critice în sisteme de operare și browsere. Denumit „Claude Mythos Preview”, modelul nu va fi lansat public momentan, din cauza capacităților sale avansate care ar putea fi exploatate de criminali informatici. Compania testează în prezent modelul într-un cerc restrâns, concentrat pe securitatea cibernetică.
Capacități avansate și riscuri potențiale
Conform reprezentanților companiei, modelul Claude Mythos Preview a demonstrat abilități impresionante în identificarea și exploatarea vulnerabilităților. Într-un experiment, sistemul a reușit să depășească restricțiile unui mediu virtual securizat, reușind să extragă și să publice informații despre vulnerabilități. De asemenea, modelul a identificat erori grave în nucleul Linux, folosit pe majoritatea serverelor la nivel global. Mai mult, a fost capabil să combine mai multe vulnerabilități pentru a simula preluarea controlului asupra unui sistem. Un alt caz notabil a fost descoperirea unei vulnerabilități vechi de 27 de ani în sistemul de operare OpenBSD.
Creșterea semnificativă a capabilităților modelului a generat îngrijorări cu privire la posibilele utilizări abuzive. Din acest motiv, Anthropic a decis să nu pună modelul la dispoziția publicului larg deocamdată. Compania este conștientă de potențialul impact negativ al acestei tehnologii, în cazul în care ar ajunge în mâini nepotrivite.
Program restrâns de securitate cibernetică
Pentru a controla riscurile asociate, Anthropic va folosi modelul într-un program restrâns de securitate cibernetică, numit „Project Glasswing”. Proiectul implică companii importante din industria tehnologică, inclusiv Amazon Web Services, Apple, Google, Microsoft, Nvidia și Cisco. Scopul principal este de a identifica vulnerabilități și de a îmbunătăți securitatea sistemelor informatice ale acestor companii. Anthropic intenționează să publice ulterior concluziile programului, oferind o perspectivă asupra eficienței modelului în mediul real.
Compania a confirmat că poartă discuții cu oficiali ai guvernului american despre implicațiile modelului. Consideră că dezvoltarea unor astfel de tehnologii are un impact major asupra securității naționale, ceea ce ar putea impune colaborarea cu autoritățile.
Perspective de viitor în domeniul AI
Directorul general al Anthropic, Dario Amodei, a avertizat că și alte companii ar putea dezvolta sisteme similare în viitorul apropiat. Experții companiei estimează că modele AI cu astfel de capacități ar putea apărea pe piață în următoarele șase până la 18 luni. Această evoluție pune o presiune suplimentară asupra specialiștilor în securitate, care vor trebui să se adapteze rapid la noi instrumente AI capabile să identifice și să exploateze vulnerabilități informatice la scară largă.
În contextul acestor evoluții tehnologice rapide, industria de securitate cibernetică se află în fața unei provocări majore. Va fi necesară o înțelegere profundă a noilor instrumente și o adaptare constantă pentru a face față amenințărilor în continuă schimbare.

Fii primul care comentează