Un model de inteligență artificială (AI) dezvoltat pentru securitate cibernetică de o companie tehnologică majoră ar fi fost accesat ilegal de persoane neautorizate. Modelul, denumit Mythos AI, este încă în faza de testare, fiind disponibil doar pentru un grup selectat de companii. Incidentul ridică semne de întrebare cu privire la securitatea acestor sisteme și la riscurile asociate cu tehnologiile AI avansate.
Acces Neautorizat la Modelul AI
Potrivit informațiilor, accesul neautorizat la Mythos AI s-a realizat prin intermediul unui furnizor terț implicat în programul de testare. Persoanele care au obținut acces au folosit modelul prin intermediul unui forum online privat. Modelul este conceput pentru aplicații complexe de securitate cibernetică, având capacitatea de a identifica vulnerabilități și de a consolida sistemele de securitate.
Utilizatorii neautorizați nu doar că au reușit să pătrundă în sistem, dar au și folosit modelul în mod repetat după ce au obținut accesul. Compania a fost avertizat anterior că tehnologia „poate genera riscuri fără precedent”, dacă ajunge în mâini nepotrivite.
Reacția și investigarea companiei
Un purtător de cuvânt al companiei a confirmat că firma analizează situația. Totuși, au subliniat că nu există, momentan, dovezi care să indice că infrastructura internă a companiei a fost compromisă. „Investigăm informațiile apărute și, până acum, nu avem indicii că sistemele noastre au fost afectate”, a transmis compania. Compania a demarat o investigație internă pentru a evalua amploarea incidentului și pentru a identifica eventualele vulnerabilități.
Modelul Mythos AI nu a fost lansat public tocmai din cauza capacităților sale avansate. Tehnologia este testată în cadrul unui program intern, cunoscut drept Project Glasswing, care implică doar un număr limitat de parteneri din tehnologie și sectorul financiar.
Implicațiile pentru companiile partenere
Printre companiile care testează modelul se numără giganți precum Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley ar fi implicate în testarea tehnologiei. Incidentul ar putea genera preocupări cu privire la protecția datelor și securitatea cibernetică a acestor companii.
Modelul AI este utilizat în principal pentru identificarea vulnerabilităților informatice și consolidarea sistemelor de securitate. Posibilitatea accesului neautorizat la această tehnologie sofisticată sugerează o potențială compromitere a informațiilor sensibile și a resurselor acestor companii.
Potrivit surselor, testarea modelului Mythos AI include un număr limitat de parteneri, iar acesta este utilizat în principal pentru identificarea vulnerabilităților informatice.

Fii primul care comentează