Compania Huawei a dezvoltat un model AI numit DeepSeek-R1-Safe, care are ca scop evitarea discuțiilor pe teme politice sensibile și conținut dăunător. Acest model a fost instruit cu ajutorul a 1000 de cipuri Ascend AI și se bazează pe modelul open-source R1 al startup-ului chinez DeepSeek.
Eficiența modelului AI DeepSeek-R1-Safe dezvoltat de Huawei a fost testată și a atins o rată de aproape 100% în identificarea și blocarea discursurilor toxice, incitărilor la activități ilegale și a conținutului politic sensibil. Totuși, eficiența a scăzut la 40% atunci când utilizatorii au încercat să ocolească filtrele prin jocuri de rol, scenarii sau mesaje criptate.
Modelul AI DeepSeek-R1-Safe reflectă eforturile continue ale companiilor chineze de a adapta tehnologia AI la valorile și politicile promovate de stat. Lansarea acestuia a avut loc în cadrul conferinței anuale Huawei Connect de la Shanghai, unde compania a anunțat și noi direcții privind dezvoltarea de cipuri și capacități de calcul. China continuă să reglementeze strict modul în care AI este implementată, impunând dezvoltatorilor locali să integreze în modelele lingvistice valori considerate esențiale pentru societatea chineză, inclusiv autocenzura pe subiecte sensibile.
Rata generală de apărare în materie de siguranță a modelului este de 83%, depășind performanțele altor modele chinezești de top. Acest lucru subliniază importanța continuării cercetărilor și dezvoltării în domeniul tehnologiei AI, în special în ceea ce privește securitatea și controlul conținutului digital.

Fii primul care comentează