Gigantul tehnologic chinez Huawei a dezvoltat o versiune a modelului de inteligență artificială (AI) DeepSeek, axată pe siguranță, despre care a declarat că este „aproape 100% eficientă” în prevenirea discuțiilor pe teme politice sensibile. Acest model, numit DeepSeek-R1-Safe, a fost testat și a arătat rate de succes ridicate în a se apăra împotriva „problemelor dăunătoare obișnuite… inclusiv discursului toxic și nociv, conținutului politic sensibil și incitării la activități ilegale”.
Huawei a folosit 1.000 de cipuri Ascend AI pentru a antrena modelul lingvistic de mari dimensiuni, ajustat pe baza modelului open-source R1 al DeepSeek. Partenerul Huawei a fost prestigioasa Universitate Zhejiang, instituția de învățământ absolvită de fondatorul DeepSeek, Liang Wenfeng. Totuși, DeepSeek și Liang nu au avut nicio implicare aparentă în proiect.
Modelele de inteligență artificială ale companiei chineze, precum și cele ale altor giganti tehnologici din China, au fost adoptate și modificate pentru a se potrivi cu cerințele autorităților de reglementare din țară. Chatboții chinezi de tip AI, precum Ernie Bot al Baidu, refuză să răspundă sau să se angajeze în discuții pe multe subiecte legate de politica internă chineză sau pe teme considerate sensibile de către Partidul Comunist aflat la putere.
Compania organizează conferința sa anuală Huawei Connect la Shanghai, unde a rupt ani de secretomanie în privința eforturilor de fabricare de cipuri pentru a anunța foile de parcurs privind produsele legate de cipuri și putere de calcul. Acest eveniment marchează un moment important în dezvoltarea tehnologiei AI în China și subliniază importanța în continuare a monitorizării evoluțiilor în acest domeniu.

Fii primul care comentează