
Recunoașterea facială a câștigat popularitate în ultimii ani, fiind considerată o soluție tehnologică avansată, capabilă să ofere rate de acuratețe de peste 99% în condiții de laborator. Cu toate acestea, studii recente efectuate de cercetători de la Universitatea Oxford și Universitatea din Pennsylvania subliniază riscurile acestui sistem, care nu se reflectă în utilizarea sa pe teren.
Diferențele dintre testele de laborator și utilizarea reală scoate în evidență limitările sistemelor de recunoaștere facială. Analiza recentă publicată pe Tech Policy Press de profesorii Teo Canmetin, Juliette Zaccour și Luc Rocher arată că standardele de evaluare folosite de Institutul Național de Standarde și Tehnologie din SUA (NIST) nu acoperă complexitatea situațiilor întâlnite în mediul public. Imaginile capabile de a fi procesate sunt adesea neclare sau capturate din unghiuri dificile, iar seturile de date de antrenament nu reflectă corect diversitatea demografică.
Aceste deficiențe tehnice au condus la cazuri de identificare greșită. De exemplu, un bărbat din Detroit a fost arestat pe nedrept în 2020, iar un studiu realizat de Universitatea din Essex a arătat că sistemul de recunoaștere facială al Poliției Metropolitane din Londra a reușit să identifice corect doar 8 din 42 de persoane.
Cercetările recente confirmă riscurile și prejudecățile asociate tehnologiei de recunoaștere facială. Un studiu din mai 2025 efectuat de Universitatea din Pennsylvania subliniază că modul de operare al acestor sisteme se degradează în condiții precum mișcarea sau iluminarea slabă. Erorile de identificare afectează disproporționat persoanele de culoare și femeile, ceea ce diminuează credibilitatea și corectitudinea acestor tehnologii.
Îngrijorările legate de erorile tehnice sunt întărite de rapoarte anterioare. În 2024, Innocence Project a documentat șapte cazuri de identificare greșită în SUA, majoritatea afectând persoane de culoare. În 2025, Electronic Frontier Foundation a semnalat alte două cazuri de arestări nedrepte în St. Louis și Miami, accentuând necesitatea unor reglementări stricte.
Criticile nu se limitează la problemele tehnice. Un raport al Algorithmic Justice League a evidențiat lipsa de transparență în utilizarea tehnologiei de către Administrația pentru Securitatea Transporturilor (TSA) din SUA. Multe persoane au raportat tratamente ostile atunci când au încercat să refuze scanarea.
În ciuda promovării recunoașterii faciale ca o soluție eficientă pentru îmbunătățirea securității și aplicării legii, realitatea subliniază deficiențele acestei tehnologii. Erorile de identificare, lipsa de diversitate în seturile de date și folosirea abuzivă fără reglementări adecvate ridică semne de întrebare privind legitimitatea utilizării pe scară largă. Este esențial ca publicul să rămână informat cu privire la evoluțiile acestei tehnologii și la implicațiile sale.
Fii primul care comentează