Recunoaşterea facială identifică eronat persoanele asiatice şi de culoare
Sistemele de recunoaştere facială nu sunt încă fiabile, mai ales când este vorba despre persoane non-caucaziene, conform unui raport al Guvernului american publicat joi, care consolidează dubiile legate de implementarea tot mai amplă a acestei tehnologii bazate pe inteligenţă artificială, informează AFP.
Recunoaşterea facială identifică eronat persoanele asiatice şi de culoare de 100 de ori mai des decât persoanele caucaziene, potrivit acestui studiu care a analizat zeci de algoritmi.
Cercetătorii de la National Institute of Standards and Technology (NIST), un centru afiliat guvernului, au reperat şi doi algoritmi care atribuiau sexul eronat femeilor de culoare în 35% dintre cazuri.
Recunoaşterea facială este deja larg utilizată de către autorităţi, forţe de ordine, aeroporturi, bănci, magazine şi şcoli. Tehnologia este folosită şi pentru deblocarea anumitor smartphone-uri.
Numeroşi cercetători şi apărători ai drepturilor omului încearcă să frâneze această dezvoltare.
Ei estimează că algoritmii comit prea multe erori, că persoane nevinovate ar putea să ajungă la închisoare sau baze de date riscă să fie piratate şi utilizate de infractori.
Algoritmii dezvoltaţi în Statele Unite prezentau cele mai mari rate de eroare pentru asiatici, afro-americani şi amerindieni, potrivit noului studiu, în timp ce alţii, concepuţi în ţări asiatice, reuşesc să identifice la fel de bine chipurile asiatice şi cele caucaziene.
„Este încurajator, pentru că asta arată că utilizarea unei baze de date mai diverse permite obţinerea unor rezultate mai bune”, a declarat Patrick Grother, directorul de cercetare de la NIST.
Însă pentru ONG-ul American Civil Liberties Union (ACLU), acest studiu dovedeşte înainte de toate că tehnologia nu este încă bine pusă la punct şi nu ar trebui să fie implementată.
„Chiar oamenii de ştiinţă ai guvernului confirmă că această tehnologie de supraveghere este defectuoasă şi părtinitoare”, a reacţionat Jay Stanley, un analist de la ACLU. „O identificare proastă poate să ducă la ratarea unui zbor, să declanşeze întrebări fără sfârşit, o plasare pe liste cu persoane care trebuie să fie supravegheate, tensiuni cu agenţii de poliţie, arestări fără fundament sau chiar mai rău”.
„Dar, mai ales, indiferent dacă tehnologia este fiabilă sau nu, ea permite implementarea unei supravegheri nedetectabile şi omniprezente la o scală fără precedent”, a adăugat el.
Sursa: News24.ro.