externe

Tehnologia de recunoastere faciala este „profund rasista”: in ultimii cinci ani, sase persoane de culoare au fost acuzate de infractiuni pe care nu le comisesera

In urma cu trei ani, in Detroit, Robert Williams a ajuns acasa de la serviciu si a gasit politia asteptandu-l la usa din fata, gata sa-l aresteze pentru o infractiune pe care nu o comisese. Tehnologia de recunoastere faciala folosita de politisti il confundase pe Williams cu un suspect care furase ceasuri in valoare de mii de dolari.

Sistemul a facut legatura intre o imagine neclara a suspectului si Williams, in ceea ce este considerat a fi primul caz cunoscut de arestare abuziva datorata utilizarii tehnologiei bazate pe inteligenta artificiala. Experienta a fost „exasperanta”, a declarat Williams, citat de Sky News. „Imaginati-va ca stiti ca nu ati facut nimic gresit… Si ei apar la tine acasa si te aresteaza pe alee inainte de a putea iesi cu adevarat din masina si sa iti imbratisezi si sa iti saruti sotia sau sa iti vezi copiii”

Williams, in varsta de 45 de ani, a fost eliberat dupa 30 de ore de arest si a intentat un proces, care este in curs de desfasurare, impotriva departamentului de politie din Detroit, solicitand despagubiri si interzicerea utilizarii software-ului de recunoastere faciala pentru identificarea suspectilor.

Se cunosc sase cazuri cunoscute de arestari abuzive in SUA, iar victimele in toate cazurile au fost persoane de culoare. Inteligenta artificiala reflecta prejudecatile rasiale din societate, deoarece este antrenata pe date din lumea reala.

Un studiu al guvernului SUA publicat in 2019 a constatat ca tehnologia de recunoastere faciala avea intre 10 si 100 de ori mai multe riscuri sa identifice gresit persoanele de culoare decat persoanele albe.

Acest lucru este cauzat de faptul ca tehnologia este antrenata pe seturi de date predominant albe si nu are la fel de multe informatii despre cum arata persoanele de alte rase, deci este mai probabil sa faca greseli. O abordare pentru rezolvarea problemei ar fi utilizarea datelor sintetice, care sunt generate de un computer pentru a fi mai diverse decat seturile de date din lumea reala.

Problema prejudecatilor rasiale nu este unica pentru tehnologia de recunoastere faciala, ea a fost inregistrata la diferite tipuri de modele de inteligenta artificiala.

Marea majoritate a imaginilor generate de AI cu „lucratori de la fast-food” au aratat persoane cu tonuri de piele mai inchise, chiar daca cifrele privind piata muncii din SUA arata ca majoritatea lucratorilor de la fast-food din aceasta tara sunt albi, potrivit unui experiment realizat de Bloomberg cu ajutorul generatorului de imagini Stability AI la inceputul acestui an.

Urmareste-ne si pe:
Gabriel Tudor

Share
Published by
Gabriel Tudor

Recent Posts

Zelenski spune ca vrea ca razboiul sa se incheie in 2025, prin „mijloace diplomatice”

Presedintele ucrainean Volodimir Zelenski a declarat, sambata, ca Kievul ar dori sa puna capat razboiului…

4 ore ago

La 1.000 de zile de razboi, liderii G7 accentueaza sanctiunile la adresa Moscovei: „Rusia ramane singurul obstacol in calea pacii”

Liderii marilor democratii ale Grupului celor Sapte (G7) au reiterat sambata, printr-un comunicat, angajamentul de…

4 ore ago

Infractiuni contra minorilor: O retea internationala desfiintata in Franta, peste 10.000 de suspecti identificati

Peste 10.000 de persoane au fost identificate in cadrul unei anchete privind o vasta retea…

3 ore ago

Cum a devenit traficul de droguri o „cauza nationala” in Franta

Franta se confrunta cu o crestere alarmanta a violentei legate de droguri, de la crime…

3 ore ago

Un avion al companiei americane Southwest, lovit de un glont cand se pregatea sa decoleze pe aeroportul din Dallas, Texas

Un avion Boeing 737-800 Max al Southwest Airlines, cu pasageri la bord, a fost lovit…

4 ore ago