
English: 
Facial recognition: an increasingly popular
technology used to unlock your phone, identify
people at airports and schools, and even find
criminal suspects.
Every technology is deployed into a complex
social context shaped by structural inequity,
and often without consideration for the impact
it may have on real people.
While it may seem harmless in some cases,
like when we use it to unlock our phones with
ease, facial recognition not only misidentifies
black faces at much higher rates, but law
enforcement is also deploying the technology
disproportionately on black communities, which
have historically been and are currently being
harmed by the structural racism ingrained
in the criminal justice system.
There are multiple issues with police use
of facial recognition technology.
One problem is that facial recognition technology
is flawed and frequently misidentified suspects,
especially if they aren’t white men.
In multiple studies, facial recognition algorithms
have been shown to be most accurate for white
men and significantly less accurate for women
and people of color, with black women being

Italian: 
 Riconoscimento facciale: una tecnologia sempre più popolare utilizzata per sbloccare il telefono, identificare 
 persone negli aeroporti e nelle scuole e persino trovare sospetti criminali. 
 Ogni tecnologia è implementata in un contesto sociale complesso modellato dall'ineguaglianza strutturale, 
 e spesso senza considerare l'impatto che può avere sulle persone reali. 
 Anche se in alcuni casi può sembrare innocuo, come quando lo usiamo per sbloccare i nostri telefoni con 
 facilità, il riconoscimento facciale non solo identifica erroneamente i volti neri a tassi molto più alti, ma la legge 
 l'applicazione sta anche distribuendo la tecnologia in modo sproporzionato alle comunità nere, che 
 storicamente sono state e sono attualmente danneggiate dal razzismo strutturale radicato 
 nel sistema di giustizia penale. 
 Ci sono diversi problemi con l'uso della polizia della tecnologia di riconoscimento facciale. 
 Un problema è che la tecnologia di riconoscimento facciale è imperfetta e spesso vengono identificati erroneamente i sospetti, 
 soprattutto se non sono uomini bianchi. 
 In diversi studi, gli algoritmi di riconoscimento facciale hanno dimostrato di essere più accurati per il bianco 
 uomini e significativamente meno accurato per le donne e le persone di colore, con le donne nere 

Italian: 
 identificato erroneamente il 34% delle volte. 
 Recentemente, Michael Oliver e Robert Williams sono stati entrambi identificati erroneamente dalla polizia di Detroit 
 tecnologia di riconoscimento facciale e arrestato ingiustamente. 
 Oliver è stato accusato di furto criminale dopo che la polizia di Detroit ha utilizzato il riconoscimento facciale 
 video del telefono per identificarlo, nonostante le ovvie differenze tra lui e la persona in 
 il video. 
 Fortunatamente, dopo che il suo avvocato lo ha fatto notare al pubblico ministero, le accuse sono state ritirate. 
 Robert Williams è stato arrestato per taccheggio il giorno prima del suo 42 ° compleanno. 
 Quando ha sottolineato che chiaramente non era l'uomo nel filmato di sorveglianza, agenti 
 ha continuato a trattenerlo per 30 ore dopo il suo arresto. 
 L'arresto di Williams ha battuto il suo record di 4 anni di presenza al lavoro perfetta e il suo bambino di 5 anni 
 la figlia ora gioca fingendo che suo padre stia rubando cose e finge di bloccarlo 
 su. 
 Mesi dopo, il capo della polizia di Detroit ha ammesso che il loro riconoscimento facciale è errato 
 sospetti il ​​96% delle volte, con la tecnologia utilizzata quasi esclusivamente su sospetti neri. 

English: 
misidentified 34% of the time.
Recently, Michael Oliver and Robert Williams
were both misidentified by Detroit Police
facial recognition technology and wrongfully
arrested.
Oliver was charged with felony larceny after
Detroit Police used facial recognition on
phone video to identify him, despite obvious
differences between him and the person in
the video.
Fortunately, after his lawyer pointed this
out to the prosecutor, the charges were dropped.
Robert Williams was arrested for shoplifting
on the day before his 42nd birthday. 
When he pointed out he was clearly not the
man in the surveillance footage, officers
continued to hold him for 30 hours after his
arrest.
Williams' arrest broke his 4 year record of
perfect work attendance and his 5 year old
daughter now plays games pretending her father
is stealing things and pretends to lock him
up.
Months later, Detroit’s police chief admitted
that their facial recognition misidentifies
suspects 96% of the time, with the technology
being used almost exclusively on black suspects.

English: 
Out of the 70 cases in which it was used,
68 times it was used on black faces.
The other 2 times?
“Unknown.”
Even if facial recognition was accurate for
all demographics, the fact that it is used
inside of an already systemically racist policing
system guarantees that the technology will
perpetuate a racist agenda.
Surveillance systems have been historically
used to target and oppress black people.
For example, in 1713, NYC passed a “Lantern
Law,'' which required only black mixed and
indigious people to carry a candle at night,
allowing whites to enforce slave systems and
incarceration.
During World War II, IBM’s punch card and
card sorting technology facilitated both Jewish
and Japanese incarceration in concentration
camps.
More recent examples include the surveillance
of Civil Rights Leaders in the 1950s, the
NYPD’s illegal targeting of Muslims in the
2000s and ICE’s current use of facial recognition
and cell snooping technologies to target immigrants
for deportation.
Facial recognition technologies built from
faces taken from social media are even being

Italian: 
 Dei 70 casi in cui è stato utilizzato, 68 volte è stato utilizzato su facce nere. 
 Le altre 2 volte? 
 "Sconosciuto." 
 Anche se il riconoscimento facciale era accurato per tutti i dati demografici, il fatto che venga utilizzato 
 all'interno di un sistema di polizia già sistematicamente razzista garantisce che la tecnologia lo farà 
 perpetuare un'agenda razzista. 
 I sistemi di sorveglianza sono stati storicamente utilizzati per prendere di mira e opprimere i neri. 
 Ad esempio, nel 1713, New York approvò una "Legge sulle lanterne", che richiedeva solo il nero misto e 
 le persone indigene portano una candela di notte, consentendo ai bianchi di far rispettare i sistemi di schiavi e 
 incarcerazione. 
 Durante la seconda guerra mondiale, la tecnologia di smistamento delle schede perforate e delle schede di IBM ha facilitato entrambi gli ebrei 
 e l'incarcerazione giapponese nei campi di concentramento. 
 Esempi più recenti includono la sorveglianza dei leader dei diritti civili negli anni '50, il 
 Il targeting illegale dei musulmani da parte del NYPD negli anni 2000 e l'attuale uso del riconoscimento facciale da parte dell'ICE 
 e tecnologie di spionaggio cellulare per prendere di mira gli immigrati per la deportazione. 
 Esistono persino tecnologie di riconoscimento facciale costruite da volti presi dai social media 

Italian: 
 utilizzato per identificare e prendere di mira i manifestanti. 
 Le comunità nere sono state costantemente invocate e criminalizzate negli Stati Uniti per 
 centinaia di anni, quindi la tecnologia di riconoscimento facciale che opera sulla base di record distorti esistenti 
 non farà che esacerbare l'ingiustizia sistemica esistente. 
 Se questa tecnologia continuerà ad essere utilizzata dalla polizia nel modo in cui è stata, lo sarà senza dubbio 
 continuare a creare disagi e mettere in pericolo le comunità nere e le persone di colore. 
 In tutta la nazione gli attivisti chiedono il divieto del riconoscimento facciale nelle forze di polizia 
 - nei prossimi anni dovranno essere messe in atto politiche e leggi che ne limitino la portata. 

English: 
used to identify and target protesters. 
Black communities have been consistently overpoliced
and criminalized in the United States for
hundreds of years, so facial recognition technology
that operates off of existing biased records
will only exacerbate existing systemic injustice.
If this technology continues to be used by
police in the way it has been, it will undoubtedly
continue to inconvenience and endanger black
communities and people of color.
Across the nation activists are calling for
the banning of facial recognition in policing
-  in the coming years, policy and law limiting
its reach must be put in place.
