RICONOSCIMENTO FACCIALE: AMAZON VIETA ALLA POLIZIA L’USO DI REKOGNITION, ECCO PERCHÉ

Torniamo a parlare di riconoscimento facciale, tema caldissimo e che fa sempre più discutere. Amazon vieta alla Polizia USA l’utilizzo di Rekognition, la tecnologia di riconoscimento facciale del gigante dell’e-commerce. La moratoria durerà un anno.

L’annuncio di Jeff Bezos arriva a distanza di 2 giorni dall’annuncio di IBM, che ha preso una decisione simile a riguardo. IBM ha dichiarato che si corre il rischio di violazione dei diritti umani e della privacy. Inoltre, ha riferito i risultati di alcune ricerche secondo cui la tecnologia di riconoscimento facciale può subire distorsioni a seconda della razza, età, etnia.

Amazon, evitando di dare una spiegazione chiara della sua scelta, sottolinea la necessità di implementare una regolamentazione federale riguardo a questa tecnologia. C’è bisogno di normative governative più rigide sull’utilizzo etico del riconoscimento facciale.

La moratoria di un anno basterà al Congresso per elaborare regole adeguate? Si spera. Se necessario, Amazon è pronto a fornire aiuto in tal senso.

Insistiamo sul ‘perché‘ Amazon abbia preso la decisione di vietare l’utilizzo del suo software alla Polizia. Pare sia frutto del timore, denunciato da gruppi e attivisti per i diritti civili, che le Forze dell’Ordine possano usare la tecnologia per individuare soggetti che partecipano a manifestazioni contro le violenze degli agenti. Violenze scoppiate dopo l’assassinio di George Floyd.

RICONOSCIMENTO FACCIALE: AMAZON REKOGNITION VIETATO ALLA POLIZIA, SÌ AL SUPPORTO DI PERSONE IN PERICOLO

Amazon ha deciso di vietare per un ulteriore anno alla Polizia l’utilizzo di Rekognition, ma la sua tecnologia continuerà ad essere utilizzata per ritrovare bambini scomparsi e per monitorare il lavoro in favore delle vittime della tratta di esseri umani. Il colosso di Seattle ne permetterà l’utilizzo ad agenzie come Thorn (centro internazionale per i bambini scomparsi e vittime di abusi) e Marinus Analytics (agenzia che si occupa del traffico di esseri umani). Darà il suo supporto per aiutare a salvare persone in pericolo, per riportare alle loro famiglie bambini scomparsi.

Prima che Rekognition torni nelle mani della Polizia USA, Amazon spera che entro un anno il Congresso americano riesca ad elaborare regole appropriate per l’utilizzo etico del riconoscimento facciale.

Il nodo da sciogliere non è soltanto trovare una soluzione a livello legislativo, regole adeguate. Riguarda l’attendibilità del software e del riconoscimento facciale in genere.

Rekognition utilizzato per scovare artefici di massacri, criminali e ritrovare bimbi scomparsi sarebbe troppo impreciso, in particolare con i soggetti di colore.

TECNOLOGIA FALLACE E PERICOLOSA

Da sempre, Amazon sostiene che il suo software sia accurato. In realtà, la società è finita nel mirino delle proteste a causa della scarsa accuratezza e attendibilità e, quindi, della pericolosità di questa tecnologia.

A luglio 2018, un test eseguito dall’ACLU (American Civil Liberties Union) ha dimostrato che 28 membri di colore del Congresso sono stati identificati da Rekognition come criminali tanto da far temere abusi da parte delle Forze dell’Ordine.

Un altro studio condotto nel 2020 ha evidenziato che questa tecnologia di riconoscimento facciale non è in grado di distinguere le donne dagli uomini di colore.

L’ACLU ha accolto favorevolmente la decisione di Amazon che, di fatto, ammette i pericoli del riconoscimento facciale per le comunità Black e Brown e per i diritti civili di tutti. Serve un regolamento etico per scongiurare abusi della Polizia. I gruppi per i diritti civili temono che il riconoscimento facciale venga usato per schedare i partecipanti a manifestazioni contro il Governo limitando la libertà di parola.

Da tempo, città come Cambridge, San Francisco e Massachusetts hanno bannato questa tecnologia.

RICONOSCIMENTO FACCIALE: GRAVE MARGINE DI ERRORE E PROBLEMA ETICO

Nel mese di ottobre 2018, molti manifestanti a Seattle hanno indossato maschere con il volto di Jeff Bezos protestando contro la sua tecnologia Rekognition. Alcuni studi hanno dimostrato che il margine di errore nei sistemi di riconoscimento facciale è molto più elevato tra i soggetti di colore. Questa pericolosa lacuna vale per il sistema di Amazon ma anche per quello di IBM, Microsoft, Google.

Con queste premesse e considerando le proteste globali seguite alla morte di George Floyd, la Polizia USA è finita nel mirino per gli abusi contro la popolazione di colore.

Due giorni prima del ‘NO’ di Amazon, IBM ha dichiarato di interrompere le vendite di prodotti di riconoscimento facciale: già da un anno, ha vietato l’utilizzo del suo sistema alla Polizia per le telecamere che indossa durante le pattuglie. Non solo: IBM ha interrotto del tutto lo sviluppo di queste tecnologie. L’azienda statunitense ha spiegato che l’attuale tecnologia non è abbastanza affidabile da giustificarne l’utilizzo a livello etico. I Democratici hanno proposto una riforma di legge per impedire l’uso della tecnologia in tutte le telecamere della Polizia.

Google ha deciso di sospendere temporaneamente l’utilizzo del riconoscimento facciale e non sta commercializzando nessuno dei suoi software biometrici.

Microsoft ha bloccato la vendita di questo tipo di servizi alle Forze dell’Ordine.

I DANNI DI REKOGNITION NEL 2019-2020

Amazon non venderà il software Rekognition e non fornirà assistenza alla polizia americana. Ha già fatto abbastanza danni.

Nella primavera e nell’estate 2020, il ‘prodotto’ di Amazon era in dotazione di gran parte dell’apparato di sicurezza statunitense. Ha causato tanti drammi ai neri, alle donne, ai trans, alle minoranze etniche e ai migranti. I pregiudizi razziali sono integrati negli algoritmi che gestiscono il riconoscimento facciale.

Grazie a Rekognition, l’estate scorsa sono state arrestate centinaia di persone a  Minneapolis (città di Floyd). L’agenzia americana che controlla e sequestra i migranti sudamericani (Ice) ha spiato le mosse di chiunque tentasse di entrare negli USA.

Rekognition dispone di un database di 650 milioni di volti (il doppio degli abitanti americani). Con questo software la Polizia ha etichettato le persone lgbtq ed ha seguito passo, passo i soggetti di colore. Uno strumento fallace, che sbaglia. Lo testimonia il caso clamoroso di Robert Williams (uomo di colore che abita a Detroit): identificato tramite riconoscimento facciale, è stato arrestato perché ritenuto colpevole di una rapina. Grazie all’intervento dell’ACLU è tornato in libertà, era innocente.

Il riconoscimento facciale è particolarmente fallace con i soggetti dalla pelle nera o marrone: fra il 2019 e il 2020, ha portato a falsi arresti ed ingiuste incarcerazioni (oltre a Robert Williams, ricordiamo Nijeer Parks e Michael Oliver, tutti afroamericani).

Seppure funzionasse alla perfezione, la tecnologia di riconoscimento facciale “darebbe a governi, aziende e individui il potere di spiarci ovunque andiamo” ha affermato l’ACLU “non possiamo permettere la sua normalizzazione”.

Amazon, prima di tornare a concedere la sua tecnologia, attende norme vincolanti nel settore, che siano etiche, trasparenti e non discriminanti.

Tra un anno, se non venissero definite norme federali specifiche sul riconoscimento facciale, Amazon potrebbe apporre un nuovo ban alla Polizia a tempo indeterminato? E’ probabile.

L’APPARATO DI SICUREZZA USA ACQUISTA DAI PRIVATI: IL CASO CLEARVIEW

La Cnn ha riportato che un numero imprecisato di dipartimenti di Polizia negli USA si affida a sistemi di riconoscimento facciale per rintracciare potenziali sospetti, nonostante la tecnologia abbia dimostrato di essere fallace nell’identificazione delle persone di colore.

Da anni, l’apparato di sicurezza statunitense acquista dai privati. Dati, e-mail, numeri di telefono e non solo.

Clearview AI da tempo fornisce un non meglio identificato supporto (ben pagato) nella lotta all’immigrazione clandestina. Mette a disposizione della Polizia di frontiera un enorme database di volti.

Insider e Vice hanno rivelato che la Polizia ha acquistato anche un elenco di password rubate.

Clearview esegue il facial recognition attraverso foto prese dai social network. Si chiama ‘scraping‘, sistema con cui si raschiano foto e dati pubblici da Internet creando database per finalità diverse da quelle per cui vengono pubblicati.

Il business del colosso statunitense Clearview è il riconoscimento facciale. I suoi enormi database di foto pubbliche carpite dai social contano circa 3 miliardi di foto (una buona parte della popolazione mondiale schedata dalla sua tecnologia).

Secondo una ricerca del MIT Technology Review, il NYPD (Polizia di New York) collabora da almeno 2 anni a stretto contatto con Clearview per identificare criminali e gente comune. La Polizia USA utilizza il riconoscimento facciale Clearview AI non solo per esercitazioni ma in indagini reali. Molti agenti pare abbiano ottenuto l’autorizzazione ad installare l’app sui propri dispositivi personali per utilizzi difficilmente controllabili.

Nel 2020, il fondatore di Clearview ha dichiarato in un’intervista che il sistema era stato concesso in licenza ad oltre 600 Forze dell’Ordine.

Dati biometrici usati senza il consenso dell’interessato, nessuna informativa (trasparenza zero), perdita di controllo totale dei dati per tutti gli interessati. Basta questo per ricordare che l’attività di Clearview è in forte contrasto con i principi dettati dal GDPR (Regolamento Europeo sulla Protezione dei Dati).

Il problema è il diverso approccio alla protezione dei dati adottati dall’UE e dagli USA. Le leggi sono diverse: quindi, davanti ad un’eventuale dichiarazione di illegittimità da parte dell’Europa, società come Clearview continuerebbero a svolgere la loro attività senza cancellare alcun dato e senza pagare alcuna sanzione.