fbpx

RICONOSCIMENTO FACCIALE: I PALETTI SULL’IA DEL PARLAMENTO EUROPEO, RISOLUZIONE

Il 6 ottobre scorso, per la prima volta, il Parlamento europeo si è ufficialmente schierato contro i sistemi di riconoscimento facciale e di analisi automatizzata di tratti comportamentali e dettagli biometrici (caratteristiche dell’individuo come andatura, impronte digitali, DNA, voce, ecc.). Ha chiesto alla Commissione un divieto permanente sull’utilizzo della videosorveglianza biometrica negli spazi pubblici per tutelare il rispetto della privacy, della dignità umana ed impedire discriminazioni.

Gli eurodeputati hanno approvato una Risoluzione per sollecitare la Commissione anche a bloccare i finanziamenti per la ricerca biometrica ed a bandire l’utilizzo di banche dati private dei volti come il Clearview Ai (di cui trattiamo più avanti) e iBorder Ctrl (una sorta di ‘macchina della verità’ che rileverebbe le emozioni delle persone), punteggio sociale, biometria alle frontiere oltre che nei luoghi pubblici.

Stop sull’utilizzo di qualsiasi tecnologia che possa portare ad una sorveglianza di massa nei  luoghi pubblici che penalizza le minoranze, il dissenso, le comunità svantaggiate.

Il Parlamento UE chiede una tecnologia trasparente che non violi la privacy e i diritti fondamentali delle persone, più controlli sull’impiego dell’Intelligenza Artificiale da parte delle Forze dell’Ordine. Le persone devono essere monitorate solo se sospettate di un crimine e le decisioni finali devono essere affidate sempre agli esseri umani. Gli eurodeputati dicono no alla polizia predittiva basata su dati comportamentali e chiedono di aprire procedure di infrazione contro gli Stati membri, se necessario, una moratoria sull’IA che lede i diritti umani fondamentali.

I sistemi AI devono sempre essere supervisionati e sviluppati con algoritmi trasparenti, documentati e tracciabili. Il problema principale è che numerose tecnologie avanzate commettono ancora molti errori di identificazione e classificazione, discriminano persone appartenenti a certi gruppi etnici o razziali, Lgbtq+, bambini, anziani e donne.

RICONOSCIMENTO FACCIALE: IL NOCCIOLO DELLA RISOLUZIONE DEL PARLAMENTO UE

La Risoluzione non è vincolante in quanto non è ancora stata inclusa nel testo finale dell’AI Act, la proposta di regolamento europeo della Commissione sull’Intelligenza Artificiale. Tuttavia, questa risoluzione appena approvata potrebbe segnare la strada per la futura legge comunitaria da applicare al settore pubblico e privato che dovrebbe sbarcare nelle aule di Bruxelles e Strasburgo. La questione, comunque, è tutt’altro che chiusa in Europa: spesso, la Commissione non tiene conto del voto parlamentare.

Da una parte, si chiedono algoritmi trasparenti, dall’altra, un quadro giuridico chiaro, una legge ad hoc che metta nero su bianco ancora non c’è.

Spetterà alla Commissione il compito di recepire questa risoluzione per creare una legge specifica, non è dato di sapere quando.

Nelle conclusioni della Risoluzione approvata dal Parlamento europeo si legge che, nonostante i benefici apportati dall’Intelligenza Artificiale, questa comporta anche potenziali rischi come discriminazione, processi decisionali non trasparenti, intrusione nella vita privata delle persone, pericolo per la protezione dei dati personali, per la dignità umana, la libertà di informazione e di espressione. Nell’ambito della giustizia penale e delle Forze dell’Ordine, questi potenziali rischi possono incidere sulla presunzione di innocenza, sui diritti fondamentali alla libertà e sicurezza degli individui, al ricorso effettivo ad un processo equo.

E’ necessario rispettare i diritti sanciti dalla Carta dei diritti fondamentali dell’Unione Europea, il diritto alla privacy e protezione dei dati, in particolare della direttiva di Polizia (UE) 2016/680.

Prima di attuare e diffondere qualsiasi sistema IA, è necessario rendere obbligatorie verifiche sull’impatto dei diritti fondamentali, su possibili criticità, sulla trasparenza e tracciabilità degli algoritmi per ottenere fiducia dalle persone sull’impiego da parte delle Forze dell’Ordine e delle autorità giudiziarie penali.

Gli algoritmi dovrebbero essere trasparenti, tracciabili, sufficientemente documentabili: le autorità pubbliche dovrebbero divulgare le loro applicazioni come software open-source.

RICONOSCIMENTO FACCIALE: ANCHE L’ONU HA DETTO ‘NO’

A metà settembre 2021, l’Alto commissario per i diritti umani dell’Onu, Michelle Bachelet, ha chiesto lo stop temporaneo all’utilizzo delle tecnologie di riconoscimento facciale ed altri sistemi di sorveglianza basati sull’IA, almeno finché non ci saranno una consapevolezza dei rischi e regole in grado di tutelare i diritti fondamentali (privacy, libertà di movimento e di espressione). L’Alto commissario dell’Onu l’ha chiesto presentando un nuovo studio sull’AI commissionato da Un Human rights Council.

Dallo studio è emerso che i sistemi di IA sono stati spesso utilizzati in modo frettoloso da Stati ed imprese senza valutare le conseguenze: le violazioni potrebbero rivelarsi devastanti, avere effetti catastrofici sui diritti delle persone.

In particolare, l’utilizzo del riconoscimento facciale dovrebbe essere vietato o fortemente limitato.

Lo studio dell’Onu ha riportato che i sistemi di AI possono portare ad arresti ingiustificati di persone innocenti, a discriminazioni nell’accesso all’assistenza pubblica o nell’erogazione di prestiti. Il riconoscimento facciale remoto in tempo reale utilizzato dalle Forze dell’Ordine può portare ad iniquità dovute a tecnologie di profilazione ed automazione delle decisioni. Questi sistemi si basano su una gran quantità di dati raccolti, elaborati, analizzati e condivisi in modo opaco, non trasparente: possono contenere errori, discriminazioni o essere obsoleti violando i diritti umani.

In attesa di una legge ad hoc, gli Stati membri dovrebbero varare una moratoria sospendendo l’uso delle tecnologie più rischiose.

Ad agosto, gli esperti Onu avevano oltretutto chiesto una moratoria globale sulla vendita di tutti i software spia “potenzialmente letali”, ricollegandosi al ‘caso Pegasus‘. Il software-spia Pegasus prodotto dalla società israeliana Nso Group per le forze di intelligence sarebbe stato venduto in vari Paesi, anche ad alcuni regimi autoritari. Secondo quanto riporta Amnesty International, Pegasus sarebbe stato usato da alcuni governi per spiare attivisti per i diritti umani, giornalisti, dissidenti politici, manager e capi politici in varie parti del mondo. Nso ha sempre negato.

RICONOSCIMENTO FACCIALE: MENTRE IL PARLAMENTO UE LO BLOCCA, LA FINLANDIA USA CLEARVIEW

Mentre il Parlamento europeo blocca la sorveglianza biometrica negli spazi pubblici (un blocco non ancora incluso nel testo finale dell’AI Act), in Finlandia la Polizia adotta senza permesso la tecnologia di riconoscimento facciale Clearview per scovare potenziali autori di abusi su minori che si è rivelata, oltretutto, non adatta a questa attività.

E’ stato informato il Consiglio nazionale della Polizia che ha denunciato l’accaduto al Garante privacy finlandese. Il Garante ha sottolineato che è dovere del Consiglio di Polizia nazionale istruire il personale sul trattamento dei dati personali (soprattutto biometrici). Inoltre, ha intimato a Clearview la cancellazione dei dati trasmessi dalla Polizia notificando agli interessati la violazione dei dati personali per ricerca non autorizzata.

Clearview Ai, azienda americana che detiene il database di immagini più grande al mondo facendo scraping delle foto presenti sui social network, oggi dichiara di avere nel suo database oltre 10 miliardi di volti. Le azioni legali negli USA e in Europa per bloccare Clearview non sono bastate a fermare l’azienda che ora promette anche il riconoscimento dei volti coperti da mascherina e di quelli sfocati (da trattare con il suo sistema di machine learning e IA). Secondo l’inchiesta di BuzzFeed, fino a febbraio 2020 Clearview AI ha proposto la sua tecnologia a 88 Forze dell’Ordine in almeno 24 Paesi fuori dagli USA (compresa l’Italia).

Clearview (le cui pratiche illegali sono state condannate dal Garante privacy canadese) nega dichiarando di non avere intenzione di vendere, al momento, la sua tecnologia fuori dagli USA o a privati.

STRATEGIA ITALIANA SULL’IA: SIAMO IN RITARDO DI OLTRE 2 ANNI

E’ arrivato il momento per l’Italia di far sentire la sua voce nel dibattito sull’AI Act e sulla Strategia europea dei dati.

Il nostro Paese è indietro di almeno 2 anni rispetto a Francia e Germania che hanno già una strategia sull’Intelligenza Artificiale. E’ tempo di tirare fuori dai cassetti ministeriali la Strategia nazionale per l’Intelligenza Artificiale (annunciata oltre 3 anni fa dall’allora Ministro del Lavoro e dello Sviluppo economico, Luigi Di Maio) e di attuarla al più presto.

L’Europa ha dato una scadenza (giugno 2019) ad ogni Stato membro affinché producesse la propria strategia: il nostro è uno dei pochissimi Paesi che, ad oltre 2 anni dalla scadenza, non ha ancora implementato il suo piano.

L’Italia potrà avere un ruolo da protagonista nella tecnologia chiave del futuro (e del presente) soltanto se l’IA verrà messa al centro di un grande progetto pubblico/privato.

Il nuovo gruppo di esperti designati dal Governo Draghi ha, di recente, consegnato le raccomandazioni sull’IA.

Quali sono le priorità?

LE PRIORITA’ DELL’ITALIA

La priorità numero uno è creare e rendere operativo un Centro Nazionale di Ricerca dedicato all’Intelligenza Artificiale su cui investire in capitale umano ed attrezzature adeguate. Il punto debole italiano (ma anche europeo) riguarda gli investimenti privati che scarseggiano.

Secondo il Rapporto annuale della Stanford University, le imprese europee hanno investito nell’IA appena 2 miliardi di dollari contro gli oltre 23,6 miliardi di dollari investiti negli USA ed i  9,9 miliardi di dollari in Cina.

In Europa (ancor più nel nostro Paese) le Big Tech scarseggiano. Le due priorità in Italia sono banche dati sufficientemente vaste e risorse umane con adeguate competenze.

Insomma, mentre il Parlamento UE si preoccupa di vietare l’utilizzo a largo raggio della tecnologia più avanzata, in Europa oltre che di divieto si dovrebbe parlare di grave ritardo tecnologico.

Francesco Ciano

Francesco Ciano
Menu