ALLERTA PERICOLI INFORMATICI

La mascherina ha cambiato i destini del riconoscimento facciale

La mascherina ha cambiato i destini del riconoscimento facciale
Scritto da gestore

Uno studio preliminare dell’ente governativo statunitense Nist ha preso in considerazione volti di soggetti coperti da mascherine, confrontandoli con gli stessi non coperti: il tasso di errore nell’abbinamento può arrivare fino al 50%. L’emergenza sanitaria scatenata dal coronavirus ha anticipato gran parte delle novità in merito alla tecnologia di riconoscimento facciale e all’utilizzo dei dati biometrici dei nostri volti. In molti paesi del mondo i governi hanno obbligato i cittadini a indossare mascherine per contenere il contagio dal virus, diminuendo la capacità dei sistemi di riconoscimento facciale di identificare un soggetto. Per questo motivo, nel marzo di quest’anno l’azienda cinese Hanwang Technology Ltd ha sviluppato la prima tecnologia di riconoscimento facciale capace di individuare l’identità di una persona anche se coperta da una mascherina chirurgica. Sulla stessa scia anche le europee Herta e Dermalog.

Come emerge dal primo di una serie di studi preliminari pubblicato dal National Institute of Standard and Technology (Nist) alla fine di luglio, però, gli algoritmi non sono ancora al passo con i tempi. Nello studio si è voluto dimostrare come gli algoritmi pre-pandemici, ovvero creati per abbinare due fotografie di un soggetto a volto scoperto, abbiano non pochi problemi nell’identificare soggetti che invece hanno naso e bocca coperti da una mascherina. Secondo l’autrice del report Mei Ngan, informatica e creatrice del programma Morph Nist Face Recognition Vendor Test, l’errore nel processo di abbinamento di due foto – che solitamente si assesta sullo 0,3% degli algoritmi molto performanti – è del 5%, fino a raggiungere il 20% o il 50% negli algoritmi meno accurati.

Intermezzo promozionale ... continua la lettura dopo il box:

I dataset utilizzati nell’esperimento, realizzato in collaborazione con il Dhs Science and Technology Directorate, l’Ufficio per la gestione dell’identità biometrica (Obim) e la Polizia di frontiera statunitense (Cbp), contengono 6,2 milioni di immagini e coinvolgono 1 milione di persone tra residenti negli Stati Uniti senza cittadinanza o permesso di lavoro permanente e immigrati in arrivo al confine. Il primo dataset è stato utilizzato come gruppo di controllo, mentre alle fotografie del secondo sono state applicate digitalmente delle mascherine per coprirne il volto. La tipologia di riconoscimento facciale testata dal Nist è conosciuta come one-to-one ed è utilizzata nelle procedure di identificazione o controllo in luoghi di transito come gli aeroporti o i confini nazionali.

I falsi negativi sono maggiori dei falsi positivi, anche con mascherine differenti
Il team di ricerca ha creato e apposto digitalmente alle fotografie in possesso del Nist nove varianti di mascherine diverse nella forma, nel colore e nella copertura del naso. I risultati ottenuti mostrano l’incapacità degli algoritmi attuali – che solitamente agiscono proprio misurando caratteristiche del volto come la dimensione e le distanze fra bocca, naso e occhi – di identificare con successo i soggetti.

Di norma le foto scattate al confine durante le attività di polizia sono autenticate con un errore dello 0.3%; con i volti quasi completamente coperti, anche algoritmi molto accurati tra gli 89 testati nello studio risultano raggiungere un tasso di errore del 5%. Anche quelli considerati molto competitivi nell’identificazione di volti coperti (tasso di errore dell’1%) non riconoscono tra il 20 e il 50% delle immagini che gli vengono sottoposte. Gli errori nel riconoscimento facciale possono assumere la forma di un falso negativo, situazione nella quale l’algoritmo non riesce ad abbinare due foto della stessa persona, o di un falso positivo, in cui viene erroneamente indicata una corrispondenza tra foto di due persone diverse.

Mascherine applicate digitalmente nell’esperimento del NIST. Foto: B. Hayes/NIST
Nell’esperimento, mentre i falsi negativi sono aumentati, i falsi positivi sono rimasti stabili o sono leggermente diminuiti. Come sostenuto dall’autrice della ricerca, i falsi negativi non possono essere superati nemmeno facendo un secondo tentativo di identificazione, e questo perché gli algoritmi pre-pandemici non sono stati creati per lavorare su soggetti con il viso occluso dalle mascherine.

Oltre alla quantità di viso coperto, nello studio è stato indagato l’effetto sugli algoritmi della forma e del colore delle mascherine. Una mascherina arrotondata rende più difficile il compito dell’algoritmo, che dimezza le sue potenzialità di identificazione quando si tratta di mascherine rettangolari che coprono non solo il naso e la bocca ma anche buona parte delle guance. Nello studio il Nist ha applicato digitalmente mascherine di colore nero e azzurro, le più utilizzate, scoprendo che la maggior parte degli 89 algoritmi testati ha un tasso di errore maggiore quando si tratta di mascherine nere. Un risultato che il team di ricerca descrive come poco indicativo, poiché non è stato possibile testare buona parte delle tipologie di texture di mascherine presenti in commercio.

Risultati, quelli del Nist, che non fanno ben sperare le agenzie federali americane. Come riportato da The Intercept utilizzando documenti provenienti dall’archivio BlueLeaks, le mascherine obbligatorie per il controllo del contagio da coronavirus stanno mettendo a dura prova le tecnologie di riconoscimento facciale ormai largamente implementate dalla polizia statunitense e contrastate dalle associazioni per i diritti civili. Opinioni contrarie all’utilizzo dei dati biometrici da parte delle forze dell’ordine arrivano anche dal Congresso: a giugno, un gruppo di senatori ha presentato il progetto di legge Stop Biometric Surveillance by Law Enforcement Act, proponendo il divieto di utilizzare il riconoscimento facciale su qualsiasi immagine acquisita tramite le videocamere indossate dagli agenti.

L’impatto sulla privacy e la visione dell’Unione europea
Il dibattito sul tema del riconoscimento facciale in Usa è molto serrato e già si discute di possibili regolamentazioni. Proteste e campagne di sensibilizzazione sull’invasività e la vulnerabilità di questa tecnologia sono state portate avanti all’inizio di quest’anno nei campus universitari da Fight For the Future, organizzazione statunitense a tutela dei diritti civili, così come da Electronic Frontier Foundation (Eff). Sempre più numerose sono infatti le città che stanno vietando i sistemi di riconoscimento facciale nei luoghi pubblici, seguendo l’esempio di San Francisco, Oakland, Berkeley e Cambridge. Il 4 agosto i senatori americani Jeff Merkley e Bernie Senders hanno proposto il National Biometric Information Privacy Act (Bipa), un progetto di legge che garantisce ai cittadini statunitensi la possibilità di fare causa alle aziende che non richiedono il consenso scritto alla raccolta e al trattamento dei loro dati biometrici.

Intermezzo promozionale ... continua la lettura dopo il box:

In Europa la situazione è differente: mentre esistono associazioni che si occupano del tema e spingono per un divieto totale della sorveglianza biometrica come European Digital Rights, dal punto di vista istituzionale sembra esserci una sorta di immobilismo. Il Parlamento europeo ha finora avanzato solo una moratoria, che consiste nella sospensione dello sviluppo di tecnologie automatiche che permettono il riconoscimento di un individuo non solo dalla sua faccia, ma anche dalla voce o dal Dna. Una tutela più bassa di quella che potrebbe avere un cittadino statunitense con il Bipa ma soprattutto una scelta controversa, dato che uno studio pubblicato alla fine di giugno fa emergere come ben l’80% dei 35mila cittadini europei intervistati dalla European Union Agency for Fundamental Rights ha dichiarato di essere contrario a fornire il proprio volto alle autorità.

Fonte : https://www.wired.it/attualita/tech/2020/08/24/riconoscimento-facciale-mascherina-covid/