Riconoscimento facciale: tasso di errore del 98% ma la polizia inglese lo apprezza

05 Luglio 2018 33

Le forze dell’ordine del Regno Unito sono impegnate nella sperimentazione della tecnologia di riconoscimento facciale automatizzata (AFR), tuttavia i dubbi in merito alla sua legittimità ed efficacia hanno dato origine ad un acceso dibattito pubblico. Tra le principali criticità di questo sistema, infatti, vi è l’adozione della scansione facciale su larghissima scala - sopratutto in occasione di eventi e manifestazioni pubbliche - e gli scarsi risultati che è stata in grado di produrre, a causa del bassissimo tasso di successo, come hanno dimostrato anche i fatti di Cardiff.

Cressida Dick - commissario della polizia metropolitana britannica - ha ribadito il suo sostegno alla sperimentazione della tecnologia di riconoscimento facciale automatizzata, affermando che - a suo avviso - i cittadini si aspettano che le forze dell’ordine sperimentino le ultime tecnologie disponibili, nonostante queste non abbiano ancora condotto a molti arresti. La Dick ha dichiarato inoltre di trovarsi “completamente a suo agio” nell’utilizzo dell’ARF.

Al momento attuale l’ARF non risulta molto efficace, visto che il suo tasso di errore - ovvero un falso positivo che incolpi una persona innocente - è pari al 98%. Questo significa che solo il 2% dei casi viene correttamente identificato, mentre il restante 98% delle segnalazioni costringe la polizia ad effettuare accertamenti inutili.

Nel corso di un test è stato riscontrato che gli unici due casi correttamente abbinati riguardavano un individuo presente in una lista di sorveglianza ormai scaduta e una persona con problemi di salute mentale, solita contattare personaggi famosi. In entrambi i casi non c’erano gli estremi per procedere all’arresto e lo stesso MET (Metropolitan Police) afferma che tutti i casi vengono esaminati anche da un agente e che non si sono mai verificati dei fermi di persone innocenti identificate erroneamente.


Nonostante ciò, l’organizzazione no profit Big Brother Watch ha espresso le sue preoccupazioni riguardo il fatto che la tecnologia AFR sia stata adottata senza affrontare un adeguato dibattito pubblico e con pochi controlli sul come venga applicata. Il rischio, secondo l’organizzazione, è quello di trasformare ogni area pubblica in un punto di controllo biometrico e che la stessa presenza di questa tecnologia rappresenti un pericolo per il buono stato di salute di una società libera, dal momento che sempre più persone potrebbero essere dissuase dal prendere parte a manifestazioni o scioperi anche solo per la paura di essere identificati e in seguito arrestati.

Uno dei temi centrali del dibatto, infatti, riguarda l’applicazione indiscriminata del riconoscimento facciale in molti ambiti pubblici, con rilevazioni costanti ma allo stesso tempo inutili, vista la loro scarsa precisione. La discussione tocca anche altri due aspetti importanti della società inglese, ovvero le potenziali violazioni del diritto alla privacy e alla libertà di espressione.

Secondo un recente rapporto, pare che “il riconoscimento facciale è destinato a diventare una delle tecnologie di sorveglianza più pervasive” e anche gli Stati Uniti stanno cominciando ad affrontare il tema in seguito alla distribuzione di Amazon Rekognition, un sistema particolarmente economico sviluppato da Amazon per le forze dell’ordine locali.


33

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
Michele De Nandi

Agli uomini neri e basta. Vai a vedere cosa fanno alle donne messicane. Ho visto certi video ripresi che arrestano e menavano donne solo perché messicane e non facevano nulla. Dai moh... Aprite gli occhi e non fate i finti non vedenti...

Cheers ;)

NEXUS

penavo 99

dario

temo che non sia possibile comprendere il numero di veri negativi, in quanto non sono stati fermati e quindi non se ne può avere un dato statistico... comunque il 98% di falsi positivi lascia supporre un livello di fallacia tale da non lasciar ipotizzare nulla di buono neanche per i veri negativi... se non dà risultati random poco ci manca.

sardanus

fallisce dopo il vaglio, il che porta 98% di falsi positivi ma esclude i potenziali veri negativi (questo sarebbe un errore se non li detectasse, però l'articolo non ne fa menzione quindi si suppone che le persone da identificare fossero solo quel 2% e nessun altro) e falsi negativi (ovvero quelli da non prendere in considerazione perché non rilevanti)

DeeoK

Se il riconoscimento fallisce pressoché sempre in che modo ci sarebbe stato un restringimento di campo?

Giardiniere Willy

Solo perché ho fatto una battuta? No, anzi, mi fa abbastanza schifo. Sinceramente non mi riconosco in nessuna parte politica, ho votato scheda bianca

sardanus

98% di errore ma comunque ha ristretto il campo a una cerchia di persone da esaminare. E' questo il vantaggio, gli agenti non devono esaminarli tutti ma un sottoinsieme.

stuck_788

Stupido Flanders!

ZioGrimmy

Avrei chiuso un occhio se le percentuali fossero invertite.. Ma 98% di errore è praticamente inutilizzabile, non ha il minimo senso utilizzarlo..

xpy

Non è un commento razzista è solo una battuta stupida, e in questo caso non si applica visto che si parla di AI, diverso se si parla della percezione individuale, ad esempio prendendo un europeo è abituato a certi tratti somatici e quindi quelli che caratterizzano un altra etnia spesso sono abbastanza forti da dare l'illusione che siano tutti uguali o quasi (le differenze tra gli individui di una stessa etnia sono molto leggere)

Philip

Gli inglesi questi geni incompresi....
Ma Cressidra Dick é il nome di un'eroina di un nuovo fumetto marvel??

sopaug

uno dei pochi commenti intelligenti alla notizia :)

Davide

son proprio inglesi

Lupo1

Il 2% affidabile ahahahahah

giuseppe9000

non scordare l indice cefalico

giuseppe9000

Tu devi essere quello colto della comitiva.

MaK

insomma, forse ci azzeccavo più io se estraevo a caso una foto segnaletica tra quelle in loro possesso.

Jezuuz

Lascialo stare è stupid0, ti basta vedere gli altri commenti che lascia, del tipo “Samsung copia Apple, quindi è colpa di Apple” wut?

Jezuuz

80 euro !1!1!1!1! Quanto siete fessi.

Antsm90

Dovrebbero utilizzare l'AI di Facebook, quella è assurdamente precisa (vabbè che in effetti se la polizia ha solo una foto per sospettato da dare in pasto all'AI, sarà dura farlo funzionare bene)

Salveneehh

Francesco Renato

Attento a non abbronzarti troppo!

Tizio a caso

Fammi indovinare, hai votato Lega?

Tom Smith

Dire le donne è la più stupida generalizzazione. Sparano più agli uomini che alle donne...

Giardiniere Willy

Aspè, ma l'hanno usato su un campione di cinesi? Perché in quel caso è ovvio che sbagli 98 volte su 100

Adriano

Una che di cognome fa d1ck , poteva dire solo càzzat3

delpinsky
emmeking

E i tatutaagi. I tatuaggi li portano i cattivi.

ghost

Se poi hanno i rasta se fossi in loro non uscirei di casa xD

emmeking
Michele De Nandi

Ormai non sono solo i neri. Ma anche messicani e molte volte anche le donne. Se poi sei una donna messicana o afroamericana e se avessero questo software sicuro che sparerebbe in automatico ancor prima di accertarsi che sia un possibile sospetto. Per prevenzione.

Cheers ;)

ghost

In realtà è settato per distinguere i neri dai bianchi

Michele De Nandi

Tasso d'errore del 98% ? Potrebbe essere fin da subito un "buon" software per i poliziotti americani. Tanto quelli appena vedono un "tipo sospetto" per loro sparano ad ca77um.

Cheers ;)

Tecnologia

Omnibus ha fallito, ma non ci sorprende. Il Black Friday Tech segna -11%

Games

ROG Ally: sei mesi dopo, il prezzo è giusto

Articolo

Netflix: tutti i film e le serie TV in arrivo a dicembre 2023

Games

Recensione Lenovo Legion Go, sfida ROG Ally a viso aperto