
08 Novembre 2018
05 Luglio 2018 33
Le forze dell’ordine del Regno Unito sono impegnate nella sperimentazione della tecnologia di riconoscimento facciale automatizzata (AFR), tuttavia i dubbi in merito alla sua legittimità ed efficacia hanno dato origine ad un acceso dibattito pubblico. Tra le principali criticità di questo sistema, infatti, vi è l’adozione della scansione facciale su larghissima scala - sopratutto in occasione di eventi e manifestazioni pubbliche - e gli scarsi risultati che è stata in grado di produrre, a causa del bassissimo tasso di successo, come hanno dimostrato anche i fatti di Cardiff.
Cressida Dick - commissario della polizia metropolitana britannica - ha ribadito il suo sostegno alla sperimentazione della tecnologia di riconoscimento facciale automatizzata, affermando che - a suo avviso - i cittadini si aspettano che le forze dell’ordine sperimentino le ultime tecnologie disponibili, nonostante queste non abbiano ancora condotto a molti arresti. La Dick ha dichiarato inoltre di trovarsi “completamente a suo agio” nell’utilizzo dell’ARF.
Al momento attuale l’ARF non risulta molto efficace, visto che il suo tasso di errore - ovvero un falso positivo che incolpi una persona innocente - è pari al 98%. Questo significa che solo il 2% dei casi viene correttamente identificato, mentre il restante 98% delle segnalazioni costringe la polizia ad effettuare accertamenti inutili.
Nel corso di un test è stato riscontrato che gli unici due casi correttamente abbinati riguardavano un individuo presente in una lista di sorveglianza ormai scaduta e una persona con problemi di salute mentale, solita contattare personaggi famosi. In entrambi i casi non c’erano gli estremi per procedere all’arresto e lo stesso MET (Metropolitan Police) afferma che tutti i casi vengono esaminati anche da un agente e che non si sono mai verificati dei fermi di persone innocenti identificate erroneamente.
Nonostante ciò, l’organizzazione no profit Big Brother Watch ha espresso le sue preoccupazioni riguardo il fatto che la tecnologia AFR sia stata adottata senza affrontare un adeguato dibattito pubblico e con pochi controlli sul come venga applicata. Il rischio, secondo l’organizzazione, è quello di trasformare ogni area pubblica in un punto di controllo biometrico e che la stessa presenza di questa tecnologia rappresenti un pericolo per il buono stato di salute di una società libera, dal momento che sempre più persone potrebbero essere dissuase dal prendere parte a manifestazioni o scioperi anche solo per la paura di essere identificati e in seguito arrestati.
Uno dei temi centrali del dibatto, infatti, riguarda l’applicazione indiscriminata del riconoscimento facciale in molti ambiti pubblici, con rilevazioni costanti ma allo stesso tempo inutili, vista la loro scarsa precisione. La discussione tocca anche altri due aspetti importanti della società inglese, ovvero le potenziali violazioni del diritto alla privacy e alla libertà di espressione.
Secondo un recente rapporto, pare che “il riconoscimento facciale è destinato a diventare una delle tecnologie di sorveglianza più pervasive” e anche gli Stati Uniti stanno cominciando ad affrontare il tema in seguito alla distribuzione di Amazon Rekognition, un sistema particolarmente economico sviluppato da Amazon per le forze dell’ordine locali.
Commenti
Agli uomini neri e basta. Vai a vedere cosa fanno alle donne messicane. Ho visto certi video ripresi che arrestano e menavano donne solo perché messicane e non facevano nulla. Dai moh... Aprite gli occhi e non fate i finti non vedenti...
Cheers ;)
penavo 99
temo che non sia possibile comprendere il numero di veri negativi, in quanto non sono stati fermati e quindi non se ne può avere un dato statistico... comunque il 98% di falsi positivi lascia supporre un livello di fallacia tale da non lasciar ipotizzare nulla di buono neanche per i veri negativi... se non dà risultati random poco ci manca.
fallisce dopo il vaglio, il che porta 98% di falsi positivi ma esclude i potenziali veri negativi (questo sarebbe un errore se non li detectasse, però l'articolo non ne fa menzione quindi si suppone che le persone da identificare fossero solo quel 2% e nessun altro) e falsi negativi (ovvero quelli da non prendere in considerazione perché non rilevanti)
Se il riconoscimento fallisce pressoché sempre in che modo ci sarebbe stato un restringimento di campo?
Solo perché ho fatto una battuta? No, anzi, mi fa abbastanza schifo. Sinceramente non mi riconosco in nessuna parte politica, ho votato scheda bianca
98% di errore ma comunque ha ristretto il campo a una cerchia di persone da esaminare. E' questo il vantaggio, gli agenti non devono esaminarli tutti ma un sottoinsieme.
Stupido Flanders!
Avrei chiuso un occhio se le percentuali fossero invertite.. Ma 98% di errore è praticamente inutilizzabile, non ha il minimo senso utilizzarlo..
Non è un commento razzista è solo una battuta stupida, e in questo caso non si applica visto che si parla di AI, diverso se si parla della percezione individuale, ad esempio prendendo un europeo è abituato a certi tratti somatici e quindi quelli che caratterizzano un altra etnia spesso sono abbastanza forti da dare l'illusione che siano tutti uguali o quasi (le differenze tra gli individui di una stessa etnia sono molto leggere)
Gli inglesi questi geni incompresi....
Ma Cressidra Dick é il nome di un'eroina di un nuovo fumetto marvel??
uno dei pochi commenti intelligenti alla notizia :)
son proprio inglesi
Il 2% affidabile ahahahahah
non scordare l indice cefalico
Tu devi essere quello colto della comitiva.
insomma, forse ci azzeccavo più io se estraevo a caso una foto segnaletica tra quelle in loro possesso.
Lascialo stare è stupid0, ti basta vedere gli altri commenti che lascia, del tipo “Samsung copia Apple, quindi è colpa di Apple” wut?
80 euro !1!1!1!1! Quanto siete fessi.
Dovrebbero utilizzare l'AI di Facebook, quella è assurdamente precisa (vabbè che in effetti se la polizia ha solo una foto per sospettato da dare in pasto all'AI, sarà dura farlo funzionare bene)
Salveneehh
Attento a non abbronzarti troppo!
Fammi indovinare, hai votato Lega?
Dire le donne è la più stupida generalizzazione. Sparano più agli uomini che alle donne...
Aspè, ma l'hanno usato su un campione di cinesi? Perché in quel caso è ovvio che sbagli 98 volte su 100
Una che di cognome fa d1ck , poteva dire solo càzzat3
E i tatutaagi. I tatuaggi li portano i cattivi.
Se poi hanno i rasta se fossi in loro non uscirei di casa xD
Ormai non sono solo i neri. Ma anche messicani e molte volte anche le donne. Se poi sei una donna messicana o afroamericana e se avessero questo software sicuro che sparerebbe in automatico ancor prima di accertarsi che sia un possibile sospetto. Per prevenzione.
Cheers ;)
In realtà è settato per distinguere i neri dai bianchi
Tasso d'errore del 98% ? Potrebbe essere fin da subito un "buon" software per i poliziotti americani. Tanto quelli appena vedono un "tipo sospetto" per loro sparano ad ca77um.
Cheers ;)