Facebook, che brutto errore ha commesso l'algoritmo. Arrivano le scuse ufficiali

06 Settembre 2021 208

Gli algoritmi di intelligenza artificiale sono utili svolgere compiti demandati agli esseri umani, ma non sempre sono infallibili e in alcuni casi fanno errori molto imbarazzanti per chi li ha creati, per non dire deprecabili. Esemplare è il caso dell'algoritmo sviluppato da Facebook che scambia i neri per primati. Scambiava, meglio dire, visto che il caso ha sollevato un polverone mediatico che si è concluso con le scuse ufficiali e con la disabilitazione della funzione.

Il caso per certi versi ricorda quello del 2018: Facebook censurò stralci della Dichiarazione di Indipendenza americana. Il filo conduttore è un errore nell'analisi dei contenuti che causa problemi su temi molto delicati come la discriminazione e i pregiudizi razziali.

Tutto parte da un video pubblicato il 27 giugno 2020 su Facebook dalla testata britannica Daily Mail: il filmato si intitola White man calls cops on black men at marina. Il video mostra esclusivamente persone di colore che discutono con uomini bianchi e con agenti di polizia. Nessun riferimento a scimmie, gorilla o altri primati. Eppure l'algoritmo sviluppato da Facebook per suggerire all'utente video correlati a quello appena riprodotto ha consigliato agli utenti che hanno guardato il filmato: "Continua a guardare video su primati".

Un fotogramma del video White man calls cops on black men at marina

Dani Lever, portavoce del colosso dei social, ha ammesso il grave errore:

Si è trattato chiaramente di un errore inaccettabile [...] anche se abbiamo apportato miglioramenti alla nostra intelligenza artificiale, sappiamo che non è perfetta e che abbiamo ulteriori progressi da fare. Ci scusiamo con chiunque abbia visto questi consigli offensivi.

Facebook ha aggiunto di aver avviato indagini interne per accertare la causa dell'errore e impedire che si ripresenti. Non bisogna però puntare l'indice solo contro Facebook quanto più in generale nei confronti di una tecnologia che evidentemente non è ancora matura come si vorrebbe, si vedano anche i gravi svarioni nell'ambito del riconoscimento facciale.


208

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
trakers

Si, corretto.
Lo ha spiegato benissimo Matteo Flora in uno dei suoi ultimi video

SardignaNatzione

Informati

sucaloro

Allora è razzismo artificiale.. non più intelligenza ma ignoranza artificiale, sempre ai* resta

GeneralZod

Non ho capito cosa vuoi dire e cosa c'entra col mio commento. È corretto che una IA possa scambiare un umano con quello che effettivamente è: un primate.
Che vogliano o debbano scusarsi è una questione più politica che semantica.

li tuo è benaltrismo da ritardati :)

Facebook called it “an unacceptable error.” The company has struggled with other issues related to race. Facebook on Friday apologized for mislabeling and said…

caso chiuso.

una saluto a tutti quelli che "non è un errore!1233 nonononnono!"

Facebook called it “an unacceptable error.” The company has struggled with other issues related to race. Facebook on Friday apologized for mislabeling and said…

Quindi il problema è quello? Cioè l'IA che non conosce a sufficienza le persone di colore?

marcy9487

Solo uomini bianchi, non c'è un nero, un asiatico, un abbronzato, un indiano, niente, solo lapponi albini.

SardignaNatzione

l'algoritmo è progettato da uomini bianchi

Walter

le uniche critiche serie sono sulla verifica preventiva (senza mandati ecc) e sul fatto che il sistema possa essere esteso anche ad altro.
Su falsi positivi ecc non mi preoccuperei

Yemaleo

voi dovreste sentirvi certe scenette di Marco Dona dello zoo di 105, per farvi un'idea del livello di razzismo che viene spacciato per comicità

Marco Sartori

Ok

tommaso

non capisco cosa ci sia di sbagliato:

Primati: Ordine di mammiferi euterî cui appartengono l’uomo, le scimmie e le proscimmie.

Fandandi

Ma certo, bisognerebbe avere l'intelligenza per capire quando una persona sta scherzando in amicizia, quando e' un errore in buona fede e quando e' un offesa.

BerlusconiFica

Allora perché avercela con Apple per la segnalazione delle foto se manco le guarda? Per il discorso dei falsi positivi?

BerlusconiFica

Ahahahah non ci sto capendo nienteee

ErCipolla

Vero, soprattutto perché i codec di compressione video quando eliminano dettaglio da una scena partono dalle parti più scure (partendo dal presupposto che si nota meno la perdita di dettaglio in una zona del fotogramma non illuminata)

Slartibartfast

Come commentato sopra,
Non è solo questione di training set btw, avevo trovato un articolo che
spiegava perché gli oggetti (e volti) più scuri sono più difficilmente
classificabili per via di caratteristiche intrinseche delle reti neurali
usate.

Ma suppongo che molto banalmente anche una semplice riduzione nel contrasto di un oggetto inquadrato possa causare problemi.

Slartibartfast

Non è solo questione di training set btw, avevo trovato un articolo che
spiegava perché gli oggetti (e volti) più scuri sono più difficilmente
classificabili per via di caratteristiche intrinseche delle reti neurali
usate.

Ma suppongo che molto banalmente anche una semplice riduzione nel contrasto di un oggetto inquadrato possa causare problemi.

trakers

Con dei dataset in cui la maggiorparte delle immagini riproducono persone bianche

trakers

Si, visto che è stata programmata da umani.

marcy9487

Se sbaglia pure un algoritmo software io una domanda me la farei...

roby

Fb si e' salvata grazie a Instagram altrimenti era gia' fallita

sailand
LaVeraVerità

Purtroppo pochi in questa discussione se ne sono accorti. Passi per la redazione da cui ormai non ci si aspetta più nulla ma è evidente la situazione drammatica in cui si trovano i fuoriusciti dalla scuola italiana negli ultimi 20 anni.

sucaloro

Grave orrore, anche l'AI è razzista? :(

RomanRex

che poi anche per l'IA è difficile distinguere un nero da un primate considerando anche il colore del pelo di un primate(solitamente nero) e il naso schiacciato con grandi narici che hanno molti neri, alcuni tratti somatici(anche se ad alcuni non piace ammetterlo) sono comuni anche se non uguali. Poi mi chiedo ma se un uomo bianco fosse stato scambiato per un primate sarebbe successa la stessa indignazione?

GeneralZod

L'uomo appartiene alla famiglia dei primati. Caso chiuso.

Mi pare anche Google Foto soffrisse di questo problema.

Mi domando come sono state addestrate queste IA.

sailand

Sacrosante le scuse ma ad essere non politically correct a quanti non è mai capitato di pensare che alcuni neri hanno un che di scimmiesco? Non è giusto ma accade e non per razzismo ma perché magari non si è così abituati a certi tratti somatici.
Specie alcuni popoli europei nel passato (oggi fra viaggi, media e immigrazione è diverso) non avevano tanta dimestichezza con certi tratti somatici. Ma subentravano altri fattori a far riconoscere l’appartenenza umana.
L’AI per quanto si stia evolvendo non ha ancora la capacità di considerare tutti gli aspetti che un essere umano ha ed ecco l’errore in agguato.
Oltretutto proprio cercare di simulare l’intelligenza umana porta con se un intrinseco difetto umano: la fallibilità.
Se pensate che la AI sia infallibile scordatevelo, è pur sempre una creazione umana e come tale soggetta a errori.

Ok_76
Anders Ge (f.k.a."usagisan")

Già, purtroppo è così.
Il progresso come viene inteso non è progresso, ma regresso: invece di portare benefici a tutti porta solo problemi a molti.

Walter

ma che in locale, se non sincronizzi le foto non hai la categorizzazione... coincidenze? io non credo

ALDream40K

Purtroppo andrà sempre peggio... In tanti settori verremo sostituiti o resi inutili da macchine o robot

Anders Ge (f.k.a."usagisan")

Ironia a parte, qualsiasi sia il lavoro è sempre una fregatura…

ALDream40K
BerlusconiFica

Ah ok, quindi la categorizzazione per argomento delle foto avviene in locale nel telefono e non sui server…grazie per il chiarimento

ASpIDe2 PIdeAS2

Secondo me tutte le testate che fanno """ informazione"""" usano dei trol pagati

Ombra Alberto

Ahah

Anders Ge (f.k.a."usagisan")
Gli algoritmi di intelligenza artificiale sono utili svolgere compiti demandati agli esseri umani,


Si, utili fini a quando non è il “tuo” lavoro ad essere sostituito

ghost

Ho detto che se all'IA gli dici di censurare frasi sulla violenza e se in una costituzione si fa riferimento alla violenza magari per dire che è sbagliata, l'IA sbagliando/generalizzando la censura. Ho solo detto che capita non che sia giusto.

Little SG

Concorde sul fatto che una classificazione è solo un costrutto umano, ma, perdonami, uscirsene con "secondo me classificare l'uomo nei primati è una cosa forzata perché a me non convince" mi sembra un tantinello arrogante.
Le classificazioni delle specie non sono come mettere in ordine il cassetto delle mutande, dove uno può dire che prima vanno quelle nere o quelle bianche in base al gusto personale, sono state costruite, modificate, e continuamente aggiornate con criterio in decenni di storia da esperti del campo, non è che uno si è svegliato la mattina e ha deciso che umani e scimpanzé sono entrambi primati perché è bello così.

Mostra 1 nuova risposta

Potrei ma se poi tu venissi sparato a 30km al secondo nello spazio un po' mi dispiacerebbe... Indendevo dire comunque che mettere l'uomo in quella classificazione è veramente forzata come cosa. Ma è una classificazione fatta da noi quindi è opinabile si fa solo per comodità, non è una legge fisica, paragonare le due cose è totalmente fuori luogo.

Alessio Ferri

Se uno ha tanto tempo libero e si diverte così, affari suoi.

Marco Sartori

tu sei fuori come un balcone.
"è giusto che fessbucc e ticche tocche decidano cosa sia costituzionale o meno. la democrazia nel cesso subito!"

ErCipolla

Ma infatti, come ho scritto anche sotto il problema è sicuramente da imputare a una carenza del dataset di addestramento, evidentemente non abbastanza vario.

la risposta è ovviamente no non essendo le tue foto in alcun database di abusi contro i minori su cui si basano i controlli apple e anche di google (ah si, i controlli che apple vorrebbe usare google li usa da almeno 6 anni sui suoi cloud)

Miserabile

La precisione però è conducibile al lavoro magari errato del team che ha in gestione questo algoritmo. Poi le persone stupi=de fanno il collegamento al razzismo che non centra nulla. Vi posso assicurare che la percentuale di probabilità che in un team di Facebook ci siano razzisti è quasi minore dello 0%.

Miserabile

L'intelligenza artificiale NON è oggettiva. La spiegazione facilmente dimostrabile è che l'intelligenza artificiale viene sviluppata da esseri umani e gli esseri umani hanno bias. Per farti un esempio io potrei sviluppare una intelligenza artificiale che mi riconosce come scimmie tutti quelli di carnagione scura. Per questo esatto motivo Google qualche mese fa licenziò una sua dipendente abbastanza importante nella ricerca dell'AI, questa persona aveva forti bias liberals/progressive e li spingeva volontariamente nei suoi modelli/studi per spingere un certo partito politico. Quindi quello che dici tu è vero, nel senso che l'intelligenza artificiale è oggettiva nel momento in cui viene allenata su dati reali, il problema della sua non oggettività però sta nel modo in cui essa è stata creata.

24H con Oppo Find N2 Flip, la sfida a Samsung è servita | VIDEO

Abbiamo provato i nuovi Galaxy Z Fold4 e Z Flip4, ecco le novità! | VIDEO

Copertura 5G, a che punto siamo davvero? La nostra esperienza in città

Spotify, Apple Music e gli altri: chi vincerà sul ring dello streaming musicale?