
02 Febbraio 2023
06 Dicembre 2022 14
Hanno fatto rumore le rivelazioni del Wall Street Journal di settembre 2021 sul programma di controllo incrociato XCheck. Per farla breve, era la classica storia dei due pesi e due misure: moderazione dei contenuti fin troppo efficiente per gli utenti comuni di Facebook, maglie più larghe per i VIP, definiti "membri selezionati della nostra comunità". Meta, un mese dopo, rimandò la questione all'Oversight Board, un comitato interno istituito per controllare e supportare Facebook nelle questioni sulla libertà di parola online.
Gli si chiese di esaminare il programma di controllo incrociato (XCheck) e raccomandazioni su come migliorarlo. E la risposta, il parere normativo, del comitato è arrivata. Anzitutto c'è da conoscere il contesto. Quando il Board ha iniziato ad analizzare la questione, Meta ha fatto sapere che eseguiva quotidianamente circa 100 milioni di azioni di applicazione sui contenuti.
Pure ammettendo un'efficacia del 99%, quell'1% mancante alla perfezione equivale a circa un milione di errori al giorno. Quindi, nonostante un sistema di moderazione debba trattare tutti alla stessa maniera, se il bacino conta 100 milioni di contenuti la sfida è complessa, e può accadere che vengano rimossi dei contenuti che non violano alcuna norma o, al contrario, che restino online degli altri che andrebbero eliminati. Solo che non tutti i contenuti possono danneggiare la comunità alla stessa maniera.
Per arginare il problema è stato introdotto XCheck, che affida al controllo umano alcuni post identificati dagli algoritmi come in violazione. I contenuti sottoposti a questo doppio controllo, incrociato per l'appunto, non vengono subito rimossi come accade normalmente ma vengono mantenuti in attesa fino a che qualcuno li esamini.
E sul controllo incrociato, l'Oversight Board ha individuato varie lacune. "Il Board riconosce - si legge nel rapporto - che Meta è un'azienda, tuttavia, fornendo protezione ulteriore a determinati utenti soprattutto sulla base di interessi aziendali, il controllo incrociato consente a contenuti che altrimenti verrebbero rapidamente rimossi di rimanere visibili più a lungo, con il rischio potenziale di causare danno".
Inoltre, aggiunge il Board, "Meta non ha monitorato i dati per stabilire se il controllo incrociato porti effettivamente a decisioni più attendibili e abbiamo espresso preoccupazione per la mancanza di trasparenza in merito al programma". Per cui a Meta è stato "consigliato" di dare priorità alle espressioni importanti per i diritti umani, anche quando sono di rilevanza pubblica, di adottare misure per mitigare i danni causati dalla permanenza dei contenuti sottoposti a ulteriore controllo, e di aumentare drasticamente la trasparenza dei propri sistemi.
Nel controllo incrociato di Meta, quindi, il Board ha individuato diverse lacune, nelle seguenti "aree fondamentali":
Poste Italiane, offerta luce e gas da metà febbraio. Prezzo fisso per due anni
Aqara, la casa Smart semplice e ben fatta: cos'è e come funziona | Video
Google ha paura di ChatGPT: in arrivo due chatbot di ricerca e altri prodotti AI
PanzerGlass: abbiamo provato a spaccare il vetro di un iPhone | Video
Commenti
In quale realtà non ci sono persone che contano più di altre?
Se esistono queste stronzate è colpa delle varie legislazioni, non delle piattaforme.
Intesa come cancro o come polizia della DDR? ;)
E gli ovini...
Meta Meta
Non sai trarre delle conclusioni da solo?
LOL!
... e quindi?
prima solo sostenerlo era un gomblotto... adesso quello che era sotto gli occhi di tutti tranne chi in malafede è conclamato XD
Sono d'accordo che l'organo di controllo debba essereolto duro. Più duro sarà meglio sarà. Se lo meritano.
Meta...stasi!
legge dell'IT fin'ora risultata sempre valida: "la moderazione su larga scala è impossibile"
Preferisco la valenza a idrogeno.
Su HDBlog siamo in Eccellenza.
la pentola si scoperchia, vuoi vedere che poi usciranno plusvalenze e clausole segrete?