Apple, rimossi dal sito tutti i riferimenti alla funzione CSAM ma nulla è cambiato

16 Dicembre 2021 35

Apple ha rimosso dalla pagina di supporto ufficiale relativa alla sicurezza delle comunicazioni nei Messaggi tutte le menzioni al CSAM (Child Sexual Abuse Material), le nuove funzionalità di sicurezza, annunciate lo scorso agosto, volte a combattere la diffusione di materiale pedopornografico online e proteggere i minori e le loro famiglie.

Questa mossa potrebbe significare un definitivo abbandono della sua implementazione dopo le tante critiche ricevute nei mesi scorsi da parte di varie organizzazioni, ricercatori di sicurezza, la Electronic Frontier Foundation (EFF), l'ex capo della sicurezza di Facebook, ricercatori universitari e gruppi politici e gruppi per i diritti civili che ne hanno richiesto l'abbandono a gran voce.

Una delle principali preoccupazioni espresse era quella relativa al rischio che questa funzionalità, in futuro, si possa espandere anche ad altri ambiti. Lo scenario più preoccupante è che i governi, soprattutto quelli più autoritari, possano sfruttarla per reprimere dissidenti, oppositori politici ed eliminare immagini scomode.

La funzione CSAM, ricordiamo, consentirebbe di effettuare la scansione delle librerie di foto di iCloud degli utenti per ricercare materiale pedopornografico e confrontarlo con un database che raccoglie tutte le immagini segnalate dalle forze dell'ordine. A nulla sarebbe bastata la rassicurazione fatta da Apple sul fatto che le immagini caricate sul cloud non vengono mai scannerizzate, nel pieno rispetto della privacy degli utenti.


Le polemiche non si sono placate ed Apple ha deciso di prendersi più tempo per apportare ulteriori miglioramenti al sistema prima del rilascio. Nel frattempo ha comunque deciso di implementare quanto meno la funzionalità di sicurezza delle comunicazioni nell'app Messaggi. La funzione, infatti, è presente in iOS 15.2, la nuova versione del sistema operativo per iPhone rilasciata nei giorni scorsi.

Proprio la dichiarazione di "prendersi del tempo" è sparita dalla pagina di supporto, insieme a tutte le menzioni al CSAM. Da qui l'ipotesi che Apple abbia deciso di fermare del tutto lo sviluppo. Al momento, tuttavia, ancora non ci sono delle comunicazioni ufficiali in merito.

APPLE CONFERMA CHE NULLA È CAMBIATO
16/12

Contattato per un commento da The Verge, il portavoce di Apple, Shane Bauer, ha affermato che la posizione dell'azienda non è cambiata rispetto allo scorso settembre, quando fu annunciato per la prima volta che ci sarebbe stato uno slittamento dell'implementazione della funzionalità CSAM.

Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità di sicurezza per i bambini di fondamentale importanza.

Lo smartphone più completo? Samsung Galaxy S23 Ultra, in offerta oggi da smartapp a 889 euro oppure da eBay a 959 euro.

35

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
TheBoss

il controllo completo del contenuto del tuo telefono, del tuo pc, ecc... l'hai perso anni fa quando hai fatto il primo backup sul sistema di archiviazione di proprietà altrui. In questo caso il potenziale malintenzionato ha cortesemente suonato al campanello per chiedere beneficienza, ma in tasca ha le chiavi di casa e un piede di porco...

HeiSiri

Adesso la usano per buoni fini, ma non darei mai così tanto potere a una multinazionale. Una volta introdotta la funzione ci vuole poco dal passare dal controllo delle foto pedo ad altri tipi di argomenti che un governo vuole censurare. Ricorda, tutto ciò che viene usato contro altri può ritorcersi contro di te in qualsiasi momento

KenZen
ALDream40K
TheBoss

Concordo, ma uno smartphone qualsiasi con un qualsiasi sistema di archiviazione in cloud già espone tutti i dati ad uno o più enti... è un po' come chiedersi: "se un malintenzionato entrasse nella mia casa potrebbe cambiare il mio piano di Netflix e farmi pagare per 4 dispositivi anziché uno ?" Non ha molto senso perché non solo è l'ultima tua preoccupazione relativa al rischio di un intruso in casa ma non ci si rende conto che il potenziale malintenzionato ha già le chiavi di casa e se deciderà di entrarci non si limiterà a bere dal cartone del latte e cambiare una sottoscrizione a Netflix... non so se mi riesco a spiegarmi.

Per me la privacy è sacra, al netto della mia attività imprenditoriale sono estremamente schivo, non cedo volentieri pezzi di spazi vitali... ritengo semplicemente solo che questo specifico spazio sia già ceduto, che quella porta sia già ampiamente aperta e che quindi sia inutile battagliare per impedirne il primo uso socialmente utile... poi vabbè, amen, la cosa era comunque aggirabile con un minimo di attenzione dai pedofili e se le cose sono andate così me ne farò rapidamente una ragione

TheBoss

Apple non decide sulla privacy di nessuno, se vuoi un servizio devi esporre parte della tua privacy lo puoi accettare o meno.

ErCipolla

Certo, all'atto pratico hai ragione, però c'è anche un aspetto psicologico nel sapere che è attivo sul dispositivo un meccanismo che espone informazioni, anche se sono usate "a fin di bene". E' normale che ci siano reazioni contrarie, giustificate o meno.

Egidiangelo

https://uploads.disquscdn.c...

momentarybliss

Apple non ha alcuna autorità per decidere sulla privacy dei cittadini e coinvolgere nella discussione tutte le parti in causa, può solo farlo un governo

TheBoss

comprendo i timori ma significa sempre mettere le mani in un sistema di archiviazione cloud di una grande azienda e sul suo database... significa quindi sempre accordarsi con Apple per reprimere la parte dissidente della popolazione. Fai estremamente prima e più efficacemente a scansionare tutto il contenuto dell'archiviazione in cloud (conversazioni, messaggi, foto, tutto...)

momentarybliss

Questo tipo di policy vanno decise insieme alle parti in causa dalle autorità governative a monte, e poi imposte tramite una normativa a tutti i player dell'industria, qui stava avvenendo il contrario, ovvio che è saltato tutto

Migliorate Apple music

Chissà perché …

massimo mondelli

Ma risponderebbero che si tratta di una svista una dimenticanza un errore una inconsapevolezza.
È successo già mille volte

Captain Cahos

gli hard disk de li pretacci infami sono al sicuro

Marco Aurelio Bressanello
ErCipolla

Si, altri sistemi se ne possono introdurre... l'obiezione che molti hanno sollevato è che con una scusa "nobile" intanto hai aperto la porta, poi basta introdurre hash "interessanti" nel db per cominciare a monitorare senza che nessuno se ne accorga (invece che introdurre direttamente una backdoor che chi fa reverse engineering troverebbe in breve tempo, qui hai una backdoor "legittima" che poi puoi pilotare)

ErCipolla

Il database ti arriva dal produttore... e devi "fidarti" che contenga solo hash per gli scopi dkcjisrati. Basta che il produttore lo modifichi e cominciano a uscire hash anche di altri file che non c'entrano nulla con i controlli anti-pedo

Felix
In Europa lo bloccavano in tempo zero conoscendo come ragionano

Sicuro di sapere come ragionano?
Perché in Europa con la deroga alla direttiva ePrivacy votata ed approvata questa estate permette a tutti i fornitori di servizi messaggistica di scansionare tutte le chat e le e-mail in cerca di materiale multimediale pedopornografico…

Felix
essenzialmente manda fuori hash di file che hai nel dispositivo

Non manda fuori nessun hash, riceve… riceve un database di hash con cui fa un confronto in locale, e solo dopo un certo numero di corrispondenze, onde evitare falsi positivi, viene inviato un report ad Apple per una ulteriore convalida manuale prima della segnalazione.

Ma anche inviasse fuori gli hash di tutte le tue foto sarebbe inutile… da quegli hash possono sapere che foto hai solo se quelle foto, chi riceve gli hash, già le possiede.

TheBoss

il dispositivo manda fuori ash ma è verso icloud… con questo sistema un pedofilo che non usasse iCloud per le foto non avrebbe problemi. Per avere problemi tutti serve un governo autoritario che costringa Apple (o la Apple di turno) a collaborare per la comunicazione di dati richiesti. Ma avrebbero già mille altri sistemi di controllo non ultimo l’accesso diretto al tuo cloud o dispositivo, l’intecettazione di chiamate ecc… ripeto, nel momento in cui CSAM diventa un problema sarebbe comunque l’ultimo dei problemi di privacy e l’ultimo dei tuoi problemi

Macuser

Conosci il significato di “sfinire un cavallo”?
Sai che se continui a spronare un cavallo sfinito questo “ti muore sotto” e pure tu ci puoi restare lì sotto?

Hai evidentemente una “mentalità quantitativa” che non considera, punto o poco, qualità e misura.
Probabilmente senti le “ovvie” conseguenze di una diseducazione da gaming eccessivo.

Nel merito.
Primo: Apple non era stata “tacita” nell’introdurre quel meccanismo di salvaguardia, ma lo aveva inserito nelle caratteristiche dell’aggiornamento … e c’è tuttora!
Secondo: uno smartphone non è un dispositivo con cui si svolgono “compiti critici” che fanno dipendere dalla velocità d’esecuzione esiti “vitali” od economicamente sconvolgenti.
Quindi tutto il cancan sulla questione è stato “principalmente” condotto all’insegna della rivalsa degli hater frustrati dal persistente successo dell’oggetto del proprio odio. Successo che è costantemente confermato dal fatto che gli “user” di prodotti Apple sono assai diversi dai “prestazionisti ossessivi” che, ripeto, sono fondamentalmente i “maleducati” a suon di gaming.

Marco Aurelio Bressanello
ErCipolla

La preoccupazione non era tanto la soppressione, quanto il fatto che è una cosa che rompe la privacy del dispositivo ed essenzialmente manda fuori hash di file che hai nel dispositivo, hash che possono potenzialmente essere usati per gli scopi più disparati, non solo per combattere la pedopornografia. In pratica è come dire "registriamo preventivamente le telefonate di tutti i cittadini perché così becchiamo anche i criminali". È tecnicamente vero, ma non penso sarebbe molto gradito.

Pistacchio
Ikaro

La funzionalità crea "semplicemente" una sequenza testuale e la compara con le sequenze dei Db federali sulla pedopornografia... Significa che può SOLO vedere se la foto è esattamente la stessa... I governi totalitari fanno prima a pretendere da Apple l'accesso ad iCloud se vogliono fare qualcosa

TheBoss

Si ma in ogni caso il regime avrebbe bisogno di creare un database di immagini da condividere con Apple in modo tale che Apple le facesse saltare fuori da icloud per poi verificarle e condividere col regime… quando arrivi a questo punto le telecomunicazioni, il cloud ecc… se c’è un accordo del genere perché limitarsi ad un’analisi indiretta ? Perché non consentire al regime di accedere direttamente ai dati in cloud? Arrivati al punto che temono quei tizi i sistemi di telecomunicazione dovrebbero essere stati abbandonati da un pezzo dai dissidenti.

DesignUtopia

Benissimo.

MeneS

Più che eliminarle vedere se nelle foto ci sono determinati elementi che possono essere compromettenti per il regime
Dispiace perché per la pedopornografia poteva essere utile ma il rispetto per la privacy in questo caso dovrebbe aver il sopravvento.
In Europa lo bloccavano in tempo zero conoscendo come ragionano

Felix

OT:

Apple ha rilasciato Swift Playgrounds 4, adesso è possibile sviluppare e inviare app ad App Store direttamente da iPad.

R4nd0mH3r0

https://uploads.disquscdn.c...

TheBoss
Lo scenario più preoccupante è che i governi, soprattutto quelli più autoritari, possano sfruttarla per reprimere dissidenti, oppositori politici ed eliminare immagini scomode.

Ma che preoccupazione è ? Ma che significa ? farle sparire da dove ? e come ? questo era un ottimo strumento per combattere la pedopornografia ed invece qualcuno ha paura che governi dittatoriali si accordino con Apple per la creazione di un comune database per cancellare foto sgradite (che potendo rientrare in un database sono evidentemente già diffuse")

Qualcuno potrebbe fare reverse engineering dell'app e ci sarebbe uno scandalo mediatico.(Gia c'è gente che fa reverse di prodotti apple)
Poco plausibile.

Marco Aurelio Bressanello

Conoscendoli sono in grado di introdurre sta funzione senza avvisare nessuno, è un po’ presto per dire che hanno ascoltato le critiche…

Tony Sterk

*cancellare le critiche

Han fatto bene

Recensione Mac Mini M2 Pro: piccolo e potente, ma occhio ai prezzi | VIDEO

Macbook Pro M1 Max 15 mesi dopo: durata e consigli alla luce dei nuovi M2 | Video

100 Giorni con iPhone 14 Pro: cos'è cambiato? | Recensione

Recensione iPhone 14 Plus, autonomia da vendere