
17 Dicembre 2021
16 Dicembre 2021 35
Apple ha rimosso dalla pagina di supporto ufficiale relativa alla sicurezza delle comunicazioni nei Messaggi tutte le menzioni al CSAM (Child Sexual Abuse Material), le nuove funzionalità di sicurezza, annunciate lo scorso agosto, volte a combattere la diffusione di materiale pedopornografico online e proteggere i minori e le loro famiglie.
Questa mossa potrebbe significare un definitivo abbandono della sua implementazione dopo le tante critiche ricevute nei mesi scorsi da parte di varie organizzazioni, ricercatori di sicurezza, la Electronic Frontier Foundation (EFF), l'ex capo della sicurezza di Facebook, ricercatori universitari e gruppi politici e gruppi per i diritti civili che ne hanno richiesto l'abbandono a gran voce.
Una delle principali preoccupazioni espresse era quella relativa al rischio che questa funzionalità, in futuro, si possa espandere anche ad altri ambiti. Lo scenario più preoccupante è che i governi, soprattutto quelli più autoritari, possano sfruttarla per reprimere dissidenti, oppositori politici ed eliminare immagini scomode.
La funzione CSAM, ricordiamo, consentirebbe di effettuare la scansione delle librerie di foto di iCloud degli utenti per ricercare materiale pedopornografico e confrontarlo con un database che raccoglie tutte le immagini segnalate dalle forze dell'ordine. A nulla sarebbe bastata la rassicurazione fatta da Apple sul fatto che le immagini caricate sul cloud non vengono mai scannerizzate, nel pieno rispetto della privacy degli utenti.
Le polemiche non si sono placate ed Apple ha deciso di prendersi più tempo per apportare ulteriori miglioramenti al sistema prima del rilascio. Nel frattempo ha comunque deciso di implementare quanto meno la funzionalità di sicurezza delle comunicazioni nell'app Messaggi. La funzione, infatti, è presente in iOS 15.2, la nuova versione del sistema operativo per iPhone rilasciata nei giorni scorsi.
Proprio la dichiarazione di "prendersi del tempo" è sparita dalla pagina di supporto, insieme a tutte le menzioni al CSAM. Da qui l'ipotesi che Apple abbia deciso di fermare del tutto lo sviluppo. Al momento, tuttavia, ancora non ci sono delle comunicazioni ufficiali in merito.
Contattato per un commento da The Verge, il portavoce di Apple, Shane Bauer, ha affermato che la posizione dell'azienda non è cambiata rispetto allo scorso settembre, quando fu annunciato per la prima volta che ci sarebbe stato uno slittamento dell'implementazione della funzionalità CSAM.
Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità di sicurezza per i bambini di fondamentale importanza.
Commenti
il controllo completo del contenuto del tuo telefono, del tuo pc, ecc... l'hai perso anni fa quando hai fatto il primo backup sul sistema di archiviazione di proprietà altrui. In questo caso il potenziale malintenzionato ha cortesemente suonato al campanello per chiedere beneficienza, ma in tasca ha le chiavi di casa e un piede di porco...
Adesso la usano per buoni fini, ma non darei mai così tanto potere a una multinazionale. Una volta introdotta la funzione ci vuole poco dal passare dal controllo delle foto pedo ad altri tipi di argomenti che un governo vuole censurare. Ricorda, tutto ciò che viene usato contro altri può ritorcersi contro di te in qualsiasi momento
Concordo, ma uno smartphone qualsiasi con un qualsiasi sistema di archiviazione in cloud già espone tutti i dati ad uno o più enti... è un po' come chiedersi: "se un malintenzionato entrasse nella mia casa potrebbe cambiare il mio piano di Netflix e farmi pagare per 4 dispositivi anziché uno ?" Non ha molto senso perché non solo è l'ultima tua preoccupazione relativa al rischio di un intruso in casa ma non ci si rende conto che il potenziale malintenzionato ha già le chiavi di casa e se deciderà di entrarci non si limiterà a bere dal cartone del latte e cambiare una sottoscrizione a Netflix... non so se mi riesco a spiegarmi.
Per me la privacy è sacra, al netto della mia attività imprenditoriale sono estremamente schivo, non cedo volentieri pezzi di spazi vitali... ritengo semplicemente solo che questo specifico spazio sia già ceduto, che quella porta sia già ampiamente aperta e che quindi sia inutile battagliare per impedirne il primo uso socialmente utile... poi vabbè, amen, la cosa era comunque aggirabile con un minimo di attenzione dai pedofili e se le cose sono andate così me ne farò rapidamente una ragione
Apple non decide sulla privacy di nessuno, se vuoi un servizio devi esporre parte della tua privacy lo puoi accettare o meno.
Certo, all'atto pratico hai ragione, però c'è anche un aspetto psicologico nel sapere che è attivo sul dispositivo un meccanismo che espone informazioni, anche se sono usate "a fin di bene". E' normale che ci siano reazioni contrarie, giustificate o meno.
https://uploads.disquscdn.c...
Apple non ha alcuna autorità per decidere sulla privacy dei cittadini e coinvolgere nella discussione tutte le parti in causa, può solo farlo un governo
comprendo i timori ma significa sempre mettere le mani in un sistema di archiviazione cloud di una grande azienda e sul suo database... significa quindi sempre accordarsi con Apple per reprimere la parte dissidente della popolazione. Fai estremamente prima e più efficacemente a scansionare tutto il contenuto dell'archiviazione in cloud (conversazioni, messaggi, foto, tutto...)
Questo tipo di policy vanno decise insieme alle parti in causa dalle autorità governative a monte, e poi imposte tramite una normativa a tutti i player dell'industria, qui stava avvenendo il contrario, ovvio che è saltato tutto
Chissà perché …
Ma risponderebbero che si tratta di una svista una dimenticanza un errore una inconsapevolezza.
È successo già mille volte
gli hard disk de li pretacci infami sono al sicuro
Si, altri sistemi se ne possono introdurre... l'obiezione che molti hanno sollevato è che con una scusa "nobile" intanto hai aperto la porta, poi basta introdurre hash "interessanti" nel db per cominciare a monitorare senza che nessuno se ne accorga (invece che introdurre direttamente una backdoor che chi fa reverse engineering troverebbe in breve tempo, qui hai una backdoor "legittima" che poi puoi pilotare)
Il database ti arriva dal produttore... e devi "fidarti" che contenga solo hash per gli scopi dkcjisrati. Basta che il produttore lo modifichi e cominciano a uscire hash anche di altri file che non c'entrano nulla con i controlli anti-pedo
Sicuro di sapere come ragionano?
Perché in Europa con la deroga alla direttiva ePrivacy votata ed approvata questa estate permette a tutti i fornitori di servizi messaggistica di scansionare tutte le chat e le e-mail in cerca di materiale multimediale pedopornografico…
Non manda fuori nessun hash, riceve… riceve un database di hash con cui fa un confronto in locale, e solo dopo un certo numero di corrispondenze, onde evitare falsi positivi, viene inviato un report ad Apple per una ulteriore convalida manuale prima della segnalazione.
Ma anche inviasse fuori gli hash di tutte le tue foto sarebbe inutile… da quegli hash possono sapere che foto hai solo se quelle foto, chi riceve gli hash, già le possiede.
il dispositivo manda fuori ash ma è verso icloud… con questo sistema un pedofilo che non usasse iCloud per le foto non avrebbe problemi. Per avere problemi tutti serve un governo autoritario che costringa Apple (o la Apple di turno) a collaborare per la comunicazione di dati richiesti. Ma avrebbero già mille altri sistemi di controllo non ultimo l’accesso diretto al tuo cloud o dispositivo, l’intecettazione di chiamate ecc… ripeto, nel momento in cui CSAM diventa un problema sarebbe comunque l’ultimo dei problemi di privacy e l’ultimo dei tuoi problemi
Conosci il significato di “sfinire un cavallo”?
Sai che se continui a spronare un cavallo sfinito questo “ti muore sotto” e pure tu ci puoi restare lì sotto?
Hai evidentemente una “mentalità quantitativa” che non considera, punto o poco, qualità e misura.
Probabilmente senti le “ovvie” conseguenze di una diseducazione da gaming eccessivo.
Nel merito.
Primo: Apple non era stata “tacita” nell’introdurre quel meccanismo di salvaguardia, ma lo aveva inserito nelle caratteristiche dell’aggiornamento … e c’è tuttora!
Secondo: uno smartphone non è un dispositivo con cui si svolgono “compiti critici” che fanno dipendere dalla velocità d’esecuzione esiti “vitali” od economicamente sconvolgenti.
Quindi tutto il cancan sulla questione è stato “principalmente” condotto all’insegna della rivalsa degli hater frustrati dal persistente successo dell’oggetto del proprio odio. Successo che è costantemente confermato dal fatto che gli “user” di prodotti Apple sono assai diversi dai “prestazionisti ossessivi” che, ripeto, sono fondamentalmente i “maleducati” a suon di gaming.
La preoccupazione non era tanto la soppressione, quanto il fatto che è una cosa che rompe la privacy del dispositivo ed essenzialmente manda fuori hash di file che hai nel dispositivo, hash che possono potenzialmente essere usati per gli scopi più disparati, non solo per combattere la pedopornografia. In pratica è come dire "registriamo preventivamente le telefonate di tutti i cittadini perché così becchiamo anche i criminali". È tecnicamente vero, ma non penso sarebbe molto gradito.
La funzionalità crea "semplicemente" una sequenza testuale e la compara con le sequenze dei Db federali sulla pedopornografia... Significa che può SOLO vedere se la foto è esattamente la stessa... I governi totalitari fanno prima a pretendere da Apple l'accesso ad iCloud se vogliono fare qualcosa
Si ma in ogni caso il regime avrebbe bisogno di creare un database di immagini da condividere con Apple in modo tale che Apple le facesse saltare fuori da icloud per poi verificarle e condividere col regime… quando arrivi a questo punto le telecomunicazioni, il cloud ecc… se c’è un accordo del genere perché limitarsi ad un’analisi indiretta ? Perché non consentire al regime di accedere direttamente ai dati in cloud? Arrivati al punto che temono quei tizi i sistemi di telecomunicazione dovrebbero essere stati abbandonati da un pezzo dai dissidenti.
Benissimo.
Più che eliminarle vedere se nelle foto ci sono determinati elementi che possono essere compromettenti per il regime
Dispiace perché per la pedopornografia poteva essere utile ma il rispetto per la privacy in questo caso dovrebbe aver il sopravvento.
In Europa lo bloccavano in tempo zero conoscendo come ragionano
OT:
Apple ha rilasciato Swift Playgrounds 4, adesso è possibile sviluppare e inviare app ad App Store direttamente da iPad.
https://uploads.disquscdn.c...
Ma che preoccupazione è ? Ma che significa ? farle sparire da dove ? e come ? questo era un ottimo strumento per combattere la pedopornografia ed invece qualcuno ha paura che governi dittatoriali si accordino con Apple per la creazione di un comune database per cancellare foto sgradite (che potendo rientrare in un database sono evidentemente già diffuse")
Qualcuno potrebbe fare reverse engineering dell'app e ci sarebbe uno scandalo mediatico.(Gia c'è gente che fa reverse di prodotti apple)
Poco plausibile.
Conoscendoli sono in grado di introdurre sta funzione senza avvisare nessuno, è un po’ presto per dire che hanno ascoltato le critiche…
*cancellare le critiche
Han fatto bene