Apple rinvia le funzioni CSAM: c'è chi ne richiede la rimozione definitiva

06 Settembre 2021 147

Nei giorni scorsi, Apple ha annunciato la decisone di voler prendersi più tempo per implementare le nuove funzionalità di sicurezza volte a combattere la diffusione di materiale pedopornografico online (Child Sexual Abuse Material, CSAM). Una decisone accolta con favore dai vari gruppi per la difesa dei diritti civili che avevano formalmente intimato Apple ad abbandonare lo sviluppo di questa funzionalità temendo importanti ripercussioni sulla privacy degli utenti. In particolare, la Electronic Frontier Foundation si è detta "soddisfatta" di questa decisione anche se vorrebbe che Apple andasse oltre abbandonandola completamente.

In una nota stampa, la EFF si è detta "contenta che Apple stia ora ascoltando le preoccupazioni" degli utenti, ma "deve andare oltre il semplice ascolto e abbandonare completamente i suoi piani per inserire una backdoor nella sua crittografia".


Apple, ricordiamo, dal canto suo ha sempre difeso queste funzionalità sottolineandone il massimo rispetto per la privacy rispetto alle tecnologie utilizzata da altre società. Le intenzioni iniziali erano quelle di lanciare le funzionalità CSAM, entro la fine dell'anno, come parte di iOS 15, iPadOS 15, watchOS 8 e macOS Monterey. Al momento non ci sono informazioni sul possibile periodo in cui la società prevede di implementarle.

La EFF, che finora ha raccolto oltre 25.000 firme contro Apple, ha anche ribadito le critiche avanzate da tutti gli altri gruppi in difesa dei cittadini secondo cui queste funzionalità non offrono un miglioramento ma una "diminuzione della privacy per tutti gli utenti di iCloud Foto" oltre a poter essere ‌‌utilizzabili dai governi autoritari per tracciare dissidenti, manifestanti o rifugiati.

Alla luce di tutte queste critiche, non è ancora noto come Apple intenda "migliorare" queste funzioni e quando abbia intenzione di implementarle. Sembrerebbe escluderne l'abbandono dato che la società di Cupertino le ritiene "di fondamentale importanza".


147

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...
soxxoz

Attaccavano la Sony per il nuovo dissipatore ps5 -> raffredda meglio
Attaccavano Epic perché doveva pagare le royalty ad Apple -> il giudice a dato ragione ad Epic
Ritenevano CSAM giusto e legittimo -> è stato sospeso

Gli utonti hdblog sono la creme de la creme

SteDS

Ma quale "stai cambiando versione", sempre detto le stesse cose, basta che ti vai a leggere i miei commenti di ieri antecedenti ai tuoi

Andre Sergio Da Rio

Solo qui nel blog i soliti lo ritenevano una buona idea...

sopaug_

ah ecco stai già cambiando versione allora. No, non lo sapevano tutti, da quello che approvi e hai scritto prima quello che ha scoperto adesso cos'è un hash temo sia tu. Ed è esattamente quello che si diceva al tuo amico qui sopra.

Il problema non è nel confronto tra hash (quindi non è in quello che avviene sul tuo telefono) ma nel fatto che non sai se la fonte dell'hash di confronto sia davvero legittima o no, e di conseguenza non lo sarebbe l'eventuale rilevamento di materiale non conforme.

Sic et simpliciter.

Aster

no,prova a rubare qualcosa al supermercato e non sei italiano.

Giangiacomo

Solo una parte è aperta.

E.C.

Si ma le foto sono sempre le tue però. Ora, che le guardi a casa mia o a casa tua dopo essertele copiate per me cambia poco. O no?

Ikaro

Il controllo avviene in locale ma SOLO al momento del upload, in pratica non cambia un cheZZO

SteDS

No hai solo ripetuto a pappagallo che "fa un hash", wow notiziona, ma lo sapevamo già tutti. A parte che ho come l'impressione tu abbia imparato la parolina "hash" giusto oggi e come ogni infante che si rispetti non puoi far altro che ripeterla in modo compulsivo, a parte questo, tu non sei in grado di capire le implicazioni che può avere un sistema del genere (di cui le modalità di analisi sono solo un tassello) una volta sdoganato.

jose manu

Cos'è un sistema csam

sopaug_

veramente io ho già spiegato perchè sbagli. Tu neanche sei in grado di capirlo perchè non sai cosa sia un hash. Vedi tu di chi è la magra figura...

SteDS

Quale brutta figura, la tua? Io vedo soltanto un bambino che piange e sbatte i piedi. Pensi che "tu sei imb3cille uee uee uee" sia una risposta nel merito? ma cresci picetto :D

GeneralZod

Se lavorano per segnalazioni di utenti ben vengano. Se avvengono su CDN, Cloud ecc. lato server ok.
Tra l'altro l'hosting di materiale di questo tipo avviene e va ostacolato.
Ma sul cellulare non mi risulta. Mi sbaglio?

sopaug_

ripeterlo senza replicare nel merito non ti fa sembrare più intelligente, nè cancella la brutta figura, che resterà nel web a imperitura memoria.

SteDS

Ripeto, sei il perfetto esempio di cosa sia un imb3cille

fabrynet

Lo sai che anche Google o Microsoft hanno i loro bravi sistemi CSAM vero?
E dal punto di vista privacy sono anche peggiori rispetto al sistema Apple.
Apple è arrivata solamente dopo.

GeneralZod

Il database di riferimento può cambiare. L'hash è un dato outbound verso un server, e anch'esso può cambiare. Tutti i sistemi hanno delle vulnerabilità.
E se anche così non fosse se il mio telefono fa cose che non mi garbano, smette di essere il mio telefono. Perché questa scansione a me non è funzionale e occupa risorse e banda senza il mio benestare.

sopaug_

il punto è esattamente quello invece, ribadisco, vai a studiare 1mbecille.

SteDS

Lo so benissimo, non è quello il punto. Imb3cille dillo pure a tuo padre, per il lavoro che che fatto con te

fabrynet

Il punto che voglio mettere in evidenza è un altro: il polverone che si è alzato con Apple non si è alzato con altri sistemi simili di altri produttori, anzi sono sicuro che molti neanche sapessero che Google e Microsoft già utilizzano da tempo sistemi CSAM.

sopaug_

ma non è una scansione, è un hashing lol quello che l'antivirus chiama scansione non è hashing... Non sai come funzionano le cose e pretendi di spiegarle a qualcun altro...

sopaug_

no, semplicemente anche tu stai ragliando senza sapere cosa sia un hash. Del resto eri l'1mbecille che metteva a lui +1, dove vuoi andare? Studia va'

comatrix

Innanzitutto non è che cambia se è Apple, Google o Microsoft, questa prassi è deleteria a prescinder, e non si parla della bontà del software.
Perché applicate sempre due persi e due misure ai concetti espressi a seconda se è il vostro marchio preferito?
Io mi chiedo cosa vi faccia propendere, in maniera prerogativa, per un'azienda o l'altra, per caso vi pagano? Perché se si ditelo che mi ci metto pure io..
Chi se ne frega che sia Apple, Google, Microsoft, Samsung, Huawei, Pinco Pallo, Tizio Caio e Sempronio, se una cosa non va bene, non va bene PUNTO!!!

Alexv

Permesso revocato. Hai anche un commento intelligente?

Ergi Cela

Più che altro potresti avere anche foto della tua ragazza nuda,non è che ti bannano se notano foto del genere o magari qualche porno salvato sul telefono

Felix

Con il tuo permesso chiunque può “perquisirti”.

Alexv

Per eseguire una perquisizione serve un mandato del giudice, anche se ti chiami Apple, Google, Microsoft, Facebook, ecc.

Dayman

Trasparenza =/= Privacy

fabrynet

Appunto e infatti questo sistema conferma ancora una volta l’attenzione maggiore per la privacy rispetto ai competitors.

Dayman

Non capisco davvero questa levata di scudi contro il sistema CSAM di Apple

Perchè Apple sbandiera Privacy :/

SteDS

Molto più plausibile sia tu a non capire, non è il metodo ma il fatto stesso di applicare un algoritmo. Dall'ultima frase, chiaramente, si capisce chi sta ragliando.

Crash Nebula

Apparte il fatto che gli aggiornamenti di iOS escono alle 19, se volete sfottere yepp almeno fatelo bene...

fabrynet

Microsoft e Google per fare due esempi adottano già un sistema CSAM simile:
Google: https://protectingchildren.google/
Microsoft: https://ui.adsabs.harvard.edu/abs/2020arXiv201002387P/abstract
ma nessuno si è mai lamentato o sollevato un polverone del genere.
Non capisco davvero questa levata di scudi contro il sistema CSAM di Apple che tra l’altro mi sembra quello più promettente, quello più sicuro e rispettoso della privacy.
Misteri del mondo dell’informatica.

Felix

I dati su i server, che sono di Apple… non i dati su iPhone, che è del proprietario.

Come ho scritto, non ha mai fornito accesso ai dati presenti su nessun iPhone.

Ecco perché avvenendo in locale tale sistema è rispettoso della privacy. O preferivi lo facesse il tutto su i suoi server come fanno Google, Microsoft e tutte le altre da oltre 10 anni?

biggggggggggggg

Assolutamente d'accordo.
Il punto è che se proprio uno fosse così sc3mo da continuare a usarlo, potrebbe farlo

biggggggggggggg

Guarda che è meglio se il controllo avviene in locale invece che in cloud rispetto alla questione sicurezza/privacy

sopaug_

niente, sei stup1do, ignorante o entrambe. Se puoi studia. Addio.

SteDS

In Cina sono arrivati a cedere TUTTI i dati degli utenti, trasferiti su server governativi. Una cosa che nemmeno Google (cioè... Google!) ha accettato, a costo di rimaner fuori dal mercato cinese.

fabrynet

Li riceveranno certo ma con update successivi.

Felix
Perché lo ha già fatto e a quanto pare alla maggior parte degli utenti frega proprio niente della privacy

Quando? I dati su iPhone sono solo del proprietario di tale iPhone. Non hanno mai concesso l'accesso, neanche in caso di richieste federali per motivi terroristici.

fabrynet

Pensavo anche molto meno, quindi direi che funzionano bene.
Bisognerà vedere se il sistema Apple funzionerà altrettanto bene dato che ha più paletti per la privacy.

yepp

Ma come fanno ad attivare l'upgrade opzionale ad iOS 15 senza un aggiornamento ad iOS 14? Infatti si era detto che gli utenti potevano decidere di rimanere su iOS 14, continuando a ricevere gli aggiornamenti di sicurezza.

Felix
ma i pedofili sapendo di questa funzione manterranno l'upload delle loro foto su iCloud?

E su i servizi Google o Microsoft, per fare due esempi, ci metterebbero le loro foto?

Qui il report di Google sulle segnalazione CSAM:
https://transparencyreport.google.com/child-sexual-abuse-material/reporting
Da gennaio a giugno 412141 segnalazioni e 129174 account Google chiusi.

Qui quello Microsoft:
https://www.microsoft.com/en-US/corporate-responsibility/digital-safety-content-report
Da luglio a dicembre 92419 segnalazioni e 17434 account Microsoft chiusi.

Quindi si, questi sistemi funzionano.

fabrynet

Mamma mia che fissazione, non arriverà iOS 14.8 mettiti l’anima in pace.

Lello

Come promesso ios 14.8
Ah no...

yepp
SteDS

Perché lo ha già fatto e a quanto pare alla maggior parte degli utenti frega proprio niente della privacy.. CSAM, voltagabbana clamoroso in Cina, le registrazioni non autorizzate di Siri, non cambia nulla, gli utenti non smettono di comprare e Apple lo sa bene, ha margine di manovra anche in barba ai suoi stessi proclami.

fabrynet

Serve soprattutto a proteggere i minori, in modo che non vengano a contatto con foto di pedofili già riconosciute e catalogate.

quindi Apple non salverà nessun bambino???

MA NON MI DIREEEEEEEE!!!

Felix

É una società quotata in borsa, già questo, e la prospettiva che possa perdere miliardi se facesse qualcosa di sbagliato, basta e avanza a darne la certezza.

Oltre al fatto che, come se non questo non bastasse, e come ho già detto, avviene tutto in locale, tutto è verificabile e tracciabile. In mezzo pomeriggio, per passare il tempo, un tizio, da solo, ha trovato in iOS 14.7 una versione primitiva e non ancora attiva dell’algoritmo di generazione degli hash e ne ha caricato su GitHub una copia convertita in Python. Se Apple fa qualcosa di diverso, qualcuno lo nota, e scatta l'allarme.

La fiducia non c'entra niente, questa è semplice logica, fatti.

Dichiara pubblicamente una cosa, la metter nei termini di servizio, e poi fa tutto il contrario, andando in contro a cause legali, crollo in borsa, miliardi di perdite, azzeramento di un'immagine creata in 45 anni… potrebbe farlo, ma perché? Dammi una motivazione logica del perché dovrebbe anche solo rischiare tutto questo. Non c'è motivazione logica che possa spingere Apple a fare qualcosa di diverso da quanto dichiarato, se non Cook che una mattina si sveglia con il desiderio di far fallirle tutta la baracca per un suo sadico appagamento.

La tua è solo una irrazionale paura dovuta alla ignoranza sul funzionamento del tutto.

Recensione Mac Mini M2 Pro: piccolo e potente, ma occhio ai prezzi | VIDEO

Macbook Pro M1 Max 15 mesi dopo: durata e consigli alla luce dei nuovi M2 | Video

100 Giorni con iPhone 14 Pro: cos'è cambiato? | Recensione

Recensione iPhone 14 Plus, autonomia da vendere