Apple decide di prendersi più tempo per lo sviluppo della funzione CSAM

03 Settembre 2021 82

Apple ha deciso di prendersi più tempo per implementare le nuove funzionalità di sicurezza, annunciate a inizio agosto, volte a combattere la diffusione di materiale pedopornografico online (Child Sexual Abuse Material, CSAM). Con una nota inviata alla stampa, la società di Cupertino ha affermato che c'è bisogno ancora di tempo per poter perfezionare queste funzionalità prima del lancio al pubblico.

Con questa decisione, Apple ha voluto anche dare ascolto alle crescenti preoccupazioni relative alla privacy avanzate non solo dagli utenti, ma anche da ricercatori di sicurezza e vari gruppi per la difesa dei diritti civili che nelle scorse settimane hanno inviato una lettera ad Apple esortandola ad abbandonare i suoi piani. Alcuni firmatari in particolare hanno espresso timori per l'impatto di questi strumenti in Paesi con diversi sistemi legali, inclusi alcuni che fanno già da sfondo ad accesi dibattiti in materia di crittografia e privacy.

Apple, dal canto suo, ha comunque sempre difeso queste funzionalità sottolineandone il massimo rispetto per la privacy rispetto alle tecnologie utilizzata da altre società, come Google e Facebook.

Questo il testo della nota stampa diffusa da Apple:

“Il mese scorso abbiamo annunciato i piani per l'implementazione di funzionalità volte a limitare la diffusione di materiale pedopornografico e a proteggere i bambini da coloro che utilizzano strumenti di comunicazione per contattarli e sfruttarli. Sulla base del feedback ricevuto da utenti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare dei miglioramenti prima di rilasciare queste funzionalità per la sicurezza dei bambini che riteniamo di fondamentale importanza".

Il metodo CSAM, ha affermato Apple, è stato sviluppato tenendo presente in primis la privacy dell'utente

Secondo i piani, Apple avrebbe dovuto lanciare queste nuove funzionalità CSAM entro la fine dell'anno, come parte di iOS 15, iPadOS 15, watchOS 8 e macOS Monterey. Al momento, non ci sono informazioni sul possibile periodo in cui la società prevede di implementarle. La dichiarazione, inoltre, non fornisce alcun dettaglio su quali modifiche potrebbero essere apportate per migliorare il sistema.

Il metodo di rilevamento CSAM, ha affermato Apple, è stato sviluppato tenendo presente in primis la privacy dell'utente. Invece di scansionare le immagini nel cloud, il sistema rileva la corrispondenza sul dispositivo utilizzando un database di hash di immagini CSAM fornito da NCMEC e altre organizzazioni per la sicurezza dei bambini. Apple trasforma ulteriormente questo database in un insieme illeggibile di hash che viene archiviato in modo sicuro sui dispositivi degli utenti.

Prima che un'immagine venga caricata su iCloud, il sistema esegue un processo di corrispondenza con questi hash, esclusivamente sul dispositivo. Per effettuare questo processo viene utilizzata una tecnologia crittografica che determina se esiste o meno una corrispondenza, senza rivelare il risultato. Di conseguenza, il dispositivo crea un voucher crittografato con il risultato che viene caricato su iCloud insieme all'immagine.

Oltre a questa funzione, Apple ne ha anche sviluppata una per le comunicazioni in Messaggi oltre a delle guide informative in tema di sicurezza tramite Siri e Cerca.


82

Commenti

Regolamento Commentando dichiaro di aver letto il regolamento e di essere a conoscenza delle informazioni e norme che regolano le discussioni sul sito. Clicca per info.
Caricamento in corso. Per commentare attendere...

https://uploads.disquscdn.c...

AnalyticalFilm

Corelli che ha attraversato una causa legale con Apple proprio perché faceva quello che dici te.

Poco onesto da parte di Apple.

sopaug_

talmente gestita male che conoscendo apple vien da pensare che lo abbiano fatto apposta per "bruciare" sta fesseria imposta da qualche agenzia.

Perdonami, ma questo è ancora più idiota.

Miserabile

Che teste di Fedez

Permettimi di chiarire la mia posizione riguardo al linguaggio che uso.
Potrei insultare chiunque in un modo così educato e brillante, che sembrerebbe un bel complimento.
:)

Cave Johnson
AnalyticalFilm

Eh se non usi questi toni non prendi trazione qua :(

:P

"infatti Apple è stata in qualche modo costretta a mettere su un sistema del genere sotto pressione del governo americano"

LINKA LE FONTI INVECE DI CERCARE DI CANCELLARMI.

Felix
Quello di cui parli è lontanissimo dall'analisi vera

Vallo a dire agli ingegneri di Google Zero Project, che di lavoro non fanno “analisi vere”, o a Corellium che ha dichiarato che lo analizzare e testerà (azienda tra l’altro in causa da anni con Apple, proprio per avere creato un emulatore del non open-source iOS tramite questa “analisi non vera”).

Ripeto, anche senza sorgenti, avvenendo tutto in locale, è tutto perfettamente tracciabile e ricreabile dai vari esperti di sicurezza che giornalmente analizzano iOS per lavoro, possono, e l’hanno già fatto, in un pomeriggio, lo rifaranno quando attiveranno la versione definitiva e completa su iOS 15. Cosa assolutamente non fattibile se avvenisse su un server, come fanno da anni le altre aziende.

AnalyticalFilm

Il tuo pensiero è troppo moderato e di buon senso per la discussione.

Mi permetti di aiutarti? Tu sei una testa di ca**o che non capisce nulla e devi stare zitto, hai capito? Zitto!

Ecco, ora qualcuno dovrebbe rispondere.

fabrynet

Il sistema serve principalmente a proteggere i minori nell’eventualità vengano a contatto con alcune immagini perdopornografiche già in possesso della polizia e delle associazioni per la protezione dei minori.

ma lo speri perchè così i delinquenti dovranno disabilitare la sincronizzazione (condizione sufficiente per evitare di essere spiati)?

LOL!

"Infatti Apple è stata in qualche modo costretta a mettere su un sistema del genere sotto pressione del governo americano."

link pure le fonti ufficiali, caro ca**aro

Il discorso del marketing non l'ho sinceramente capito, sul resto sono d'accordo.
Tra l'altro mi chiedo: ma chi è il pazzo che abusa dei bambini sessualmente, riprende ciò che fa e lo condivide bellamente su piattaforme controllate o addirittura lo mette sul cloud?

Andhaka

Ma basta anche una foto, magari di mia figlia piccola che faceva il bagnetto, che analizzata male mi mette nei guai... ma follia allo stato puro.

Oltre al concetto in sè che si riassume in "ti perquisisco preventivamente perchè non si sa mai"... anche no grazie.

Cheers

Cave Johnson

Ok, così è più chiaro. La foto viene analizzata sotto diversi aspetti per evitare che piccole modifiche possano fregare l'algoritmo.

Cave Johnson

Quello di cui parli è lontanissima dall'analisi vera, una peer review, che un ricercatore può fare avendo i sorgenti. Al più parliamo di reverse engineering. Senza sorgenti, solo Apple sa di preciso come funziona il tutto.

Pistacchio
MK50

O.T. (scrivo qui perchè mi aspetto che questo articolo venga commentato da tante persone): Se io scarico da Prime Video un film in locale, poi potrò sempre usufruirne, anche se in futuro quel film venisse messo a pagamento/noleggio?

salvatore esposito

e una fuga con coda tra le gambe per Apple.
a quanto pare tutti contenti a parte Tim che ha fatto una bella figura di m...da e qualche melaro (non voglio fare il nome di fabrynet) che sono tristi di non potersi piegare ancora di più (e di spalle) al loro amato Cook

Ramiel

non c’è la può fare
è il nuovo guccia
lascia perdere

Felix

È una analisi matematica, non una analisi visiva del contenuto… non vede ad esempio che in una foto c’è una pizza, ciò che “vede”, per dirla in maniera molto molto molto semplice, è solo un insieme di pixel, linee, forme geometriche, distanze tra di esse, proporzioni ecc, poi da questi dati matematici, indipendentemente dal contenuto, genera un hash che verrà confrontano con il database di hash.

Felix

Non serve che sia open source.

Se i ricercatori hanno in mano una copia di iOS, chi i sorgenti siano pubblici oppure no, sono in grado di analizzarlo.

Basta vedere che in mezzo pomeriggio, per passare il tempo, un tizio, da solo, ha trovato in iOS 14.7 una versione primitiva e non ancora attiva dell’algoritmo di generazione degli hash e ne ha caricato su GitHub una copia convertita in Python, o tutte le falle di sicurezza che i vari ricercatori (ad esempio quelli di Google, tramite Zero Project) trovano in iOS e segnalano ad Apple, o ancora il fatto, come ho già scritto, che alcune aziende hanno affermato che testeranno questa funzionalità quando disponibile.

Fiore97

livello figurda di Fede : Z U K K e le policy di what's app

tu si che hai una vita piena :D:D

fabrynet

Infatti Apple è stata in qualche modo costretta a mettere su un sistema del genere sotto pressione del governo americano.
A differenza degli altri però l’ha fatto rispettando come sempre sicurezza e privacy.

fabrynet

Spero possa arrivare presto in Europa e in Italia secondo le nostre leggi.

tulipanonero1990

Diciamo che a livello di comunicazione, indipendentemente dalla realtà, hanno seriamente compromesso anni di lavoro e marketing sulla privacy dei propri utenti. Gestita veramente malissimo questa cosa. Poi parlare di queste tematiche, bah quale pazzo del marketing vorrebbe mai che un cliente associasse il proprio brand alla cosa più abietta del mondo, sia pure in forma di negazione? Io mai vorrei venisse in mente alcun legame. Mi convinsero a passare a iOS per il discorso privacy visto che l'alternativa era un SO realizzato interamente da Google, uno spyware in pratica, ora mi stanno facendo tentennare molto. Posso capire le intenzione ma non tutte le battaglie vanno combattute.

Cave Johnson
Inoltre la foto non viene analizzata, il contenuto della foto è irrilevante al fine del suo funzionamento.

Spiega meglio cosa intendi, perché la generazione del neural hash dipende proprio dall'analisi della foto e non del file (come invece avviene coi normali algoritmi di hashing).

Cave Johnson
i ricercatori di sicurezza potranno analizzare cosa avviene su iPhone


Quindi hanno annunciato che il sistema sarà completamente open source?

niente, fai finta di non capire.
Torna pure qui quando sarà attivo in Italia.

fabrynet

Appunto l'hash, non la foto.

esattamente il mio pensiero, compro un dispositivo che è progettato per controllarmi e DENUNCIARMI???
ma lol!

Ansem The Seeker Of Lossless

Ma io utente normale, che non ho nulla di illegale nel telefono, non comprerei mai un device che potenzialmente mi denuncia alla polizia.
Mettiamo che un domani scarico un qualcosa di potenzialmente illegale come un anime fansubbato. Che fa? Mi denuncia? Ma scherziamo?!

Da analisi tecnica, gli basta disabilitare la sincronizzazione per evitare l'analisi.

Poi ovvio che nel dubbio non lo usa proprio.

Ansem The Seeker Of Lossless

Te la faccio molto semplice: nel caso questa cosa passasse davvero chi ha immagine incriminate brucia l'iphone e compra android.

Ansem The Seeker Of Lossless

Peccato che le due cose siano diametralmente opposte:
- Una serve ad impedire la raccolta di dati
- L'altra serve a raccogliere dati partendo dal presupporto che siamo tutti potenziali pedofili (presente il bollo siae?).

Tra l'altro è di una inutitilità mostruosa questa cosa. Chi davvero è un pedofile semplicemente venderebbe l'iphone. Tanto vale provare a mangiare il brodo con la forchetta.

Roy Rogers
ghost

È la faccia che ha fatto quando gli hanno detto che le persone non sono tutte come i clienti apple che accettano cecamente ogni decisione della mela

Andhaka

https://uploads.disquscdn.c...

Dai, così è troppo facile.

Cheers

è per questo che hanno detto che in ogni paese dovranno introdurlo dopo attenta analisi

mi sono visto l'analisi tecnica di un'ora e mezza.
Hai capito che l'HASH viene calcolato DAL E SUL DEVICE*?
Se l'hai capito: è chiaro che viola il mio domicilio informatico.
Se no, VAI A STUDIARE la differenza tra client e server

Pistacchio
Andhaka

E grazie al cielo, direi io.

Ma non sono nemmeno convinto fosse tanto legale negli USA... terreno fumoso forse, ma...

Cheers

Pistacchio

mi immagino lo spruzzo mentre faceva invio: "anche oggi ho fatto il dovere di paladino difensore di un multinazionale! AHHHHHH"

fabrynet

Vatti a studiare come funziona il sistema e poi ne riparliamo.

Andhaka

https://uploads.disquscdn.c...

Cheers

iPhone 14, iPad e Mac ma non solo: il ricco 2022 di Apple secondo Bloomberg

Recensione Apple MacBook Pro 14 con M1 Pro, che goduria!

Ho trasformato la casa in palestra: la mia recensione di Apple Fitness+

Nuovi MacBook Pro con M1 Pro e Max, perchè comprarli e perchè no