Gli iPhone scansioneranno tutte le foto alla ricerca di pedopornografia Commenti all'articolo (ultimi 5 di 16)

Volta: 22/Jan Di: kenglenn 359 Visualizzazioni

Il prossimo aggiornamento dei sistemi operativi di Apple - iOS 15, iPadOS15, watchOS 8 e macOS Monterey - porterà con sé una nuova caratteristica che già sta sollevando un vespaio.

Si chiama CSAM (Child Sexual Abuse Material) ed è nata con uno scopo sacrosanto: combattere la diffusione di materiale che ritrae abusi sessuali condotti su minori.

È il metodo che sta sollevando varie proteste. Csam, infatti, analizzerà ogni immagine caricata su iCloud Photos (dove per impostazione predefinita avviene in automatico il backup dei contenuti presenti sui dispositivi a marchio Apple), creerà un hash a partire da essa e lo confronterà con gli hash presenti in un database in cui è raccolto tutto il materiale pedopornografico conosciuto.

Se incontrerà un certo numero di corrispondenze segnalerà la cosa a Apple, che provvederà a una «revisione manuale» non del materiale originale ma dei metadati associati e dell'esito dell'analisi da parte di Csam.

Da DuckDuckGo un browser dedicato a proteggere la privacyiPad mini, il jelly scrolling è del tutto normaleAllora, i messaggi di WhatsApp sono cifrati e privati o no?WhatsApp, i messaggi crittografati non sono poi così privati

Quindi, se i controlli rileveranno che si tratta in effetti di materiale pedopornografico, l'account dell'utente sarà disabilitato e una segnalazione verrà inviata alle associazioni che si occupano di contrastare gli abusi sui minori (il NCMEC, nel caso degli Stati Uniti). L'utente avrà comunque il diritto di ricorrere contro la decisione.

Non è tutto qui: anche l'app Messaggi cambierà. «Messaggi utilizzerà sistemi di machine learning installati sul dispositivo per analizzare le immagini allegate e determinare se una foto sia sessualmente esplicita». In caso di riscontro positivo, «la foto verrà sfocata e il minore sarà avvisato; gli saranno fornite inoltre delle risorse che potranno essergli d'aiuto, e gli sarà confermato che andrà bene se non vorrà vedere quella fotografia».

False dicotomie, reloadedZitto zitto, il Parlamento Europeo vara la sorveglianza di massa di tutte le ema...Revenge porn: sanno che è un reato, ma non tutte denuncerebberoL'app che “spoglia” le donne: garante privacy apre istruttoria

Gli iPhone scansioneranno tutte le foto alla ricerca di pedopornografia Commenti all'articolo (ultimi 5 di 16)

Un sistema simile preverrà l'invio di foto a luci rosse da parte dei minori e anche i genitori riceveranno un avviso se un minore riceve o invia foto considerate esplicite.

Le preoccupazioni di quanti stanno facendo sentire la loro voce affinché Apple ci ripensi ed elimini Csam dovrebbero a questo punto essere evidenti: nonostante tutti ammettano che il fine sia nobile, il fatto che un'azienda privata decida di violare sistematicamente la privacy dei propri utenti è evidente.

Da più parti giunge poi l'accusa, rivolte all'azienda della Mela, di aver sostanzialmente creato un sistema di sorveglianza a proprio uso e consumo (e, in teoria, utilizzabile per qualunque altro fine in aggiunta a quello dichiarato).

Se il pornoricatto lo fa un avvocatoIl ransomware per Android che si spaccia per un'app pornograficaL'app che spoglia nude le donne in pochi secondiUna legge inutile contro la diffusione abusiva di pornografia

«Non sbagliamoci» ha affermato la Electronic Frontier Foundation. «Si tratta di una riduzione della riservatezza per tutti gli utenti di iCloud Photo, non di un miglioramento» in quanto «tutte le foto caricate su iCloud verranno vagliate».

Non si può nemmeno sottovalutare il problema dei falsi positivi: sebbene Apple garantisca che tale possibilità è appena di «una su un bilione», è ben nota la tendenza dei sistemi automatici a considerare illecito anche ciò che non lo è.

Tra i critici della decisione di Apple c'è anche Edward Snowden, l'ex tecnico della CIA che ha rivelato tanti documenti segreti del governo americano (e non solo), il quale su Twitter ha commentato anche la risposta ufficiosa (viene da un memo interno) di Apple alle critiche, considerate con sufficienza «gli strilli di una minoranza».

Google, un'intelligenza artificiale cancellerà la pedopornografia da In...Come usare Facebook senza commettere reati o incorrere in rischi legaliSpiava le persone attraverso le webcam dei Mac: bloccato e incriminatoManderesti le tue foto osé a Facebook per prevenire il revenge porn?

«Incredibile» scrive Snowden. «Apple sta facendo circolare una lettera di propaganda che descrive l'opposizione dell'intera Internet alla loro decisione di iniziare a confrontare i file privati su ogni iPhone con una blacklist governativa "gli strili di una minoranza". È diventato uno scandalo».

Le varie voci che contestano Csam hanno prodotto anche una lettera indirizzata ad Apple, pubblicata online e che si può firmare via GitHub, con la quale si chiede non soltanto di fermare l'implementazione di quella tecnologia nelle prossime versioni dei sistemi operativi ma anche che Apple pubblicamente confermi il proprio impegno nel garantire la crittografia end-to-end dei contenuti, e la privacy degli utenti.

Apple al momento non ha ufficialmente riconosciuto la protesta e, pertanto, non ha rilasciato alcun commento pubblico; considerato però il tenore della lettera interna, è difficile che prenda sul serio in considerazione la possibilità di tornare sui propri passi.

In cella da 18 mesi perché non vuole rivelare una passwordSesso e porno sul MegaUpload dell'FBISexting e minori, facile finire nei guaiLo spione spiato: Hacking Team si fa fregare 400 giga di dati