Apple es una empresa que venía haciendo mucho hincapié en la privacidad de sus usuarios, hasta lo utiliza habitualmente en la competencia por el mercado móvil contra Google. Pero la última novedad tira a la basura todo.
La cosa es fácil de explicar, ellos deciden que es buena idea explorar las fotos en tu iCloud y donde un algoritmo detecta algo “sospechoso” de ser pornografía infantil, envían tus datos y material a la justicia.
Suena lindo no? Así seguro se encuentra fácilmente a pedófilos y ya no pueden usar sus teléfonos para esconder su turbio material ¿No?
Pues no tan rápido, posiblemente alguno caerá, pero no son estos criminales los que encendieron las alarmas de prácticamente toda organización pro-derechos y libertades sino… todos los demás que van a terminar espiados.
Para que se entienda la intromisión de privacidad podemos fácilmente considerar los falsos positivos: una foto familiar de tus hijos desnudos mientras los bañabas. Una postal típica de toda familia. Para cualquier algoritmo es imposible de identificar si eso es o no pornografía. Hay piel? Sí. Hay niños desnudos? Definitivamente! Si ese es el criterio entonces todo progenitor es un pornógrafo en potencia.
Esta idea de “Expanded Protections for Children” que promueve Apple tiene todos los vicios de la persecución estatal que vemos en toda dictadura. “Si no hiciste nada malo no tenés de qué preocuparte” dicen pero los falsos positivos (que suelen ser muchos más que los reales positivos) podrían enviarte a prisión sin demostrar siquiera culpabilidad.
Un algoritmo decidió denunciarte y alertar a las autoridades que suelen creer ciegamente en mágicas soluciones tecnológicas en vez de demostrar efectivamente un crimen.
Pero ese ni siquiera es el peor de los problemas. Apple es una empresa que ha cedido ante los requerimientos de prácticamente toda dictadura del planeta. China, Arabia Saudí, y varias más. Sólo con la posibilidad de perder potencialmente un mercado suelen ceder para mantenerlo.
Si un algoritmo aprovecha el procesador avanzado de un iPhone para analizar todo contenido en busca de pornografía ¿Cúanto hay que modificarlo para buscar disidentes? Sean memes o simples fotografías burlonas de algún lider autoritario, el algoritmo fácilmente podría detectar opositores o disidentes y entregarlos a su muerte.
Cuando uno, en pos de una supuesta buena causa, abre la caja de Pandora ¿Cómo la cierra? La palabra de Apple vale absolutamente nada porque su comportamiento hacia las dictaduras ha sido totalmente blando, les ha permitido todo con tal de no perder dinero.
El detector de “child sexual abuse material” (CSAM) de Apple deja ver otro problema mucho mayor que es la intromisión de una empresa hacia sus clientes, demostrando que uno ya no es dueño de ningún dispositivo sino que lo alquila y ellos deciden por uno.
La estrategia ha funcionado, primero los jardines vallados, luego la nube propia, luego el control total del dispositivo.
Ahora bien ¿Y los pornógrafos? Este tipo de individuos podrá optar por otros teléfonos (ej: Android) y no subir nada a ninguna nube en EEUU (con iCloud desactivado ya, supuestamente, no funciona), listo, tema resuelto para ellos que ahora tienen el aviso, podrán encontrar opciones y utilizar otras nubes y otros equipos para hacer lo suyo. Nada va a cambiar para ellos.
Lo que sí va a suceder es que se va a naturalizar el espionaje y la violación sistemática de la privacidad de todo el resto de la gente que no tiene nada que ver con pornografía infantil y, no lo dudo, acusarán a inocentes porque un algoritmo “mágico” decidió que sus fotos personales eran un delito.
Apple publicó hoy un FAQ con suficientes estupideces dignas de alguien que está tratando de justificar un error al estilo de un político. Lo más divertido es la negativa a que este sistema no podría ser usado políticamente porque “así está diseñado”.
Es casi una burla a todo profesional de sistemas que sabe perfectamente que es fácil entrenar un algoritmo de machine learning para prácticamente cualquier cosa, el método es el mismo, pero lo más patético es el último item del FAQ:
Will CSAM detection in iCloud Photos falsely flag innocent people to law enforcement?
No. The system is designed to be very accurate, and the likelihood that the system would incorrectly flag any given account is less than one in one trillion per year. In addition, any time an account is flagged by the system, Apple conducts human review before making a report to NCMEC. As a result, system errors or attacks will not result in innocent people being reported to
NCMEC
Nada más falsa que esta afirmación, es imposible afirmar eso, la probabilidad, para poder dar un número, deberían expresarla con un informe completo presentando números que llevaron a ese uno en un trillón de años que es menos creíble que todo.
Pero después aclara que habrá revisión humana ¿Por parte de quién? ¿Quién es el individuo y qué derechos avalan que espíe las fotos privadas de alguien? ¿Quién los supervisa a ellos?
Apple hasta ha acusado a los críticos burdamente en un memo interno, es decir, están firmes en que ellos son perfectos y sin posibilidad de error en esto ?♂️ y que los críticos son llorones.
Señores, un paso más al 1984 de Orwell por parte de la compañía que se vendía como lo opuesto a eso mismo. No olvidar.
Pueden leer más sobre las implicancias de esto en la carta abierta que muchos han firmado para que Apple deje de hacer esto.
Un delirio. Lo primero que me vino a la cabeza fueron los cumpleaños de mis sobrinos con sus padres hippies y sus amigos hippies llenos de niños semidesnudos corriendo y gritando por el jardín (te encantaría) y mi cuñada sacando fotos para enviarlas a la abuela de los nenes. ¡Todos presos!
Todos se quejan, pero despues (en USA) salen todos corriendo a gastar 1000 verdes en el nuevo iPhone, incluso entregan su dignidad haciendo fila toda la noche para ser el primero para entrar al AppleStore.
La gente tiene que empezar a opinar con la billetera. Si te quejas y despues igualmente seguis comprando, es lo mismo que nada.