Saltar al contenido
Cosas Tecnológicas

¿Por qué el iOS 15 de Apple escanea las fotos y los mensajes del iPhone?

En su reciente vista previa de iOS 15, Apple promocionó con orgullo su buena voluntad para la privacidad del usuario, y recientemente introdujo una característica que parece ir en contra de su espíritu de privacidad primero: la capacidad de escanear fotos del iPhone y alertar a las autoridades si alguna de ellas contiene información. Materiales sobre abuso sexual infantil (MASI). Aunque luchar contra el abuso sexual infantil es objetivamente algo bueno, los expertos en privacidad no están entusiasmados con la forma en que Apple eligió hacerlo.

Si la empresa cumple sus promesas, la nueva “Protección ampliada de los niños” de Apple puede no ser tan mala como parece. Pero esto también nos recuerda una vez más que no somos propietarios de nuestros datos o equipos, ni siquiera de los datos o equipos que realmente poseemos. Puede comprar un iPhone por una fortuna, tomar una foto con él y guardarlo en su bolsillo. Entonces Apple puede simbólicamente meter la mano en ese bolsillo y ese iPhone para asegurarse de que sus fotos sean legales.

La semana pasada, Apple anunció que con las próximas actualizaciones de iOS 15 y macOS Monterey, se instalará una nueva tecnología para que CSAM escanee fotos en los dispositivos de los usuarios. Escanear imágenes para CSAM no es nada nuevo: Facebook y Google han estado escaneando imágenes cargadas en sus plataformas durante años, y Apple ha podido acceder a las fotos cargadas en las cuentas de iCloud. Escanee las fotos cargadas en iCloud para descubrir que CSAM es significativo y consistente con los competidores de Apple.

Pero Apple está haciendo algo diferente, algo que hace que la gente se sienta más agresiva, aunque Apple dice que sus intenciones son menos importantes. El escaneo de imágenes se realizará en el dispositivo mismo, no en el servidor donde cargó las fotos. Apple también dijo que usará una nueva herramienta en la aplicación Message para escanear fotos enviadas a o desde niños en busca de imágenes sexuales, y puede optar por decirles a los padres de niños menores de 12 años si han visto estas imágenes. Los padres pueden optar por utilizar estas funciones y todas las exploraciones se realizan en el dispositivo.

De hecho, la solicitud de una empresa para que el FBI establezca una puerta trasera para el teléfono de un sospechoso de terrorismo no es una, sino dos posiciones ampliamente publicitadas, lo que parece haber creado una puerta trasera. No está claro por qué Apple adoptará este enfoque en este momento, pero esto puede estar relacionado con leyes pendientes en el extranjero y posibles leyes en los Estados Unidos. Actualmente, si una empresa encuentra CSAM pero no lo informa a las autoridades, puede recibir una multa de hasta $ 300,000, aunque no es necesario que busque CSAM.

Después de oponerse enérgicamente después de anunciar inicialmente la nueva función, Apple lanzó una sección de preguntas frecuentes el domingo que aclaraba algunos detalles sobre cómo funciona la tecnología de escaneo en su dispositivo. Básicamente, Apple descargará una base de datos de imágenes CSAM conocidas del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) a todos sus dispositivos. CSAM se ha convertido en una cadena numérica, por lo que la imagen no se descargará en su dispositivo. La tecnología de Apple escanea las fotos en su biblioteca de fotos de iCloud y las compara con la base de datos. Si encuentra un cierto número de coincidencias (Apple no especificó cuál es ese número), se revisará manualmente y luego se informará al NCMEC, que lo obtendrá de allí. No analiza fotos como la herramienta Mensajes en busca de letreros que puedan contener CSAM; solo busca coincidencias con CSAM conocidos.

Además, Apple declaró que solo se escanearán las fotos que elija cargar en iCloud Photos. Si desactiva Fotos de iCloud, sus imágenes no se escanearán. Ya en 2018, CNBC informó que había aproximadamente 850 millones de usuarios de iCloud, de los cuales 170 millones pagaron por capacidad de almacenamiento adicional (Apple proporciona 5 GB de almacenamiento en la nube de forma gratuita para todos los usuarios de iPhone). Muchas personas pueden verse afectadas aquí.

Apple declaró que este método tiene “ventajas de privacidad significativas” en comparación con simplemente escanear fotos después de cargarlas en iCloud. A menos que haya una coincidencia, nada saldrá del dispositivo ni será visto por Apple. Apple también insiste en que solo usará la base de datos CSAM y rechaza cualquier solicitud del gobierno para agregarle cualquier otro tipo de contenido.

Pero los defensores de la privacidad creen que las nuevas funciones abrirán la puerta al abuso. Ahora que Apple ha determinado que puede hacer esto con algunas imágenes, es casi seguro que se le pedirá que lo haga con otras imágenes. Es fácil para la Electronic Frontier Foundation ver el futuro. El gobierno presionará a Apple para que escanee el contenido de los dispositivos de los usuarios para encontrar contenido prohibido por su país, incluida la biblioteca de fotos de iCloud en el dispositivo y el contenido de los mensajes de usuario.

“Esa no es una pendiente resbaladiza; es un sistema completamente construido, esperando el más mínimo cambio en la presión externa”, dijo EFF. “En el análisis final, incluso una puerta trasera estrecha, completamente documentada y bien pensada sigue siendo una puerta trasera”.

En una declaración a Recode, el Centro para la Democracia y la Tecnología declaró que las nuevas herramientas de Apple son profundamente preocupantes y han experimentado un cambio sorprendente con respecto a la postura de privacidad anterior de la compañía. Espera que Apple reconsidere esta decisión.

CDT declaró: “Apple ya no proporcionará mensajes cifrados de extremo a extremo a través de iMessage y destruirá la privacidad proporcionada anteriormente para el almacenamiento de fotos de usuarios de iPhone”.

Will Cathcart, jefe del servicio de mensajería cifrada de Facebook, WhatsApp, criticó las nuevas medidas de Apple en una publicación de Twitter:

(Desde que Apple introdujo la función anti-rastreo en su sistema operativo móvil, Facebook y Apple han estado en desacuerdo. Apple lo define como la protección de la privacidad del usuario de las empresas que rastrean sus actividades en las aplicaciones (especialmente Facebook). Así que imagina que un ejecutivo de Facebook está feliz de tener la oportunidad de sopesar los problemas de privacidad de Apple).

Edward Snowden expresó sus pensamientos en forma de memes:

Algunos expertos creen que las acciones de Apple pueden ser buenas, o al menos, no tan malas como parece. El bloguero de tecnología John Gruber quiere saber si esto le dará a Apple una forma de encriptar completamente las copias de seguridad de iCloud de la vigilancia gubernamental, al tiempo que dice que está monitoreando el contenido CSAM de sus usuarios.

“Si estas funciones funcionan como se describe y si solo Como se describe, casi no hay razón para preocuparse “, escribió Gruber, reconociendo que” los expertos confiables todavía tienen preocupaciones completas y razonables sobre cómo estas funciones serán abusadas o mal utilizadas en el futuro. “

Ben Thompson de Stratechery señala que esta puede ser la forma de Apple de adelantarse a las posibles leyes europeas que exigen que los proveedores de servicios de Internet encuentren CSAM en sus plataformas. En los Estados Unidos, los legisladores estadounidenses intentaron aprobar su propia legislación que supuestamente requería que los servicios de Internet monitorearan sus plataformas para CSAM, o perderían la protección de la Sección 230. No es inimaginable que vuelvan a introducir el proyecto de ley o algo similar en este Congreso.

O tal vez la motivación de Apple sea más simple. Hace dos años, The New York Times criticó a Apple y a varias otras compañías de tecnología porque no hicieron todo lo posible para escanear sus servicios en busca de CSAM e implementaron cifrado y otras medidas, que hicieron imposible dicho escaneo, y CSAM es más difícil de detectar. Según The Times, Internet ha sido “abrumado” por CSAM.

Se puede acusar a Apple de proteger los datos de terroristas muertos, pero puede verse como un puente demasiado para el abuso sexual infantil.