¿Apple acaba de dar un paso importante para limitar la propagación de pornografía infantil, al tiempo que agrega protecciones adicionales para los niños que usan sus dispositivos? ¿O abrió la puerta para una creciente vigilancia en el iPhone?
La noticia de que el gigante de tecnología agregaría nuevas capas de protección a sus dispositivos estadunidenses en interés de la seguridad infantil generó algunas respuestas predecibles. Los líderes políticos acogieron con beneplácito la postura más intervencionista, mientras que los defensores de la privacidad advirtieron que Apple sentaba un precedente que podría utilizarse para vigilar otras formas de contenido en línea.
Lo mismo ocurre con las batallas técnicas que a menudo ayudan a dar forma a las percepciones de los dispositivos y servicios digitales más populares de la época. En realidad, pocas personas cuestionarían la conveniencia de incorporar más protecciones en algunas de las tecnologías de mercado masivo de la actualidad. La pregunta es cómo hacer esto mejor con el menor impacto sobre la privacidad y las libertades de los usuarios, y si deberían ser los gobiernos o las poderosas compañías de tecnología quienes tomen las decisiones.
Hasta ahora, Apple corrió el riesgo de parecer ineficaz para proteger a los usuarios de su sistema iMessage del contenido perjudicial. A diferencia de Facebook, no tiene un ejército de moderadores que ayuden a limitar el peor material, y no hay un mecanismo para que los usuarios presenten una queja.
Pero, ¿cuál es la mejor manera de hacerlo sin sacrificar principios importantes? En los últimos años, Apple ha rechazado las solicitudes del gobierno de EU para ayudar a ingresar en los iPhones de personas sospechosas de ser terroristas y denunciaron enérgicamente la idea de construir “puertas traseras” en sus dispositivos, pues los haría menos seguros. Al igual que otras compañías de tecnología, también son firmes defensores de la “encriptación de extremo a extremo”, el principio de que las comunicaciones digitales deberían ser indescifrables para las miradas indiscretas.
Las acciones de la compañía muestran que estos dos conceptos de alguna manera son maleables. Una de las nuevas políticas de Apple implica cotejar imágenes en todos los iPhones de EU que se respaldan en iCloud con una base de datos oficial de pornografía infantil. Si se encuentran una determinada cantidad de coincidencias, Apple va a deshabilitar la cuenta del usuario y notificará a una agencia que se ocupa de la explotación infantil.
Esto se acerca peligrosamente a construir una puerta trasera en el iPhone. La nueva herramienta que Apple construyó podría aplicarse fácilmente a otras imágenes que un gobierno en particular declare como algo ilegal, aunque Apple insiste en que resistirá cualquier presión del gobierno para hacer esto.
El otro movimiento afecta a los mensajes. Los padres podrán activar una función que monitorea los mensajes de los niños en búsqueda de imágenes que contengan desnudos. Las imágenes ofensivas se van a difuminar y, si el niño tiene menos de 13 años, los padres también pueden solicitar que se les notifique.
Él Dice..."La herramienta que Apple construyó podría aplicarse fácilmente a otras imágenes que un gobierno en particular declare como algo ilegal."
Esto parece desmentir la encriptación de extremo a extremo en los mensajes. Si una compañía de tecnología puede mirar por encima del hombro de un usuario antes o después de cifrar un mensaje, surge una pregunta sobre qué otras incursiones podrían realizarse en los mensajes privados en el futuro.
Entonces, ¿significa esto que los últimos movimientos de Apple, aunque sean bien intencionados, marcan un paso atrás? No necesariamente.
El impacto práctico de cambios como estos depende de cómo se implementen. No ocurren en el vacío: a menudo provocan cambios en el comportamiento de los usuarios que pueden mitigar algunos de sus efectos más negativos. Y al actuar primero, es probable que Apple haya logrado reducir la posibilidad de que los gobiernos obliguen a la compañía a tomar medidas más draconianas más adelante.
También es importante ubicar estos cambios en un contexto más amplio. Si Apple continúa agregando nuevas protecciones de privacidad para los usuarios, incluso si algunas de sus políticas tienen el efecto contrario, el resultado general aún podría ser un neto positivo.
Sin embargo, las circunstancias del cambio de política de Apple dejan mucho que desear. Al presentar los cambios como hechos consumados, interrumpió el debate sobre su impacto potencial. Y si su enfoque ahora se convierte en un modelo para otras empresas de tecnología, es posible que las ideas rivales para proteger a los niños en las que otros han estado trabajando nunca vean la luz del día.
Al actuar solo también corre el riesgo de provocar rivalidades comerciales. No fue una sorpresa la semana antepasada cuando la medida de Apple generó críticas de WhatsApp, la aplicación de mensajes propiedad de Facebook, que se ha visto envuelta en una feroz disputa sobre los nuevos límites en los datos personales que puede recopilar de los usuarios de iPhone.
Un frente unido de la industria para combatir la pornografía infantil y proteger a los niños en línea habría infundido una mayor confianza. Para bien o para mal, Apple lo hizo, y los usuarios de sus dispositivos en todo el mundo tendrán que esperar que los agoreros de la privacidad se hayan equivocado.
srgs