-
Según Apple, esta herramienta no compromete en lo absoluto la privacidad de los usuarios.
-
La herramienta estará ligada a iCloud Photos, Messages y búsquedas en Siri.
Apple ha comunicado que implementará dentro de sus dispositivos una nueva función que permitirá luchar contra la pornografía infantil. Esto a través de la implementación de una herramienta de escaneo en aplicaciones como iCloud Photos, Messages y Siri.
El anuncio fue realizado el pasado 5 julio desde el sitio oficial de Apple, bajo el título «Child Safety» (Seguridad infantil). Según expresa el comunicado, el objetivo de esta herramienta es «ayudar a crear un lugar seguro» para los niños que utilicen dispositivos Apple.
La herramienta será implementada en todas las versiones del sistema operativo de Apple y está próxima a lanzarse (sin fecha definitiva). Se incluirá en las versiones de iOS 15, iPadOS 15, watchOS 8 y macOS Monterrey.
Child Safety también será incorporada a 3 aplicaciones específicas: Messages, Siri y iCloud Photos, siendo esta última la integración más controversial porque en ella se trabajará a través de una base de datos gubernamental de Estados Unidos.
Apple no verá las fotos de iCloud Photos pero sí compartirá datos con el gobierno
Según asegura el comunicado, Apple no verá las fotos de los usuarios. Esto debido a que la búsqueda de imágenes se realizará mediante identificadores criptográficos (hashes).
Sin embargo, para generar un identificador, el cual verificará si una foto puede estar ligada a un abuso infantil, se comparará con una base de datos gubernamental del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC por sus siglas en ingles).
La base de datos del NCMEC será la encargada de adiestrar al equipo de Inteligencia Artificial de Apple sobre cómo identificar una imagen que se corresponda con un abuso infantil. La labor de la compañía solo se limitará a buscar, a través de los identificadores, qué imágenes podrían estar ligadas a algún tipo de abuso infantil. Esto, según asegura el comunicado, sin ver ninguna foto.
Para el caso de Messages, el rastreo de actividades de abuso y pornografía infantil solo estará activo en cuentas de menores de edad. Esto les permitirá a los padres poder hacer seguimiento a cualquier actividad sospechosa en la que se vean involucradas sus hijos.
La controversia por la privacidad en Apple
Apple es conocido por proteger la privacidad de sus usuarios. En septiembre de 2017 se suscitó un caso en el que el FBI intentaba obligar a Apple en que ayudara a revelar el contenido cifrado dentro uno de sus iPhone, el cual formaba parte de la evidencia en una de las investigaciones del departamento. La compañía se negó rotundamente, alegando que la privacidad es primero.
Sin embargo, ese escenario de respeto a la privacidad parece haber quedado atrás. La nueva herramienta, si bien ayudará a investigar casos de pornografía infantil, puede convertirse en una puerta trasera que afecte la privacidad de los usuarios ante los gobiernos.
Personalidades como Edward Snowden se han quejado de que la «búsqueda de pornografía infantil de hoy, puede escanear cualquier cosa mañana». Esto, sin importar qué tan buenas intenciones tengan la compañía.
El sitio web especializado en temas de tecnología Xacata, en un reportaje sobre este evento, menciona que, si la herramienta puede utilizarse para comparar imágenes que pudiesen significar algún tipo de abuso infantil, países como China podrían exigir a Apple que sean ellos quienes provean la base de datos para la búsqueda de coincidencia. También podrían agregar a las imágenes el rastreo de fotos de disidentes y perseguidos políticos.
Los reportajes sobre espionaje acusando a Apple no son una novedad. En noviembre del año pasado, CriptoNoticias reportó que, posiblemente, la compañía estaría registrando toda la actividad de sus usuarios en su nuevo sistema operativo lanzado macOS 11.