La novedosa tecnología analizará el material fotográfico de los usuarios de iPhone y iPad mediante algoritmos 'hash' para cotejarlos con imágenes ya marcadas como prohibidas. El anuncio despertó críticas de expertos que advierten que el algoritmo puede cometer errores.
Apple anunció este jueves que implementará una novedosa tecnología para detectar, mediante algoritmos 'hash', todo posible contenido relacionado con el abuso sexual infantil (como por ejemplo pornografía infantil) que puedan tener como material fotográfico los usuarios de sus teléfonos inteligentes iPhone y de la línea de tabletas iPad.
El nuevo sistema no escaneará los materiales que se hallen en la nube iCloud, pero sí cotejará en dichos dispositivos los 'hash' de imágenes (versiones encriptadas de ellas) con la base de datos proporcionada por el Centro Nacional estadounidense para Menores Desaparecidos y Explotados (NCMEC) que registra contenidos ya marcados como prohibidos.
Si la existencia del material prohibido se confirma, la compañía desconectará la cuenta respectiva y reportará al Centro Nacional estadounidense para Menores Desaparecidos y Explotados (NCME).
En caso de que el sistema detecte un material ilegal, este será rechequeado manualmente por los empleados de la empresa. Si la existencia del material prohibido se confirma, la compañía desconectará la cuenta respectiva y reportará al NCMEC. Por su parte, los usuarios podrán presentar una apelación para restablecer la cuenta, si consideran que se ha producido un error.
Sin embargo, expertos en criptografía y seguridad, advirtieron que la introducción de tal sistema podría tener implicaciones adversas, ya que los algoritmos 'hash' no son totalmente fiables y pueden identificar algún contenido como prohibido, aunque en realidad sea adecuado.
Estos algoritmos, explicaron "están diseñados para encontrar imágenes que se parezcan a las malas, incluso si han sido redimensionadas, comprimidas, etc. Esto significa que, dependiendo de cómo funcionen, podría ser posible que alguien haga imágenes problemáticas que "coincidan" con imágenes totalmente inofensivas".