Apple anuncia que se escanearan las imágenes de los iPhones y iCloud en búsqueda de pornografía infantil

Apple

Apple ha anunciado su nueva política en la que las fotografías o imágenes que se suban a iCloud desde el iPhone van a ser verificadas. Esta verificación se realizará a través de un nuevo sistema que permite detectar de manera automática cualquier tipo de abuso sexual contra los menores.

No obstante, el sistema detectará este tipo de material, pero sin comprometer la privacidad de los usuarios. De manera inicial, el sistema va a ser activado en EE. UU a finales del presente año. Sin embargo, este tipo de sistemas en busca de abuso de menores no es algo novedoso.

En realidad, servicios como Google Drive ya lo habían implementado. Pero, la diferencia entre este servicio de Google y Apple, es que este último ha prometido un sistema especial. El sistema se trata de una nube cifrada y un contenido al que no se puede tener acceso sin claves.

La forma de detectar el contenido que compromete a menores, sin que se miren las fotos

El sistema lleva por nombre “NeuralHash”, y permite identificar si el usuario ha cargado a la nube una imagen con pornografía infantil o cualquier otro contenido ilegal. No obstante, esto lo hace sin descifrar las imágenes, mediante el uso de un programa homomórfico.

El programa mencionado comprueba hashes con una base de datos de imágenes que ya hayan sido reportadas con anterioridad. Sin embargo, Apple ha declarado que ellos no tendrían manera de saber el contenido de las fotografías que se suban.

La única manera en que Apple analizaría el contenido, es que se detecte un contenido ilegal conocido. Esto es debido a que se revisarían de forma manual las imágenes ilegales que se hayan subido, con el fin de levantar un informe y deshabilitar la cuenta, para luego enviar el informe a las autoridades.

Es decir, Apple se asegurará de que no se vulnere la privacidad de los usuarios con este sistema, pero no permite que se aprovechen de ello para cruzar el umbral de lo ilegal. Par cumplir con ello, sólo se analizarán las imágenes que se suban a iCloud, o las guardadas en el teléfono, pero con este sistema.

Las fotografías difuminadas con mensajes y las ayudas de Siri

Apple no solo se ha conformado con la integración de este sistema, sino que ahora también introducirán otras herramientas que permitan proteger a los menores con iPhone. Un ejemplo de estas herramientas es la aplicación de mensajería.

En esta aplicación se detectarán las imágenes sexualmente explícitas a fin de difuminarlas. Inmediatamente después de ello, el teléfono mostrara una alerta en donde se le indicara lo que puede haber detrás de la imagen en caso de que desee abrirla.

Con ello, también se le avisará a los padres y esta misma fotografía que vio el niño será enviada a sus padres. De igual modo, Siri les ofrecerá ayuda a los usuarios para que reporten casos de abuso sexual a menores. No obstante, si el usuario busca contenido de abuso sexual, se le notificará que este contenido es dañino y problemático.

Tu valoración: ¿Qué te ha parecido el artículo?

Si quieres conocer otros artículos parecidos a Apple anuncia que se escanearan las imágenes de los iPhones y iCloud en búsqueda de pornografía infantil puedes visitar la categoría Estilo de vida.

¡Más Noticias Tecnológicas!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir