Whatsapp no usará el escáner de abuso infantil de Apple para evitar problemas de privacidad

Whatsapp

El hecho de que Apple tenga un plan para combatir la difusión de imágenes de abuso sexual infantil en sus próximas funciones de seguridad no significa que todos estén de acuerdo. El jefe de WhatsApp, Will Cathcart, se unió a los críticos de Apple el viernes.

Declaró inequívocamente que la aplicación de mensajería de Facebook no adoptará esta nueva función una vez que se lance. Cathcart luego se refirió a sus preocupaciones sobre los sistemas impulsados ​​por el aprendizaje automático.

"Este es un sistema de vigilancia construido y operado por Apple que se puede usar fácilmente para escanear contenido privado y encontrar cualquier contenido que ellos o el gobierno decidan monitorear". Este fue el mensaje que escribió Cathcart en medio de la publicación.

"Los países donde se venden los iPhones tienen diferentes definiciones de productos aceptables", prosiguió en otro tuit. Aunque la posición de WhatsApp sobre la función en sí es lo suficientemente clara, el tema de Cathcart se centra principalmente en proponer escenarios hipotéticos para indicar dónde pueden surgir problemas.

Lo que Cathcart desea, es saber si este mismo sistema se usa en China, cómo se usa, qué "sucede" cuando las empresas de software espía lo usan y qué tan infalible es. Este hilo de Twitter sin duda se muestra subjetivo y emocional, pues solo implica suspicacia.

Esto no es muy útil para aquellos que pueden estar buscando información sobre por qué el anuncio de Apple es motivo de preocupación. Cathcart repitió algunos de los puntos de conversación de alto nivel planteados por los críticos, pero este enfoque es más provocador que informativo.

Lo que opinan los expertos

Como informó Mashable el jueves, parte de la próxima actualización de seguridad utiliza una tecnología patentada llamada NeuralHash, que escanea el valor hash y la firma de cada archivo de imagen. Esta básicamente lo compara con los valores hash de materiales de abuso sexual (CSAM).

Todo esto sucede antes de que las fotos se almacenen en iCloud Photos, y Apple no puede hacer ni ver nada a menos que el control hash active una alarma. Por supuesto, el método de comprobación de hash no es del todo infalible.

Esto se debe a que  no detectará CSAM que no estén catalogados en la base de datos. Matthew Green, experto en ciberseguridad y profesor de la Universidad Johns Hopkins, también señaló los riesgos potenciales de usar hashes de archivos CSAM en archivos de imágenes que no son CSAM.

Se discutieron razonablemente los beneficios y riesgos del plan de Apple y algunos expertos se mostraron a favor y otros en contra. No obstante, WhatsApp tiene todo el derecho a plantear objeciones y se compromete a no utilizar esta función.

Sin embargo, como usuario, es posible que desee comprender esto mejor antes de formarse una opinión. En comparación con el hilo de Twitter de los ejecutivos de Facebook, tiene mejores opciones para extraer la información que desea.

Tu valoración: ¿Qué te ha parecido el artículo?

Si quieres conocer otros artículos parecidos a Whatsapp no usará el escáner de abuso infantil de Apple para evitar problemas de privacidad puedes visitar la categoría El Mundo.

¡Más Noticias Tecnológicas!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir