Pulso ATL
Tecnología

Apple escaneará imágenes para evitar el abuso sexual infantil

Apple explicó que la mayoría de los servicios de nube ya analizan archivos de los usuarios, en busca de contenido que pudiera violar los términos de uso y servicio o que pudiera considerarse ilegal. En este sentido, desechó que se trate de una medida que atente contra la privacidad de los usuarios, como algunos han reclamado.

¿Cómo va a detectar Apple fotografías de abuso sexual infantil?

NeuralHash, asegura Apple , es una tecnología elogiada por las asociaciones que luchan contra el abuso sexual infantil. Esta funciona, de hecho, en el dispositivo de cada usuario y puede identificar si éste carga imágenes conocidas de abuso infantil en iCloud.

No obstante, estas imágenes potencialmente ilegales no son descifradas hasta que alcanzan una secuencia de verificaciones. Entonces, el sistema las borra de la cuenta de iCloud en cuestión y avisa a las autoridades.

¿Qué pasa con la privacidad en Apple?

Esto ha generado polémica entre los defensores de la privacidad del usuario, quienes argumentan que, si este tipo de tecnología cayera en las manos equivocadas, como las de un gobierno autoritario, podría haber hipervigilancia y represión. De hecho, esta noticia se dio a conocer después de que Matthew Green, un experto y profesor de criptografía de la Universidad Johns Hopkins, reveló la existencia de esta tecnología en una serie de tuits.

“La forma en que Apple está lanzando esta tecnología comenzará con fotos que la gente ya ha compartido con la nube. Así que no daña la privacidad de nadie… Pero debe preguntarse por qué alguien desarrollaría un sistema como este si escanear fotos E2E (de punta a punta) no fuera el objetivo”, tuiteó Green. E2E se refiere a mensajes privados que, presuntamente, no podrían ser susceptibles de vigilancia.

No obstante, en un comunicado, Apple asegura que las fotografías en cuestión solamente serán sometidas a revisión manual (humana) cuando hayan pasado varios niveles de comprobación, a través de la tecnología de aprendizaje automático.

De hecho, recalcó que advertirá, tanto a los padres, como a los niños, cuando estén recibiendo o enviando fotografías sexualmente explícitas. De este modo, en el momento que un niño reciba este tipo de contenido, la fotografía se mostrará borrosa junto con una advertencia.

apple seguridad para niños

Finalmente, Apple informó que estas actualizaciones llegarán a finales de 2021 para iOS 15, iPadOS 15, watchOS 8 y macOS Monterey y que esta tecnología evolucionará y se expandirá en el tiempo. Este tipo de esfuerzos por erradicar la difusión de contenidos ilegales no es algo nuevo: El año pasado, Facebook reportó más de 20 millones de imágenes de abuso sexual infantil en su plataforma.

Related posts

Microsoft Flight Simulator llega, por fin, a consolas

latmedia_6wosd8

Empleados de Activision Blizzard entran a huelga

latmedia_6wosd8

Citizen Lab halla nueva brecha en iPhone usada para infiltrar Pegasus

latmedia_6wosd8

Leave a Comment