fbpx

Conoce la razón por la que Apple revisará las fotos de sus usuarios de iPhone

Apple anunció una nueva estrategia para combatir la difusión de material sensible con menores de edad en sus dispositivos iPhone. Sin embargo, la noticia ha desatado una ola de críticas pues, pese a su elogiable y necesario propósito, algunos señalan que esto vulneraría la privacidad de sus usuarios. 

Según indica un comunicado oficial en su sitio web, la gigante tecnológica traerá nuevas actualizaciones del sistema operativo iOS. Entre ellos, se destaca el monitoreo de contenidos multimedia, con el que buscarán identificar contenido sexual infantil. Además, el plan entraría en funcionamiento a finales de este año.

Bajo herramientas de cifrado extremo, la idea es que el software pueda ‘escanear’ las imágenes o videos que se almacenen y circulen a través de las aplicaciones originales de los iPhone, iPad, iWatch o iMac. Asimismo, incluye la vigilancia de textos enviados a través de iMessage que se califiquen como contenido de índole sexual infantil.

Al respecto, la compañía argumenta que su objetivo es comparar el material de sus usuarios con bases de datos del Centro Nacional de Niños Desaparecidos y Explotados (NCMEC), por sus siglas en inglés. Se trata de una organización no gubernamental que trabaja por la reducción de la explotación sexual infantil.

Le podría interesar: Llegan las historias de TikTok como parte de una prueba de la plataforma

En ese sentido, si una imagen presenta características similares a alguna del archivo de NCMEC, Apple podrá revisar el material. Incluso, tendría la potestad para deshabilitar la cuenta del usuario en caso de que se compruebe el parecido del contenido.

De igual manera, el plan es que las familias que compartan una cuenta de iCloud tengan la opción de que los padres reciban alertas cuando sus hijos abran fotos. A su vez, el contenido explícito que llegue a los teléfonos de menores de edad se presentará distorsionado y con un mensaje de alerta.

Asimismo, Siri y Search emitirán también un llamado de advertencia cuando identifiquen que los usuarios están buscando imágenes de pornografía infantil.

Más contenido de la ciudad de CALI


Te podría interesar esta publicación, dale click o tap y mantente bien enterado: