[ad_1]
Sin embargo, un portavoz de la compañía dice que los planes de Apple para un sistema contra la pornografía infantil siguen vigentes.

(Ilustración fotográfica de Stanislav Kogiku/SOPA Images/LightRocket vía Getty Images)
Por alguna razón, Apple ha eliminado la mención de su controvertido sistema para detectar pornografía infantil de su sitio web Child Safety.(Se abre en una nueva ventana).
Como señala MacRumors(Se abre en una nueva ventana)el sitio web incluía anteriormente una breve descripción del sistema de detección de “Material de abuso sexual infantil (CSAM)” de Apple, junto con enlaces a documentos técnicos sobre cómo se supone que funciona la tecnología.
Sin embargo, el sitio web de seguridad infantil de Apple se modificó en los últimos días para eliminar todas las menciones del sistema de detección de CSAM, según(Se abre en una nueva ventana) al Archivo de Internet. (Dicho esto, los enlaces originales de la compañía(Se abre en una nueva ventana) a los documentos técnicos(Se abre en una nueva ventana) en la tecnología permanecen en línea.)
Cómo se veía el sitio de seguridad infantil de Apple el 10 de diciembre. (Archivo de Internet)
Cómo se ve ahora el sitio de seguridad infantil de Apple. (Apple.com)
La eliminación sugiere que Apple está renunciando a su controvertido plan de usar iPhones para combatir la pornografía infantil en línea. Pero un portavoz de Apple le dice a PCMag que “nada ha cambiado” desde septiembre, cuando Apple dijo que estaba haciendo una pausa en el sistema de detección de CSAM para obtener más comentarios e implementar mejoras.
Por lo tanto, es posible que Apple se esté preparando para un nuevo intento de vender el sistema de detección de pornografía infantil a un público escéptico.
La empresa creó el sistema de detección de CSAM para ayudar a tomar medidas enérgicas contra las imágenes de abuso sexual infantil almacenadas en las cuentas de iCloud. Actualmente, otras empresas hacen esto escaneando sus propios servidores en busca de pornografía infantil en las cuentas de los usuarios. Sin embargo, Apple propuso un enfoque que involucraba el uso del propio iPhone del consumidor para marcar cualquier pornografía infantil cargada en iCloud.
La propuesta enfrentó de inmediato la resistencia de los defensores de la privacidad y los consumidores por la preocupación de que el mismo sistema podría ser abusado para la vigilancia o marcar incorrectamente las fotos. En respuesta, Apple trató de explicar por qué su enfoque era mejor para la privacidad del usuario que el escaneo de todo el servidor. Sin embargo, los duros comentarios fueron suficientes para que Apple retrasara su plan de lanzar el sistema de detección de CSAM, que originalmente se suponía que llegaría con iOS 15.
“Con base en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos un tiempo adicional en los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”, dijo la compañía en septiembre.
La misma declaración también se colocó de manera destacada en el sitio web Child Safety de Apple. Pero también ha sido eliminado.