in

Apple elimina silenciosamente la mención del sistema contra la pornografía infantil de su sitio web

06QRk3xsliG5LIHE38iOGPO 1.fit lim.size 1200x630.v1639579681

Por alguna razón, Apple ha eliminado la mención de su controvertido sistema para detectar pornografía infantil en su sitio web Child Safety.

Como señala MacRumors, el sitio web incluía anteriormente una breve descripción del sistema de detección de «Material de abuso sexual infantil (CSAM)» de Apple, junto con enlaces a documentos técnicos sobre cómo se supone que funciona la tecnología.

Sin embargo, el sitio web de seguridad infantil de Apple se modificó en los últimos días para eliminar todas las menciones del sistema de detección de CSAM, según Internet Archive. (Dicho esto, los enlaces originales de la compañía a los documentos técnicos sobre la tecnología permanecen en línea).

Cómo se veía el sitio de seguridad infantil de Apple el 10 de diciembre.

Cómo se veía el sitio de seguridad infantil de Apple el 10 de diciembre (Archivo de Internet)

Cómo se ve ahora el sitio de seguridad infantil de Apple.

Cómo se ve ahora el sitio de seguridad infantil de Apple. (Apple.com)

La eliminación sugiere que Apple está renunciando a su controvertido plan de usar iPhones para combatir la pornografía infantil en línea. Pero un portavoz de Apple le dice a PCMag que «nada ha cambiado» desde septiembre, cuando Apple dijo que estaba haciendo una pausa en el sistema de detección de CSAM para obtener más comentarios e implementar mejoras.

Por lo tanto, es posible que Apple se esté preparando para un nuevo intento de vender el sistema de detección de pornografía infantil a un público escéptico.

La compañía creó el sistema de detección CSAM para ayudar a tomar medidas enérgicas contra las imágenes de abuso sexual infantil almacenadas en las cuentas de iCloud. Actualmente, otras empresas hacen esto escaneando sus propios servidores en busca de pornografía infantil en las cuentas de los usuarios. Sin embargo, Apple propuso un enfoque que implicaba usar el propio iPhone del consumidor para marcar cualquier pornografía infantil cargada en iCloud.

La propuesta enfrentó inmediatamente la resistencia de los defensores de la privacidad y los consumidores por preocupaciones de que el mismo sistema podría ser utilizado para vigilancia o marcar fotos incorrectamente. En respuesta, Apple intentó explicar por qué su enfoque era mejor para la privacidad del usuario que el escaneo en todo el servidor. Sin embargo, los duros comentarios fueron suficientes para que Apple retrasara su plan para lanzar el sistema de detección CSAM, que originalmente se suponía que llegaría con iOS 15.

Recomendado por nuestros editores

“Basándonos en los comentarios de los clientes, grupos de defensa, investigadores y otros, hemos decidido tomarnos más tiempo durante los próximos meses para recopilar información y hacer mejoras antes de lanzar estas características de seguridad infantil de importancia crítica”, dijo la compañía en septiembre.

La misma declaración también se colocó en un lugar destacado en el sitio web de seguridad infantil de Apple. Pero también se ha eliminado.

¿Te gusta lo que estás leyendo?

Matricularse en Carrera hacia 5G boletín informativo para recibir nuestras principales historias sobre tecnología móvil directamente en su bandeja de entrada.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines informativos en cualquier momento.

!function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function(){n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)};if(!f._fbq)f._fbq=n; n.push=n;n.loaded=!0;n.version='2.0';n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window, document,'script','//connect.facebook.net/en_US/fbevents.js');

fbq('init', '454758778052139'); fbq('track', "PageView"); } }