La Comisión Europea ha propuesto una nueva normativa que escanea las aplicaciones de mensajería como WhatsApp, iMessage y FacebookMessenger en busca de material de abuso sexual infantil y contenido de “grooming”.
“Este documento es lo más aterrador que he visto nunca”, tuiteó Matthew Green, profesor de criptografía en Johns Hopkins, tras compartir una filtración de la legislación. “Describe la maquinaria de vigilancia masiva más sofisticada jamás desplegada fuera de China y la URSS. No es una exageración”.
La normativa no sólo escanearía en busca de material de abuso infantil ya existente, sino también en busca de nuevo material de abuso sexual infantil o grooming – dando así poderes de vigilancia a las autoridades para escanear las conversaciones que se producen dentro de algunas de las plataformas más populares del mundo en caso de recibir una “orden de detección” que utilizaría la inteligencia artificial para escanear imágenes y mensajes de texto.
“Las órdenes de detección están limitadas en el tiempo y se dirigen a un tipo específico de contenido en un servicio específico”, dice la Comisión Europea, añadiendo que serán emitidas por tribunales o autoridades nacionales independientes.
“Las tecnologías de detección sólo deben utilizarse para detectar los abusos sexuales a menores. Los proveedores tendrán que desplegar tecnologías que sean lo menos intrusivas para la privacidad de acuerdo con el estado de la técnica en la industria, y que limiten al máximo la tasa de error de los falsos positivos.”
También establece que las tiendas de aplicaciones deben garantizar que los niños no puedan descargar aplicaciones que puedan exponerlos a un alto riesgo de solicitación.
Los expertos advirtieron que la introducción de las competencias para los gobiernos europeos las pondría a disposición de otros gobiernos. “Al ordenar legalmente la construcción de estos sistemas de vigilancia en Europa, el gobierno europeo acabará poniendo estas capacidades a disposición de todos los gobiernos”, escribió el profesor Green.
Otros expertos en privacidad se han hecho eco de esta crítica. La propuesta es “incompatible con la encriptación de extremo a extremo y con los derechos básicos de privacidad”, dijo Joe Mullin, analista principal de políticas del grupo de derechos digitales Electronic Frontier Foundation CNBC.
“No hay forma de hacer lo que pretende la propuesta de la UE, salvo que los gobiernos lean y escaneen los mensajes de los usuarios a gran escala”, continuó Mullin. “Si se convierte en ley, la propuesta sería un desastre para la privacidad de los usuarios no sólo en la UE sino en todo el mundo”.
Muchos gobiernos -incluidos los del Reino Unido, Estados Unidos y toda Europa- han intentado erosionar la privacidad de los usuarios pidiendo a los gigantes tecnológicos que pongan puertas traseras en los chats encriptados de extremo a extremo, una medida que esencialmente los haría más vulnerables a los delincuentes.
Aunque el plan no pide directamente el fin del cifrado de extremo a extremo, no está claro cómo se llevaría a cabo sin socavarlo.
“Los delincuentes ya están utilizando canales de distribución que no se verían afectados por estos escaneos y escaparán fácilmente a los escaneos en el futuro”, dijo Linus Neumann, del colectivo alemán de hackers Chaos Computer Club.
El responsable de WhatsApp, Will Cathcart, también criticó el proyecto de ley en un hilo de Twitter. “Increíblemente decepcionante ver que una propuesta de reglamento de la UE sobre Internet no protege el cifrado de extremo a extremo”, escribió. “Si la UE ordena que se construya un sistema de escaneo como este para un propósito en la UE, se utilizará para socavar los derechos humanos de muchas maneras diferentes a nivel mundial.”
Continuó: “Los legisladores tienen que trabajar con expertos que entiendan la seguridad en Internet para que no perjudiquen a todo el mundo, y centrarse en las formas en que podemos proteger a los niños al tiempo que fomentamos la privacidad en Internet.”
Apple había intentado anteriormente introducir funciones contra el abuso de menores que utilizaban una tecnología similar. Las herramientas habrían intentado detectar cuándo se envían fotos inapropiadas a los niños, y cuándo las personas tienen material de abuso sexual infantil en sus dispositivos.
Sin embargo, los críticos dijeron que las herramientas podrían utilizarse para buscar otro tipo de material y que socavaban el compromiso público de Apple con la privacidad como derecho humano. En septiembre, Apple dijo que retrasaría indefinidamente esas funciones hasta que fueran mejoradas.
“Sobre la base de los comentarios de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos un tiempo adicional en los próximos meses para recopilar comentarios y hacer mejoras antes de lanzar estas características de seguridad infantil críticamente importantes”, dijo el gigante del iPhone en un comunicado.
Comments