Desde hace más de tres años, las instituciones de la Unión Europea vienen discutiendo una de sus propuestas más polémicas en materia digital: el ‘Reglamento sobre el abuso sexual infantil’ (CSAR, por sus siglas en inglés), conocido popularmente como ‘Chat Control’.
Esta polémica ley que podría obligar a WhatsApp, Telegram o Signal, escanear tus conversaciones en busca de contenido ilegal. Bajo la noble narrativa de combatir la difusión de material sobre abuso sexual infantii en internet, representa el intento por vigilar las comunicaciones privadas de los usuarios.
Organizaciones como la Electronic Frontier Foundation o la propia Signal lo califican de “vigilancia masiva” y avisan de que romper el cifrado crearía una puerta trasera que pondría en riesgo a todos los usuarios, no solo a los delincuentes.
¿Qué se espera en las próximas horas?
Este viernes 12 de septiembre, los embajadores de los países de la UE se reúnen en Bruselas para fijar la posición de sus gobiernos sobre el texto, una propuesta que lleva más de dos años generando división en Europa. Si hay consenso suficiente, el siguiente paso será llevarla al Consejo de Ministros de Justicia e Interior (JAI), previsto para el 13 y 14 de octubre, donde podría producirse la votación definitiva.
Si no hay acuerdo, la negociación seguirá abierta y se buscará un nuevo texto de compromiso.
¿Significa esto que hoy se acuerda si la UE podrá leer tus mensajes de WhatsApp? La respuesta es no: el proceso legislativo sigue abierto y el texto podría sufrir cambios antes de su aprobación. Pero el debate entra hoy en una fase decisiva: lo que se dicte en esta reunión marcará si Chat Control avanza hacia la aprobación o vuelve a quedar bloqueado, como ocurrió en 2024.
Antecedente de la propuesta
La Comisión Europea, había presentado una primera versión de esta propuesta en mayo de 2022, que finalmente fue rechazada en octubre de 2024.
En ese mismo año 2022, se abrió una consulta pública para conocer la opinión de ciudadanos y empresas y el resultado fue muy claro: más del 80 % de los participantes se mostró en contra de imponer este tipo de controles, especialmente en los mensajes cifrados.
La Comisión tomó nota y en junio de 2024 publicó una versión revisada de la propuesta. Esta vez ya no se pedía escanear los mensajes de texto ni los audios, sino centrarse en fotos, vídeos y enlaces. Además, se introdujo un matiz importante: los usuarios debían dar su consentimiento para que sus archivos se escanearan antes de ser cifrados.
Pero los cambios no convencieron a los defensores de la privacidad. La presidenta de Signal, Meredith Whittaker, aseguró que es “la misma vigilancia de siempre, con otro nombre”. Y no era la única crítica: organizaciones de derechos digitales y empresas tecnológicas alertaban de que cualquier sistema de escaneo previo seguía siendo una puerta trasera que debilitaba el cifrado.
En septiembre de 2024, el medio Politico filtró un nuevo borrador que endurecía el texto. En él se dejaba a las empresas la opción de usar inteligencia artificial para detectar posibles abusos, pero se mantenía la obligación de escanear todas las comunicaciones e informar de cualquier hallazgo.
La idea era llevar el texto a votación en el Consejo de la UE en octubre de 2024, pero no hubo acuerdo entre los países. Se intentó de nuevo en diciembre, pero el plan volvió a quedarse bloqueado porque más gobiernos se sumaron al grupo de los que se oponen.
La situación cambió en julio de 2025, cuando Dinamarca asumió la presidencia del Consejo de la UE y decidió reactivar el expediente. Desde entonces se han intensificado las negociaciones y este 12 de septiembre es la fecha clave para que los Estados miembros fijen sus posiciones.
Como decíamos, si hoy logran un consenso suficiente, el siguiente paso será debatir el texto en el Consejo de Ministros de Justicia e Interior de octubre, donde podría votarse definitivamente.
Quién apoya y quién rechaza la medida
El eurodiputado Patrick Breyer (Partido Pirata) ha publicado un mapa que ilustra la división en la UE.
En el lado de quienes apoyan la medida están España, Portugal, Francia, Italia, Croacia, Hungría, Bulgaria, Chipre, Malta, Islandia, Dinamarca, Suecia, Letonia y Lituania. Estos países creen que es necesario dotar a las autoridades de más herramientas para combatir el abuso sexual infantil en internet, aunque eso implique revisar el funcionamiento del cifrado en las plataformas.
En el bloque contrario se sitúan Austria, Bélgica, República Checa, Finlandia, Alemania, Luxemburgo, Países Bajos, Polonia y Eslovaquia, que han manifestado su rechazo a cualquier propuesta que obligue a romper el cifrado de extremo a extremo. Para estos países, la privacidad de las comunicaciones es un derecho fundamental que no debe ponerse en riesgo.
Hay además un grupo de países que todavía no ha fijado una posición clara y que podrían inclinar la balanza en un sentido u otro: Grecia, Rumanía, Estonia y Eslovenia. Sus votos serán cruciales para determinar si el texto avanza o si vuelve a quedar bloqueado como ocurrió en 2024.
En resumen, el mapa muestra una Europa partida en dos, con un bloque favorable que, si logra sumar a los indecisos, podría alcanzar la mayoría necesaria para sacar adelante la propuesta.
Lo que está en juego
Las consecuencias potenciales de Chat Control 2.0 son profundas:
- La supresión efectiva de la privacidad online: todos los mensajes, correos y archivos compartidos serían escaneados antes de poder enviarse.
- Errores masivos: Según señalaba hace unos meses el Partido Pirata, los informes previos mostraban que el 80% de los contenidos marcados por algoritmos son falsos positivos, por lo que millones de ciudadanos podrían terminar siendo investigados injustamente.
- Puertas traseras abiertas: cualquier debilitamiento del cifrado puede ser explotado no solo por autoridades, sino también por criminales y gobiernos extranjeros hostiles.
Las organizaciones críticas no niegan la necesidad de combatir el abuso infantil online, pero defienden métodos más eficaces, como el refuerzo de las unidades policiales especializadas, en lugar de tratar a toda la población como sospechosa. De hecho, sería mucho más útil si lo que se busca es que el abuso a los menores no llegue a tener lugar, en lugar de perseguir únicamente la difusión posterior de fotos y vídeos.