La medida, que ha generado apoyos y críticas a partes iguales, se alinea con el giro regulatorio que varios países europeos están impulsando hacia una mayor protección del colectivo infantil. El texto contempla incluso atribuir responsabilidad legal a directivos de plataformas que no retiren contenidos ilícitos o de odio, una discusión que avanza también en el seno de la Unión Europea.
Las nuevas obligaciones, que marcarán un antes y un después en la relación entre usuarios y entornos digitales, exigirán que cada persona acredite su edad mediante métodos autorizados. Aunque los sistemas concretos todavía no se han detallado, todo apunta a soluciones como la validación del documento de identidad y el reconocimiento facial. En caso de no poder verificar la mayoría de 16 años, la cuenta del usuario podría ser bloqueada o eliminada, consolidando la identidad digital como un requisito operativo estructural en el acceso a redes sociales.
En este contexto, José María Fachado, director de ciberseguridad de i3e, valora positivamente el avance regulatorio y considera que supone “un paso indispensable para proteger a los menores del acoso, la exposición a contenidos dañinos o la manipulación algorítmica”. No obstante, advierte de que la eficacia real dependerá del diseño técnico de los sistemas de identificación.
Cómo evitar la evasión de la norma
Entre las alternativas debatidas en foros especializados y los modelos implantados en países como Francia o Australia figuran la verificación mediante DNI, sistemas biométricos y credenciales digitales anónimas, soluciones diseñadas para equilibrar privacidad y seguridad. Sin embargo, los expertos alertan de que, incluso con tecnologías avanzadas, los menores podrían seguir encontrando formas de sortear las restricciones.
Una de las vías más accesibles es el uso de VPN, que permite simular conexiones desde países sin regulaciones equivalentes. Si las plataformas no integran filtros adicionales de detección, este mecanismo podría convertirse en una rendija significativa. En cuanto al reconocimiento facial, Fachado reconoce que tiene “un potencial significativo para aportar robustez, pero también márgenes de error que deben corregirse con estándares de alta precisión”, y es que estas tecnologías presentan un sesgo de estimación de edad de hasta tres años, lo que podría llevar al cierre erróneo de cuentas de usuarios que sí son mayores de 16.
El director de ciberseguridad de i3e subraya que el desafío más complejo podría no ser tecnológico, sino social. “Los adultos podrían facilitar el acceso a los menores prestando su documentación o participando en procesos de identificación biométrica. Esto abre una grieta legal y operativa que debe abordarse desde el inicio”, apunta.
A su juicio, el éxito de la normativa dependerá de que establezca corresponsabilidad familiar y mecanismos claros para evitar que los tutores actúen, tanto de forma voluntaria como involuntaria, a modo de intermediarios en la evasión de controles. Fachado concluye que “esta regulación solo será efectiva si se apoya en un diseño tecnológico sólido, un marco legal coherente con la normativa europea y una educación digital real dirigida tanto a menores como a sus familias”.
Tu opinión enriquece este artículo: