Fundado en 1910

Una adolescente consulta su móvil en la calleGetty Images / iStock

«Prohibir las redes a los menores no basta», alerta un experto de Australia sobre la ley que copiará España

España prepara cambios para elevar la edad de acceso a redes sociales. El modelo mira a Australia, que ya impide crearse cuentas a menores de 16 años. Pero el experto australiano Joel Scanlan, de la Universidad de Tasmania, advierte: cerrar la puerta no reformará los riesgos que siguen dentro de las plataformas

Que la relación de los menores con las redes sociales y los dispositivos electrónicos ha trascendido el ámbito doméstico para convertirse en un problema de salud pública es algo que ningún experto pone ya en duda.

Francia ha sido el primer país europeo en aprobar una medida restrictiva en este ámbito, que otros países llevan ya tiempo analizando.

España avanza hacia un bloqueo similar en el uso de las redes sociales para menores de 16 años, con una legislación que toma como referente internacional el espejo de Australia, donde desde el pasado 10 de diciembre, plataformas como Instagram o TikTok deben garantizar la imposibilidad de que un menor se abra una cuenta.

Sin embargo, un reciente análisis técnico de un experto australiano advierte: la prohibición puede frenar el acceso, pero no corrige los riesgos estructurales de las plataformas.

Cerrar la puerta no reforma la casa

En un artículo de fondo publicado en la edición australiana del portal The Conversation, Joel Scanlan, profesor de ciberseguridad y privacidad en la Universidad de Tasmania, pide distinguir entre lo que una prohibición consigue y lo que deja intacto.

El autor aporta un dato del contexto australiano para justificar el giro regulatorio: «Solo en el año fiscal 2024/25, el Centro Australiano para Contrarrestar la Explotación Infantil recibió casi 83.000 informes de material de explotación sexual infantil online… un aumento del 41 % respecto del año anterior».

Con la prohibición para menores de 16, –y con medidas de garantía de edad para buscadores y contenido adulto ya calendarizadas–, Scanlan reconoce un «momento histórico», pero pide realismo: «Debemos ser claros sobre lo que logra esta regulación y lo que ignora».

Scanlan apunta directamente a la clave del debate, que incide también en el problema español: «La prohibición puede mantener a algunos menores fuera (si no la eluden), pero no soluciona la arquitectura dañina que les espera al regresar». Además, la mera prohibición de acceso «tampoco toma medidas para modificar el comportamiento dañino de algunos usuarios adultos», alerta.

De «golpear al topo» a «seguridad por diseño»

A partir de ahí, el análisis técnico aporta una ristra de datos que concluye con una crítica al modelo habitual de moderación que rige en el algoritmo de redes como Instagram, Snapchat o TikTok: el enfoque de «golpear al topo», donde la plataforma espera a que alguien denuncie y después retira el contenido.

Un procedimiento que describe como «reactivo, lento» y a menudo traumático para los moderadores e injusto para los usuarios.

La alternativa que propone este experto en ciberseguridad y privacidad es la «seguridad desde el diseño». Es decir, integrar protecciones en la «arquitectura central» del producto, en vez de limitarse a bloquear accesos.

El autor lo explica con una pregunta muy concreta: no basta con cerrar la entrada; hay que preguntarse «por qué la plataforma permite la existencia de vías dañinas».

Y pone un ejemplo: aplicar a las redes funciones como las «conexiones de confianza» en Roblox, que limitan contactos a personas conocidas en la vida real, y que «deberían haber existido desde el principio».

Un «deber de cuidado digital»

La propuesta regulatoria de Australia que estudia copiar España se resume en otra expresión: un «deber de cuidado digital», para que las plataformas estén «legalmente obligadas a anticipar y mitigar los daños».

En su argumentación, esto incluye actuar sobre los algoritmos que recomiendan contenido dañino, las búsquedas que facilitan acceso a material ilegal o potencialmente adictivo, y funciones que abren puertas a la explotación sexual.

Para sostener que no es ciencia ficción, cita el resultado de una investigación, que implicó una «intervención pública de disuasión». Básicamente, al buscar términos relacionados potencialmente con abuso infantil, en lugar de «un muro en blanco» aparecía «un mensaje de advertencia y un chatbot» orientando a ayuda terapéutica.

Como resume Scanlan, los resultados demostraron «una disminución en las búsquedas de material ilegal» y que «más del 80%» de quienes vieron la intervención «no intentaron volver a buscar» ese contenido en esa sesión.

«La era de ‘moverse rápido aunque rompas cosas’ ha terminado», concluye el análisis del experto australiano.

Y plantea una tesis que, trasladada al debate español, deja una idea sobre la mesa imposible de soslayar: elevar la edad de acceso puede ser un dique de contención; pero si no se exige también rediseño y responsabilidad, el funcionamiento adictivo de las redes sociales seguirán siendo un problema entre adolescentes... y adultos.