Prohibir las redes sociales a menores de 16 años: el problema no es el qué, sino el cómo

Prohibir las redes sociales a menores de 16 años: el problema no es el qué, sino el cómo

6 de febrero de 2026

En los últimos días se ha anunciado una ofensiva del Gobierno contra la impunidad en redes sociales que incluye medidas tan ambiciosas como la prohibición del acceso a menores de 16 años, la responsabilidad penal de los directivos de las plataformas o la tipificación como delito de la “manipulación de algoritmos”. El debate se ha instalado rápidamente en el plano ideológico, pero rara vez ha bajado al terreno donde realmente se decide si una norma funciona o fracasa: el técnico, el legal y el operativo.

Porque hay algo que conviene dejar claro desde el principio: el problema existe. La exposición temprana de menores a entornos digitales diseñados para maximizar la atención, la adicción y la polarización tiene efectos bien documentados sobre la salud mental, la autoestima y la construcción de la identidad. Negarlo sería ingenuo. Sin embargo, aceptar el diagnóstico no implica aceptar cualquier tratamiento.

Regular internet no es regular un bar, una discoteca o la venta de alcohol. Y prohibir, especialmente cuando hablamos de menores, suele ser un marco excelente para fomentar justo aquello que se pretende evitar.

Por qué prohibir el acceso a redes sociales a menores

La motivación de fondo es comprensible. Las grandes plataformas han construido modelos de negocio basados en algoritmos de recomendación que optimizan métricas como el tiempo de permanencia, la interacción o la viralidad. Estos sistemas no están diseñados para proteger al usuario, y menos aún a un menor, sino para maximizar ingresos publicitarios.

En ese contexto, limitar la exposición temprana parece razonable. La pregunta es: ¿por qué 16 años? En España, la responsabilidad penal de los menores comienza a los 14. Otras prohibiciones de impacto social, como el alcohol o el tabaco, se fijan en los 18. La elección de los 16 años no parece responder a un marco normativo coherente ni a un consenso claro basado en evidencias, lo que introduce una primera duda: ¿estamos ante una decisión técnica o ante una cifra políticamente conveniente?

Además, cuando el Estado decide prohibir el acceso a un entorno que forma parte de la vida social cotidiana, entra inevitablemente en un terreno delicado: el de la responsabilidad familiar y educativa. Internet no es un espacio marginal; es un entorno central de socialización, aprendizaje y comunicación. Sustituir educación digital por prohibición suele tener consecuencias no deseadas.

El verdadero desafío: cómo se aplica una prohibición así

Aquí es donde el debate suele desaparecer y donde empiezan los problemas reales. Prohibir el acceso a redes sociales a menores implica, necesariamente, verificar la edad de los usuarios. Y hoy por hoy, no existe una solución técnica que sea a la vez eficaz, universal y respetuosa con la privacidad.

Las opciones disponibles son conocidas:

La autodeclaración de edad es trivialmente evitable. Lleva décadas demostrándose que no funciona.

La verificación mediante documento de identidad implica la recogida y custodia de datos extremadamente sensibles. ¿Quién almacena esa información? ¿Durante cuánto tiempo? ¿Con qué garantías? ¿Qué ocurre en caso de filtración o uso indebido?

La verificación biométrica, mediante reconocimiento facial o estimación de edad por inteligencia artificial, abre un escenario aún más problemático. Son sistemas con márgenes de error significativos, sesgos demostrados y una aceptación social muy limitada en la Unión Europea. Normalizar su uso para acceder a redes sociales sería un cambio de enorme calado.

La externalización de la verificación a terceros genera nuevos intermediarios y nuevos puntos de fallo. Se crea un mercado de identidades digitales cuya seguridad y gobernanza no están claras.

La conclusión es incómoda pero evidente: no existe hoy una infraestructura técnica capaz de imponer esta prohibición sin generar riesgos graves en términos de privacidad, seguridad y derechos digitales.

Prohibir no elimina el uso, lo desplaza

Otro efecto colateral previsible es el desplazamiento. Cuando se bloquean plataformas grandes y visibles, los usuarios —y especialmente los menores— no dejan de comunicarse; simplemente migran. El ecosistema digital es vasto y heterogéneo: mensajería cifrada, foros, redes descentralizadas, plataformas menos reguladas y, en muchos casos, mucho menos seguras.

Una prohibición rígida corre el riesgo de empujar a los menores hacia espacios más opacos, donde la moderación es inexistente y el control institucional, imposible. Paradójicamente, las grandes plataformas son hoy las únicas que, por tamaño y presión regulatoria, aplican algún tipo de control sistemático.

La responsabilidad penal de los directivos: ¿regulación o mensaje político?

Otra de las medidas anunciadas es la atribución de responsabilidad legal directa a los ejecutivos de las plataformas si no retiran contenidos ilícitos. Sobre el papel, suena a justicia poética frente a grandes corporaciones tecnológicas que durante años han actuado con una sensación de impunidad.

En la práctica, surgen varias preguntas. Estas empresas operan a escala global, con estructuras jurídicas complejas y directivos fuera de la jurisdicción nacional. ¿Cómo se aplica una medida así sin generar conflictos legales internacionales? ¿Estamos ante una herramienta regulatoria eficaz o ante una declaración simbólica con escasa capacidad real de ejecución?

El riesgo es que se legisle más pensando en el impacto mediático que en la aplicabilidad efectiva de la norma.

“Manipular algoritmos”: un concepto peligrosamente ambiguo

Quizá el punto más delicado desde el punto de vista técnico es la criminalización de la “manipulación de algoritmos”. Los algoritmos de recomendación no son entes neutrales: están diseñados, entrenados y ajustados para producir determinados resultados. Netflix recomienda contenidos, Amazon prioriza productos, LinkedIn decide qué publicaciones vemos y cuáles no.

Todo eso es, en sentido estricto, manipulación algorítmica. La pregunta clave es: ¿dónde está la frontera entre optimización legítima de un servicio y conducta delictiva? ¿Es delito amplificar contenidos polémicos si generan interacción? ¿Es delito personalizar la información en función del comportamiento previo del usuario?

Introducir conceptos penalmente sancionables sin una definición técnica precisa genera inseguridad jurídica, frena la innovación y abre la puerta a interpretaciones arbitrarias.

La huella de odio y polarización: el riesgo de confundir delito con disenso

Los delitos de odio ya están tipificados en el Código Penal. La creación de una “huella de odio y polarización” plantea interrogantes adicionales. ¿Quién define qué es odio y qué es simplemente una opinión incómoda? ¿Qué criterios objetivos se utilizarán? ¿Con qué garantías?

El riesgo aquí no es teórico. Etiquetar plataformas o medios en función de categorías difusas puede derivar en estigmatización ideológica y en un uso político de la regulación. En sociedades democráticas, la línea entre proteger y señalar es extremadamente fina.

Regular solo a los grandes no es regular internet

El anuncio de investigar específicamente a plataformas como Grok, TikTok o Instagram refuerza una sensación de parcialidad. El ecosistema digital no se reduce a unas pocas corporaciones. Hay miles de servicios, comunidades y redes que escapan a cualquier radar regulatorio.

Actuar solo sobre los grandes actores puede ser comprensible desde el punto de vista práctico, pero no debe confundirse con una regulación integral del problema. En muchos casos, simplemente redistribuye el tráfico hacia entornos menos visibles.

¿Qué hacer entonces?

El debate sobre menores y redes sociales es necesario y urgente. La intención de proteger es legítima. Pero legislar sobre sistemas complejos sin comprender plenamente su funcionamiento técnico y social suele producir efectos contrarios a los deseados.

El problema no es plantear límites. El problema es creer que la prohibición, por sí sola, es una solución. Sin una estrategia clara de educación digital, sin herramientas técnicas viables y sin definiciones jurídicas precisas, el riesgo es alto: generar más inseguridad, más opacidad y menos control real.

Internet no se gobierna a golpe de titular. Y cuanto antes lo asumamos, mejor será el resultado para todos, especialmente para quienes decimos querer proteger.

Mensajería instantánea y entornos educativos digitales: un riesgo invisible

El debate sobre la prohibición de redes sociales suele centrarse en plataformas tradicionales, pero un riesgo creciente proviene de la mensajería instantánea y de herramientas digitales que se utilizan incluso con fines educativos o recreativos. Plataformas como Roblox, utilizadas en asignaturas de robótica o talleres de programación, permiten a niños y adolescentes interactuar en entornos virtuales con otros usuarios de manera casi ilimitada.

Aunque estas herramientas ofrecen oportunidades para el aprendizaje y la creatividad, también exponen a los menores a riesgos similares a los de las redes sociales convencionales: contacto con desconocidos, acoso, difusión de contenido inapropiado o manipulación por parte de usuarios malintencionados. Además, la naturaleza lúdica de estas plataformas puede hacer que los límites entre juego y socialización real sean difusos, dificultando la supervisión familiar o escolar.

La mensajería instantánea integrada en estas plataformas es particularmente difícil de controlar. Los sistemas de moderación suelen ser automáticos y no detectan todas las conductas nocivas, mientras que el cifrado y la descentralización dificultan la intervención externa. Esto significa que, incluso si se limita el acceso a redes sociales “tradicionales”, los menores pueden seguir estando expuestos a entornos donde se reproducen los mismos riesgos.

Proteger a los menores en este contexto no es cuestión de prohibición absoluta, sino de educación digital, supervisión activa y diseño de herramientas que prioricen la seguridad sin sacrificar la creatividad y la colaboración. Ignorar estos entornos sería dejar un hueco importante en cualquier estrategia de protección.