Contenido perjudicial en línea: Europa busca limitar el acceso de menores a redes sociales
Desde consejos peligrosos sobre dietas hasta desinformación, ciberacoso o discurso de odio, la sobrecarga de contenido dañino para menores en internet no deja de crecer. Varios países europeos quieren ahora restringir su acceso a las redes sociales.
La Unión Europea ya cuenta con algunas de las normativas digitales más estrictas del mundo para controlar a los gigantes tecnológicos, incluidas investigaciones sobre cómo protegen —o no— a los menores.
Cada vez más estudios evidencian los efectos negativos de las redes en la salud mental y física de los niños, lo que ha impulsado exigencias de medidas más duras. Con el respaldo de Francia y España, Grecia ha propuesto un plan para limitar el uso de plataformas digitales por parte de menores ante el creciente temor por su naturaleza adictiva.
El ministro griego de Digital, Dimitris Papastergiou, anunció que presentarán la iniciativa este viernes en Luxemburgo ante sus homólogos europeos "para que la UE actúe lo antes posible". La propuesta incluye establecer una "mayoría de edad digital" en los 27 países del bloque, lo que implicaría prohibir el acceso a redes sociales sin consentimiento paterno.
Desde su publicación el mes pasado, países como Dinamarca —que asumirá la presidencia rotatoria de la UE en julio— y Chipre han mostrado apoyo. Autoridades danesas aseguran que será una prioridad durante su mandato.
Francia, pionera en la regulación, aprobó en 2023 una ley que exige consentimiento parental para usuarios menores de 15 años, aunque aún espera el visto bueno de la UE. Este año también implementó verificaciones de edad en páginas para adultos, lo que provocó el cierre temporal de tres plataformas por protestas.
Bajo presión francesa, TikTok prohibió el hashtag #SkinnyTok, vinculado a contenidos que promueven la extrema delgadez.
Grecia insiste en que su objetivo es proteger a los niños de los riesgos del uso excesivo de internet. Aunque la propuesta no especifica una edad concreta, Papastergiou subrayó que las plataformas deben conocer la edad real de los usuarios "para evitar mostrarles contenido inapropiado".
Francia, Grecia y España alertan sobre cómo los algoritmos exponen a los menores a material adictivo y dañino, agravando ansiedad, depresión o problemas de autoestima. También señalan que el tiempo excesivo frente a pantallas perjudica el desarrollo de habilidades sociales y críticas.
Exigen "una aplicación a nivel europeo que refuerce los controles parentales, garantice una verificación de edad adecuada y restrinja el uso de ciertas aplicaciones". La meta sería integrar sistemas de verificación en dispositivos como smartphones.
La Comisión Europea planea lanzar en junio una app de verificación de edad que, según insisten, preservará la privacidad. El mes pasado, publicó borradores de directrices —aún no vinculantes— que incluyen configurar perfiles de menores como privados por defecto y facilitar el bloqueo de usuarios.
Paralelamente, la UE investiga a Meta (Facebook e Instagram) y a TikTok bajo la Ley de Servicios Digitales (DSA), acusándolos de no hacer lo suficiente para proteger a los niños. En el caso de Meta, sospechan que sus herramientas de verificación de edad son ineficaces.
La semana pasada, también abrió una investigación a cuatro plataformas pornográficas por no impedir el acceso de menores.
Mientras, las negociaciones sobre una ley contra el abuso sexual infantil siguen estancadas debido a preocupaciones sobre posibles violaciones a la privacidad en comunicaciones cifradas. La iniciativa ha enfrentado a defensores de la privacidad y partidarios de la protección infantil, sin lograr aún un consenso.
Publicidad
Publicidad
