Niño durante la cuarentena con el teléfono móvil
El PP propone prohibir el acceso a redes sociales a los menores de 16 años
Solo podrán aquellos que tengan un consentimiento expreso de los padres
El Partido Popular ha registrado en el Congreso más de medio centenar de enmiendas al proyecto de ley de Protección al Menor en el Entorno Digital del Gobierno, entre las que figura la prohibición de acceso a redes sociales de menores de 16 años salvo que los padres den su consentimiento expreso.
La vicesecretaria Cuca Gamarra ha explicado en un comunicado remitido por la formación que, con este paquete de enmiendas, pretenden «mejorar la protección de los menores y ayudar a las familias», siempre de un modo «constructivo» para «mejorar la propuesta del Gobierno» y «garantizar la seguridad de niños y adolescentes», recoge Europa Press.
Entre las principales medidas, el PP ha propuesto prohibir la entrada a redes sociales de menores de 16 años, con la excepción de aquellos que tengan entre 14 y 16 y que cuenten con consentimiento «expreso y verificable» de progenitores, tutores o representantes legales.
Además, en este último caso, han instado a establecer un «horario de descanso digital» para estos menores que iría desde las 22.00 hasta las 8:00 horas.
Para hacer todo esto posible, el Partido Popular ha planteado obligaciones para las plataformas digitales, que tendrán que contar con un sistema de etiquetado visible de contenidos, controlar el acceso a menores a sus servicios, prevención y detección temprana de contenidos que puedan afectar o poner en riesgo la salud o integridad de los menores, así como poner en marcha mecanismos para la denuncia, de forma anónima y confidencial de situaciones de ciberacoso o acoso digital, entre otras cuestiones.
Por su parte, también será obligatorio que haya controles parentales preinstalados en los sistemas operativos de los dispositivos con conexión a internet y que se provea formación básica a los padres sobre su configuración en los puntos de venta de dispositivos.
Con sus propuestas, el PP ha argumentado que pretende dotar de más instrumentos a las familias para poder proteger a los menores, como es poder tener acceso a los dispositivos, de forma proporcionada y respetuosa, o acceder a una geolocalización que tendrán vetada las plataformas digitales, excepto consentimiento explícito y revocable de los responsables legales.
Medidas ante el suicidio y bullying
El PP también ha propuesto actualizar la legislación para que el Código Penal pueda ser aplicado en las nuevas circunstancias que están surgiendo con las redes sociales.
Así pues, las enmiendas del PP han pedido penas de prisión para quien genere, incorpore, remita, difunda o distribuya contenidos que inciten al suicidio o propongan retos virales o prácticas alimentarias que pongan en riesgo la salud de menores o personas con discapacidad.
Por otro lado, frente a los «numerosos casos» de acoso escolar, el PP ha pedido reformar la ley de responsabilidad penal del menor para proteger a los menores víctimas de acoso o bullying frente a los menores agresores. Con estas enmiendas, se incorporaría la prohibición de comunicación o acceso a las víctimas a través de medios digitales por parte de los infractores.
En este sentido, la formación también ha contemplado la protección de los menores de los algoritmos que les puedan manipular, utilizando sus datos personales o comportamientos para alterar su voluntad mediante presiones o estrategias de diseño persuasivo abusivo, así como medidas frente a prácticas como el scroll infinito o cualquier otra que genere adicción y dependencia.
Pornografía infantil
A su vez, el Partido Popular ha retirado en sus enmiendas la palabra «no consentida» del artículo 3 del proyecto de ley porque la formación considera no que puede existir ninguna pornografía infantil «consentida», por lo que es ilegal cualquier difusión de contenido sexual infantil, así como su apología.
En este sentido, el PP también ha incluido como pornografía infantil cualquier contenido sexual en el que se utilicen objetos que representen de manera visual a un menor, así como aquellos contenidos que hayan sido generados por Inteligencia Artificial (IA).
Para esto último, la formación ha pedido establecer una supervisión y coordinación con las plataformas para prevenir, detectar y eliminar cualquier tipo de contenido tanto real como realista, generado o manipulado digitalmente, que afecte a menores, utilizando tecnologías como la detección automática y el bloqueo inmediato de ese material.
Además, han solicitado la puesta en marcha de protocolos «ágiles y efectivos» de denuncia, retirada y bloqueo de cualquier contenido sexual o íntima que afecte a menores.