Fundado en 1910
En los últimos años se han borrado más de 200.000 imágenes íntimas compartidas sin permiso

En los últimos años se han borrado más de 200.000 imágenes íntimas compartidas sin permisoEvgeny Gostuhin / iStock

Si crees que han desnudado a tu hijo con una IA, así puedes localizar y borrar la foto en cinco pasos

El reconocido experto en Inteligencia Artificial Guillermo Cánovas explica a los padres qué pueden hacer si creen que hay una foto de sus hijos desnudos, real o alterada con IA, difundiéndose en internet.

El mal uso de la Inteligencia Artificial contra la integridad de los adultos, pero también de los adolescentes y los niños, es mucho más que una mera posibilidad, o una amenaza infundada.

Ya no son sólo celebrities quienes lo denuncian: los casos de menores que han visto violentada su intimidad con la difusión de imágenes suyas alteradas con IA para crear desnudos y videos o fotografías pornográficas (los llamados deepfakes) se suceden periódicamente.

Y, de hecho, según el estudio Así somos. El estado de la adolescencia en España, publicado el pasado septiembre por Plan International, el 84 % de las chicas de entre 12 y 16 años ya temen que otras personas usen su imagen para crear contenidos sexuales falsos, mediante aplicaciones o páginas web de IA.

Consciente de la preocupación que este tipo de acciones está generando ya en los adolescentes y en las propias familias, Guillermo Cánovas, uno de los mayores expertos en salud digital en menores de España, ha publicado los cinco pasos que se deben seguir cuando un adulto sospecha que hay una imagen sexual, suya o de sus hijos, circulando por internet.

Cánovas dirige el Observatorio para la Promoción del Uso Saludable de la Tecnología EducaLIKE, recorre cada año colegios e institutos para dar charlas de formación a padres, profesores y alumnos, y ha sido galardonado por Unicef por su labor en la protección digital de los menores. Y sabe de primera mano que esta amenaza no es un escenario teórico, sino un atentado real y cotidiano contra muchos menores.

Cómo localizar y eliminar esas imágenes

A pesar de que muchos adultos lo ignoran, «si alguien te ha desnudado con una IA, a ti o a tu hijo» es posible «localizar y eliminar esas fotos de redes sociales y de webs para adultos», explica en uno de sus últimos posts.

Y explica cómo. Lo primero «para eliminar imágenes de desnudos reales, difundidas sin consentimiento, o imágenes generadas con inteligencia artificial (deepfakes) denúncialo» y, después, sigue cinco pasos, explica el experto.

En primer lugar, «descarga en tu dispositivo la imagen que quieres localizar en internet y eliminar». Después, «si la imagen es de un adulto, entra en la web StopCNII, o en la del National Center for Missing & Exploited Children si es de un menor», apunta.

Ya en esos sitios web, toca el tercer paso: «Abre un 'caso' y sube la imagen que necesitas encontrar y eliminar. Estas entidades crean una huella digital o 'hash' único para esa foto». Es decir, que como explica Cánovas, «no guardan la foto: la eliminan y operan desde ese momento con el hash o huella digital».

El cuarto paso lo hacen esas propias herramientas, que «envían la huella a las webs colaboradoras: desde Instagram, Facebook y TikTok, X o Microsoft Bing, hasta sitios de contenido adulto».

Por último, «estas entidades colaboradores proceden a la retirada y eliminación de dicha imagen, y te comunican los resultados».

Más de 200.000 archivos borrados

Como explica Guillermo Cánovas, tanto StopCNII, como la National Center for Missing & Exploited Children «tienen una tasa de efectividad del 90%».

Que, traducido en cifras, da idea de la magnitud del problema: «En los últimos 10 años han conseguido eliminar más de 200.000 imágenes íntimas individuales no consentidas en Internet», apunta.

Y concluye con un consejo para las familias, que remite a la propia web especializada que Cánovas ha creado para la formación de adultos y niños: «Educa y protege a tus hijos frente al uso incorrecto de la IA».

comentarios
tracking

Compartir

Herramientas