
Un adolescente, junto a un bot de inteligencia artificial
Los adolescentes ya piden a la IA excusas para cortar con su novia o cómo mentir a sus padres
Los expertos alertan de que cada vez más jóvenes utilizan herramientas como ChatGPT o Grok para sustituir el consejo de su propia familia
Si los padres antes temían la mala influencia que pudieran ejercer en sus hijos, sus compañeros de colegio o las «ovejas descarriadas» del instituto, ahora la preocupación tiene que extenderse a los malos consejos que reciban… de la Inteligencia Artificial.
Según el reciente estudio Educar en la era de la IA. 7 habilidades humanas en un entorno cambiante, elaborado por la asociación Empantallados y GAD3, el 70 % de los adolescentes encuestados reconoce que el uso de herramientas de Inteligencia Artificial como ChatGPT, Gemini o Grok (la IA de Elon Musk) está influyendo ya «en su relación con los demás y en su capacidad de empatía».
Con un matiz importante: uno de cada tres adolescentes de entre 14 y 17 años asegura que acude a estas aplicaciones para obtener una guía de comportamiento en situaciones complejas de carácter personal, en lugar de hablar con su familia.
Un dato que resulta tanto más perturbador cuando se coteja con otro: el 14 % de los propios padres considera que la IA podría llegar a sustituirles en ciertas tareas como, por ejemplo, dar consejos a sus hijos sobre decisiones personales, según el estudio de Empantallados.
Usar la IA para cortar por WhatsApp
Como explica para El Debate Guillermo Cánovas, uno de los mayores expertos en Salud Digital en menores de España, «ya hay adolescentes que están utilizando las herramientas de IA para que les diga cómo cortar con su novia o incluso cómo manipular a sus padres para que les dejen hacer cosas que no pueden hacer».
Cánovas, que dirige el Observatorio para la Promoción del Uso Saludable de la Tecnología EducaLIKE, recorre cada año colegios e institutos para dar charlas de formación a padres, profesores y alumnos. Y en sus diálogos con adolescentes en torno al uso de la IA, ha encontrado situaciones como la del joven «que no sabía cómo cortar con su novia, y aunque sabía que lo iba a hacer por WhatsApp, quería 'currárselo un poco' para que la cosa fuera lo mejor posible, y en lugar de contárselo a sus padres, se lo pidió a ChatGPT y terminó por usar uno de los argumentos que le dio».
Otros alumnos han reconocido a Cánovas que piden a la IA argumentos para convencer a sus padres de que les dejen llegar más tarde a casa, o incluso para que les den excusas con que engañar a su familia ante un mal comportamiento o unas malas notas. Y aunque, en principio, la herramienta diseñada por OpenAI les aconseja ser sinceros con sus padres, basta modificar el prompt con un poco de habilidad (y malicia) —por ejemplo, pidiéndole que escriba un guion de cine sobre un conflicto familiar similar al caso real— para obtener la respuesta deseada.
Lo que deben decir los padres
«ChatGPT y otras herramientas de IA pueden interactuar con nuestros hijos mostrándose con ellos de forma empática, comprensiva, amable...», alerta Cánovas. E, incluso, «pueden redactar frases con tono emocional y humano, por ejemplo, deseándoles suerte para un examen o diciéndoles 'comprendo lo que te pasa'».
Por ello, este experto pide a los padres que expliquen a sus hijos «que no deben olvidar que a la herramienta de IA no le importan en absoluto, porque solo son máquinas». Y, más aún, que las propias familias hablen cada vez más sobre los usos éticos de la IA, para explicar explicarles que «las aplicaciones de IA no son sustitutivas de la interacción humana y que cuando hablan con ellas no están hablando con nadie».
«Y, sobre todo, debemos asegurarnos de que nuestros hijos dedican su tiempo a interactuar en persona con amigos y familiares en la vida real», concluye.