Fundado en 1910

En la película de Disney de 2008, Wall·E, la humanidad aparece convertida en una masa pasiva, dependiente de máquinas que han externalizado casi todas sus capacidades: memoria, esfuerzo físico e incluso decisión. La pregunta que hoy nos hacemos con la inteligencia artificial es inquietantemente similar: ¿vamos hacia una sociedad más eficiente… o simplemente más mediocre?

La evidencia reciente obliga a matizar. Por un lado, la inteligencia artificial –especialmente la generativa– mejora de forma clara la productividad. Por otro, introduce dinámicas que pueden afectar a la motivación, al esfuerzo y, en última instancia, a la calidad del trabajo. Un experimento con ilustradores profesionales muestra que el uso de IA eleva rápidamente la calidad inicial de los resultados, pero reduce el rendimiento marginal del esfuerzo: los usuarios mejoran rápido… y dejan de esforzarse antes. El resultado no es necesariamente peor, pero sí más «plano»: menos excelencia sostenida.

Aquí emerge lo que podríamos llamar la «trampa de la mediocridad». Si la IA permite alcanzar un nivel aceptable en poco tiempo, muchos individuos optan racionalmente por detenerse ahí. De hecho, en ese mismo estudio, el 77 % de los participantes redujo el tiempo dedicado a la tarea y una parte significativa terminó produciendo trabajos de menor calidad final, no por incapacidad, sino por decisión estratégica. No es que la IA nos haga peores, sino que cambia los incentivos: reduce el coste de ser mediocre.

Sin embargo, interpretar esto como un proceso inevitable sería un error histórico. Como recuerda el análisis de largo plazo sobre tecnología y cognición, cada gran innovación –desde la escritura hasta internet– ha tenido efectos ambivalentes: amplía capacidades y, al mismo tiempo, erosiona otras. La escritura debilitó la memoria oral; la calculadora redujo el cálculo mental; el GPS ha erosionado la orientación espacial. Y, sin embargo, nadie sostendría seriamente que estas tecnologías nos han hecho «más tontos» en términos globales.

Lo que sí han hecho es transformar la naturaleza del conocimiento. La inteligencia artificial representa un nuevo salto: no solo externaliza memoria o cálculo, sino también procesos de generación, síntesis y explicación. Es lo que algunos autores denominan «externalización generativa»: la capacidad de delegar partes del pensamiento en sistemas algorítmicos. Esto cambia radicalmente qué significa aprender.

Aquí es donde el sistema educativo se convierte en el elemento crítico. El problema no es la tecnología, sino cómo se integra. Si la IA se introduce en un sistema que ya premiaba respuestas rápidas, reproducción de contenidos y mínimo esfuerzo, entonces sí: reforzará la mediocridad. Pero si se incorpora en un modelo que valore el juicio, la profundidad y la capacidad de ir más allá de la primera respuesta, el efecto puede ser el contrario.

La clave está en entender que la IA comprime el proceso de aprendizaje. Reduce la distancia entre pregunta y respuesta, entre ignorancia y apariencia de conocimiento. Esto tiene dos consecuencias. La primera es positiva: democratiza el acceso y permite a más estudiantes alcanzar niveles funcionales rápidamente. La segunda es problemática: puede generar una ilusión de comprensión sin verdadero aprendizaje.

Por eso, el riesgo no es tanto cognitivo como educativo. La evidencia sobre cognitive offloading muestra que externalizar tareas mentales puede liberar recursos y mejorar el rendimiento, pero también reducir la consolidación del conocimiento si no se gestiona adecuadamente. Es decir, la IA puede hacernos más eficientes… pero menos profundos.

En este contexto, el papel del profesor cambia, pero no desaparece; al contrario, se vuelve más importante. Ya no es un transmisor de información –esa función la realiza mejor la tecnología–, sino un diseñador de experiencias de aprendizaje que obliguen al estudiante a ir más allá del «primer resultado». La diferencia entre usar IA para responder y usarla para pensar es, esencialmente, pedagógica.

Esto conecta con uno de los puntos más relevantes del debate actual: la motivación. El problema detectado en el estudio de los ilustradores no es tecnológico, sino conductual. La IA reduce el retorno marginal del esfuerzo y, por tanto, exige nuevos mecanismos de incentivo para alcanzar la excelencia. En educación, esto implica rediseñar evaluaciones, tareas y objetivos.

Si evaluamos solo el resultado final, la IA favorecerá la homogeneización y el «suficiente». Si evaluamos el proceso, la argumentación, la iteración y la mejora, entonces la IA puede convertirse en una herramienta para profundizar más, no menos. La excelencia ya no estará en producir una respuesta, sino en cuestionarla, mejorarla y contextualizarla.

En este sentido, la inteligencia artificial puede incluso reducir desigualdades. Algunos estudios sugieren que los individuos con menor nivel inicial se benefician más de estas herramientas, ya que compensan déficits técnicos y permiten centrarse en aspectos conceptuales. Esto abre una oportunidad clara para el sistema educativo: utilizar la IA como mecanismo de nivelación, no de sustitución.

En definitiva, la pregunta correcta no es si la IA nos hace mediocres, sino si estamos diseñando un sistema que incentive la mediocridad. La tecnología, por sí sola, no determina el resultado. Como ha ocurrido históricamente, amplifica tanto lo mejor como lo peor de nuestras instituciones.

Volviendo a Wall·E, el problema no era la tecnología, sino la renuncia humana a decidir, a esforzarse y a aprender. La IA no nos condena a ese futuro. Pero tampoco nos protege de él.

La diferencia, como casi siempre en educación, no está en la herramienta, sino en cómo decidimos usarla.

  • Jorge Sainz es catedrático de Economía Aplicada de la Universidad Rey Juan Carlos