Fundado en 1910
La educación en la encrucijadaJorge Sainz González

La amenaza de ChatGPT en la Universidad

Como educadores, tenemos la responsabilidad de guiar a los estudiantes hacia un uso crítico, reflexivo y éticamente informado de la IA, que combine competencia técnica con conciencia social

La irrupción de ChatGPT, al igual que otras herramientas similares cómo Gemini, Copilot, Perplexity o Claude en las aulas universitarias, ha desatado un debate sobre el futuro mismo de la educación superior. Desde su lanzamiento en 2022, este modelo de lenguaje desarrollado por OpenAI ha puesto contra las cuerdas nuestras certezas pedagógicas, obligándonos a replantear una pregunta fundamental: ¿pueden estas herramientas fortalecer el pensamiento crítico de nuestros estudiantes o, por el contrario, lo están erosionando?

La principal preocupación que compartimos muchos docentes es la sobredependencia. Algunos estudiantes delegan en la inteligencia artificial procesos mentales que deberían ejercitar por sí mismos: dejan de analizar, cuestionar y resolver problemas de forma autónoma, confiando ciegamente en las respuestas generadas por algoritmos.

Este fenómeno, llamado «desvinculación cognitiva», tiene raíces más profundas de lo que parece. Como advierten expertos de instituciones como Brookings, los modelos actuales se entrenan con datos que reflejan probabilidades estadísticas, no juicios éticos o contextuales. Los estudiantes que confían en estos sistemas sin cuestionarlos se convierten en consumidores pasivos de información procesada, perdiendo agencia sobre su propio aprendizaje.

La amenaza no se limita al pensamiento crítico: está en juego el desarrollo de competencias como la creatividad, el razonamiento complejo y la capacidad de síntesis. En definitiva, aquello que define la excelencia universitaria.

Conviene, sin embargo, poner las cosas en perspectiva. Los modelos de lenguaje, por impresionantes que parezcan, no constituyen una revolución comparable a la invención de internet o el motor de combustión. Su adopción debe entenderse como una fase más en el largo proceso histórico de adaptación universitaria a la tecnología.

Además, no podemos ignorar que empresas como OpenAI operan en un contexto económico y empresarial, donde la educación se ha convertido en un nicho de negocio. Las universidades debemos fomentar la experimentación docente, sí, pero sin caer en la trampa de imponer el uso de estas herramientas por mera presión comercial o mediática.

Pero sería ingenuo quedarnos en la crítica. La tecnología que adormece la mente puede estimularla si se utiliza con fines pedagógicos bien definidos. Cuando los estudiantes usan ChatGPT para verificar respuestas o analizar argumentos, activan procesos metacognitivos de evaluación y contraste.

Este «efecto evaluador» convierte a la IA en un espejo del pensamiento crítico: el estudiante aprende del acto de juzgar su validez. En lugar de aceptar las respuestas como incuestionables, aprende a identificar limitaciones, detectar sesgos y cuestionar la coherencia de los argumentos. El aprendizaje con IA puede convertirse en un laboratorio cognitivo que refuerce la curiosidad intelectual, la autonomía y la verificación constante: pilares esenciales del pensamiento crítico.

Existe la necesidad de comprender el funcionamiento interno de las herramientas que utilizamos. Aprender con IA no debe implicar dejar de aprender cómo funciona la IA. El uso de una calculadora no exime de saber sumar o multiplicar, comprender los principios detrás de los modelos de lenguaje permite usarlos de forma más crítica y eficaz. Las universidades debemos formar a los estudiantes tanto como usuarios de IA, como intérpretes y auditores de sus mecanismos.

Esta alfabetización algorítmica se convierte así en una competencia central de la educación superior contemporánea. Entender el código, los sesgos de los datos y las limitaciones de los modelos es una forma moderna de pensamiento crítico. Ya sea en programación, análisis de datos o humanidades digitales, el estudiante necesita saber primero cómo están hechas las cosas para poder después pedir, evaluar y cuestionar lo que la IA produce.

Sin embargo, sería un error reducir el debate a sus dimensiones técnicas o pedagógicas. Los modelos de IA son instrumentos de predicción controlados por intereses corporativos y financieros, lo que introduce una dimensión política ineludible.

La educación universitaria no puede reducir la IA a una cuestión técnica o instrumental. Su alineamiento con valores humanos debe ser contextual y deliberativo, no impuesto desde centros de poder tecnológicos. Y esta reflexión crítica sobre las estructuras de poder es, precisamente, uno de los ejercicios más valiosos de pensamiento crítico que podemos ofrecer a nuestros estudiantes.

La gobernanza de la IA en contextos educativos revela tres aproximaciones radicalmente distintas, cada una con sus propios peligros. En Europa, el reciente Reglamento de Inteligencia Artificial, ha optado por una regulación exhaustiva que clasifica los sistemas según su nivel de riesgo. La intención es loable: proteger derechos fundamentales y garantizar transparencia. Pero existe el riesgo real de sobrelegislar, de ahogar la innovación pedagógica bajo capas de burocracia que conviertan cada experimento educativo con IA, Les hablo de la experiencia, en un laberinto administrativo.

Estados Unidos, por el contrario, ha elegido el camino opuesto: una desregulación casi absoluta que deja la IA educativa en manos del mercado. Aquí el peligro es la ausencia total de salvaguardas: universidades y estudiantes quedan expuestos a prácticas opacas, algoritmos sesgados y modelos de negocio que priorizan el beneficio sobre el bien común. Sin marcos éticos mínimos, la IA puede convertirse en un instrumento de vigilancia, discriminación o simple explotación comercial del conocimiento.

China representa el control estatal férreo sobre la tecnología educativa. El gobierno no solo regula, sino que determina qué contenidos pueden generarse, qué preguntas pueden formularse y cómo debe «alinearse» la IA con los valores oficiales. La IA se convierte en un instrumento de vigilancia ideológica que cercena la libertad de investigación y el debate crítico, valores fundamentales de cualquier universidad.

Frente a estos tres escenarios, las universidades debemos encontrar un equilibrio delicado: regulación para proteger derechos y valores académicos, pero flexibilidad para experimentar e innovar. Ni el exceso normativo, ni el vacío regulatorio, ni mucho menos el control autoritario pueden ser la respuesta.

La relación entre la IA y el pensamiento crítico no es binaria sino dialéctica. Estas herramientas representan a la vez una amenaza y una oportunidad, un riesgo y un recurso. Su impacto dependerá menos de la tecnología en sí que de las prácticas educativas y éticas que adoptemos.

Como educadores, tenemos la responsabilidad de guiar a los estudiantes hacia un uso crítico, reflexivo y éticamente informado de la IA, que combine competencia técnica con conciencia social. Solo así será posible aprovechar el potencial transformador de la inteligencia artificial sin sacrificar las competencias intelectuales que definen la esencia de la universidad.

El desafío está servido. Y la respuesta, como tantas veces en educación, no está en la tecnología, sino en nosotros.

Jorge Sainz González, Universidad Rey Juan Carlos

comentarios

Últimas opiniones

tracking

Compartir

Herramientas