¡La IA está en boca de todos y por todas partes! También en la Facultad de Veterinaria de la UCH CEU donde, desde el pasado curso, viene desarrollándose un proyecto docente que promueve el conocimiento y buen uso de la IA entre los futuros veterinarios. Desde ese foro de reflexión colectiva han ido surgiendo numerosos interrogantes, pero también algunas certezas.
Entre las certezas una que, no por obvia, deja de tener interés antropológico: la IA nos inquieta… Ese desasosiego aparece en las recientes encuestas sobre percepción de la IA, por ejemplo en la encuesta Funcas, donde los encuestados españoles anteponen, muy mayoritariamente, la regulación de la IA a las cuestiones de desarrollo. Y es humanamente comprensible la confianza mayoritaria en la necesidad de un marco regulatorio sólido porque, al tiempo que la IA abre el pensar y el obrar a nuevas formas, inexploradas e ilusionantes, también parece terminar con los modos habituales de estudiar, investigar y trabajar… y eso ¡nos asusta!
Es humanamente comprensible la confianza mayoritaria en la necesidad de un marco regulatorio sólido
La IA es indudablemente un elemento social y anímicamente disruptivo… Nos hace oscilar entre los extremos emocionales del entusiasmo y del miedo. De esa ambivalencia de la IA querría hablar aquí.
Un contexto de gran incertidumbre
En los últimos años, desde que se popularizó la IA generativa con ChatGPT en noviembre de 2022, hemos vivido en una permanente situación de incertidumbre respecto del desarrollo de la IA a nivel mundial. Por ejemplo, a finales del pasado enero llegaban noticias de la sacudida producida en los mercados mundiales por el modelo de IA presentado por la empresa china DeepSeek, gratuito y de código abierto. El desplome de las acciones de Nvidia, el mayor fabricante de chips de IA del mundo con sede en California fue inmediato, también el de su homólogo europeo ASML con sede en Países Bajos.
La guerra comercial entre China y EE.UU. no es nueva, las maniobras por el control de la aplicación de vídeo china TikTok empezaron en 2020, pero los esfuerzos de ambas potencias por liderar la «carrera por la IA» enconan la tensión entre bloques. Los aranceles a las importaciones de China, anunciados por el presidente Trump nada más jurar su cargo, la concentración del poder político y económico en manos del magnate tecnológico Elon Musk y los rumores sobre el uso de la IA en las escuelas chinas para medir la eficiencia de los alumnos no contribuyen a serenar los ánimos. Si uno atiende a las noticias de actualidad, el desarrollo de la IA aparece como un suculento mercado que unos pocos se disputan y no como una oportunidad de progreso para todos.
El desarrollo de la IA aparece como un suculento mercado que unos pocos se disputan
El recelo prudente respecto de la IA traduce, a nivel subjetivo, una realidad marcada por la volatilidad. Y no se trata sólo de incertidumbre en los mercados bursátiles, sino del riesgo de fluctuaciones violentas tanto en el desarrollo tecnológico como en la comercialización de aplicaciones de todo tipo y para todo tipo de clientes (consumidores, empresas, instituciones).
A las tensiones geopolíticas se suma la ubicuidad de la IA. Esta tecnología, utilizada de forma generalizada en multitud de actividades cotidianas, ha irrumpido en nuestras vidas de modo tan abrupto y es tan potente que, simplemente, no hemos tenido tiempo de asimilarla. Toda la comunidad universitaria se encuentra hoy en fase de adaptación. También en este punto, el desconcierto tiene dimensión objetiva: profesores y estudiantes tenemos razones fundadas para mostrarnos cautelosos. Conocemos, por ejemplo, los riesgos de desinformación que la IA generativa entraña; también la inmediatez con la que se puede generar todo tipo de resultado (texto, imagen, música o programas informáticos). El temor a que la IA pueda mermar la calidad de las producciones, en particular de las producciones científicas, explica que, muy mayoritariamente, no se renuncie a la verificación humana.
El desarrollo de la IA surge en una época que las teorías de la cultura contemporáneas han denominado «posmodernidad»
El desarrollo de la IA surge en una época que las teorías de la cultura contemporáneas han denominado «posmodernidad» . El término, acuñado desde las ciencias sociales en la década de los 70, pretendía dar nombre a un contexto en el que la verdad ya no es un valor epistemológico indiscutido: en la postmodernidad la verdad se descompone, se pluraliza en verdades fluidas, cambiantes, en relatos y versiones. La IA podría convertirse, si no se regulan adecuadamente sus usos, en el arma de destrucción masiva de la pretensión de verdad. La formación universitaria, especialmente la científico-experimental, es incompatible con la posmodernidad epistemológica. Por lo tanto, a todos los miembros de la universidad nos compete que el uso de la IA no entre en conflicto con el rigor científico y la generación de conocimiento.
Con todo ello, considerar el desarrollo de la IA como la gran aventura de nuestro tiempo y sentir cierta aprensión por los riesgos que el nuevo camino entraña, también mantenerse alerta ante los posibles extravíos, resulta simplemente razonable. En la comunidad universitaria, así como en el conjunto de la sociedad, se percibe claramente que, de las decisiones - nacionales e internacionales - que se tomen hoy, dependerá que el mundo transformado por la IA permita (o no) que se alcancen mejores condiciones de vida para todos. Entendemos que esas condiciones de vida deseables remiten a un conjunto de fines que no pueden ser tratados como excluyentes entre sí. Si el desarrollo e implementación de la IA no persigue, conjuntamente, objetivos dispares pero igualmente valiosos como la generación de conocimiento, la generación de riqueza y la generación de oportunidades laborales y personales, la IA no cumplirá las expectativas de bienestar que ha generado. Tampoco se podrá hablar de progreso en un sentido humanizador si todo lo anterior no se articula con la sostenibilidad medioambiental.
¿Cómo conseguir que la IA tenga efecto civilizador?
Esta pregunta, ética, política y jurídica, ha guiado la reflexión sobre IA por parte de las instituciones europeas y ha recibido respuestas sucesivas. La primera, en 2019, en forma de Directrices éticas para una IA fiable , a la que siguieron, en 2022, las Directrices éticas sobre el uso en la educación, hasta llegar a la IA Act aprobada en 2024. Con estos textos, la UE lanza un mensaje claro al mundo: Europa no renuncia a la exigencia civilizadora para la IA y propone un modelo regulatorio en este sentido. Las Directrices son claras al respecto:
«Creemos que la IA tiene el potencial de transformar significativamente la sociedad. La IA no es un fin en sí mismo, sino un medio prometedor para favorecer la prosperidad humana y, de ese modo, mejorar el bienestar individual y social y el bien común, además de traer consigo progreso e innovación. En particular, los sistemas de IA pueden ayudar a facilitar el logro de los Objetivos de Desarrollo Sostenible de las Naciones Unidas, como la promoción del equilibrio entre mujeres y hombres y la lucha contra el cambio climático, la racionalización del uso que los seres humanos hacemos de los recursos naturales, la mejora de la salud, la movilidad y los procesos de producción y el seguimiento de los avances en los indicadores de sostenibilidad y cohesión social.»
Las propuestas de las instituciones comunitarias reivindican la identidad europea
Esa voluntad civilizadora puede entenderse como ambiciosa pero no como irrealista. Las propuestas de las instituciones comunitarias reivindican la identidad europea y en ese sentido son realistas. Parten de una realidad histórica, la de los derechos civiles conseguidos en las sociedades europeas para la protección de sus ciudadanos y residentes. Realistas también porque se inscriben dentro de la política medioambiental europea (con particular preocupación por el alto consumo de recursos energéticos e hídricos que demanda el desarrollo de la IA). Europa acota así la IA entre dos límites irrenunciables: preservar los valores y derechos civiles que nuestras democracias consideran fundamentales para las personas, y propiciar el desarrollo sostenible.
En este momento, Europa dispone de una Ley de IA con la que aspira a convertirse en líder mundial de la llamada IA segura. El Reglamento Europeo de Inteligencia Artificial (IA Act) entró en vigor el 1 de agosto de 2024 y apuesta por un modelo garantista. Presenta una serie de directrices tanto para el desarrollo como para el uso de la IA dentro de la UE, enfocando la regulación desde los posibles riesgos para la salud, la seguridad y los derechos fundamentales de los ciudadanos. Establece cuatro niveles en la clasificación de riesgos de los sistemas de IA y distingue obligaciones y requisitos en función de ellos.
La UE aspira a protegernos de los usos espurios de la IA
Con este texto con rango de ley, la UE aspira a protegernos de los usos espurios de la IA y establece la relación causal entre la IA fiable y la mejora de los servicios públicos y privados. Partiendo de la fiabilidad y la transparencia, la IA podrá contribuir a una mejor asistencia escolar y sanitaria, a un transporte más seguro y limpio, aportar productos y servicios innovadores en los ámbitos de la energía y la seguridad, generar una mayor productividad y una fabricación más eficiente permitiendo que los gobiernos se beneficien de servicios más baratos y sostenibles, como el transporte, la energía y la gestión de residuos.
El reto es evidente: consiste en conseguir que la IA esté efectivamente al servicio de todos estos beneficios colectivos. Ciertamente es un proyecto ambicioso. Además, algunos no dudan en tachar la postura europea de excesivamente garantista y perjudicial para sus intereses económicos y geoestratégicos... Esa es también una cuestión abierta. En cualquier caso, el marco regulatorio europeo de la IA pretende ser una respuesta firme a la preocupación social reinante.
El mundo de la IA parece hoy irreversible y nos exige a todos vivir en él de forma informada y con responsabilidad. Desde la universidad, así como desde la sociedad en su conjunto, muchos pensamos que se trata de utilizar los nuevos sistemas inteligentes como instrumentos y no como sustitutos de los seres humanos. La formación universitaria debe asumir el reto y propiciar que los estudiantes adquieran habilidades en IA y se familiaricen con esta nueva sinergia. Sin duda, entre las competencias profesionales de los actuales estudiantes habrá que contemplar la capacidad de colaboración estrecha entre agentes humanos y sistemas de IA. Sin embargo, no confundamos colaborar con renunciar, ni delegar medios con delegar fines… No sería razonable delegar en la IA la voluntad civilizadora que nos incumbe como seres humanos... La intuición de que eso podría ocurrir es, en suma, lo que hoy nos inquieta.
Inmaculada Cuquerella Madoz es profesora de Antropología filosófica en la Universidad CEU Cardenal Herrera.