Fundado en 1910
El ojo inquietoGonzalo Figar

En la era de la IA, estudia filosofía

Hacia eso debemos encaminarnos: a formar personas íntegras, capaces de liderar –en la política, en la empresa o en la sociedad– por su capacidad de comprensión, de juicio, de profundidad, de empatía, de relacionarse, de transmitir y, por supuesto, por sus valores

Da igual si la inteligencia artificial (IA) te entusiasma o te inquieta. Da igual si crees que va a cambiarlo todo para bien o si sospechas que traerá el Apocalipsis. Una cosa está clara: la IA ya está provocando una disrupción de un calibre nada habitual.

La IA ya analiza información compleja, redacta textos, programa, diseña, codifica, planifica y ejecuta procesos enteros. Y lo hace cada vez mejor, más rápido y a menor coste. Queramos o no, esto ya está transformando el trabajo y va a seguir haciéndolo. Por su escala y por su velocidad, gestionar esta transición va a ser uno de los grandes retos económicos y sociales de los próximos años.

Y aquí aparece una paradoja interesante. En el momento en que la tecnología parece capaz de hacerlo casi todo, vuelve a ser relevante algo que muchos daban por amortizado: las humanidades.

Durante años, se ha repetido que disciplinas como la filosofía, la ética, la historia o la retórica eran interesantes, incluso elegantes, pero poco prácticas. Saberes valiosos desde el punto de vista cultural, pero secundarios en el mercado laboral, cada vez más técnico, más financiero, más productivo. Sin embargo, el avance de la IA me hace pensar que, cuanto más poderosa se vuelve la tecnología, más evidente se hace la necesidad de aquello que no es técnico.

La IA nos obliga a enfrentarnos a preguntas que no se resuelven con más capacidad de cálculo ni con mejores modelos. Preguntas sobre fines, sobre límites, sobre prioridades. Sobre qué merece la pena y qué no. Sobre lo que está bien y lo que está mal. En ese sentido, la tecnología no reduce la importancia de lo humano; la pone en primer plano. Y ahí es donde las humanidades reaparecen, no como adorno intelectual, sino como una auténtica infraestructura de sentido.

Esta necesidad se manifiesta, al menos, en dos niveles distintos.

El primero tiene que ver con lo que ocurre dentro del propio funcionamiento de la inteligencia artificial. La IA es extraordinaria optimizando medios y alcanzando resultados, pero no tomando decisiones sobre fines ni valores. Dicho de forma sencilla, responde muy bien a la pregunta «cómo», pero no a la pregunta «para qué».

No sabe por sí sola qué objetivos son legítimos, qué riesgos son aceptables o qué criterios deben prevalecer cuando entran en conflicto, porque carece de algo esencialmente humano: juicio moral, juicio crítico y una comprensión real del contexto cultural, social y emocional en el que se toman las decisiones.

Por eso, toda IA avanzada necesita algo que no puede generar por sí misma: motivaciones y valores. Necesita que alguien le indique qué merece la pena perseguir y qué no, dónde están los límites y por qué no todo lo técnicamente posible es moralmente aceptable. A eso es a lo que podemos llamar «darle alma» a la tecnología. Y, para darle esa alma, las empresas de IA van a necesitar por igual a programadores y a humanistas.

Esto se vuelve todavía más relevante si pensamos en un escenario donde desarrollamos sistemas autónomos, capaces de aprender de forma abierta y de tomar decisiones por sí mismos. Más vale que, para entonces, les hayamos enseñado bien qué merece la pena y qué no, qué límites no deben cruzarse y qué significa, en última instancia, ser persona. Una inteligencia enorme, sin ese pozo moral y humanista previo, puede ser extremadamente eficaz y extremadamente preocupante al mismo tiempo.

El segundo plano opera fuera del sistema, en el mundo de lo que la IA no hace. Incluso aunque la IA sea capaz de hacer cada vez más cosas, hay ámbitos que no puede asumir. Liderar personas, expresarse bien en vivo, generar confianza, asumir responsabilidad, tomar decisiones difíciles o convivir con las consecuencias de esas decisiones seguirán siendo tareas humanas. La IA puede simular empatía, pero no vivirla ni comprenderla desde dentro del entramado cultural y social en el que se mueven las personas. Puede producir palabras, pero no hacerse cargo de lo que provocan.

Si aceptamos este diagnóstico, la siguiente pregunta es inevitable: ¿estamos formando a las nuevas generaciones para estas habilidades que sí perdurarán?

Sé que, al menos, en la Universidad CEU San Pablo, donde doy clase, sí que se han puesto a ello con un Grado en Filosofía, Política y Comunicación. En un mundo donde muchas habilidades técnicas serán asumidas por la inteligencia artificial, lo verdaderamente diferencial será tener profundidad intelectual y moral, ser capaz de pensar, de comprender personas, sistemas y sociedades, de convencer, de comunicar, de generar confianza, de asumir responsabilidades.

No sé si el líder del mañana tendrá que saber Excel, memorizar un tocho de Derecho o dominar una herramienta concreta que probablemente quedará obsoleta en pocos años. Lo que sí parece claro es que necesitará criterio, juicio moral, conocimiento del contexto en el que actúa, empatía y una sólida capacidad de comunicación. Y todo eso, además, apoyado en valores claros que orienten la toma de decisiones hacia fines éticos y morales.

Hacia eso debemos encaminarnos: a formar personas íntegras, capaces de liderar –en la política, en la empresa o en la sociedad– por su capacidad de comprensión, de juicio, de profundidad, de empatía, de relacionarse, de transmitir y, por supuesto, por sus valores.

En la era de la IA, esa formación humanística no es un lujo; es una necesidad.

comentarios
tracking

Compartir

Herramientas