Fundado en 1910

28 de marzo de 2024

Un robot tocando el piano

Un robot tocando el pianoUnsplash

El Debate de las Ideas

Inteligencia artificial y rosas sin pulgones

Una inteligencia artificial podrá producir ensayos y poemas sobre el amor, pero no entenderá ni sentirá nada de lo que digan sus versos

La inteligencia artificial es, como su nombre indica, artificial. Eso implica que no se da naturalmente sobre una base biológica, como ocurre con la inteligencia humana y, consecuentemente, no podrá considerarse idéntica a ella. Así me lo contaba un amigo, ingeniero de telecomunicaciones: «unas rosas de plástico pueden estar muy bien hechas, pero siempre serán rosas de plástico». Quizás las preferimos, porque no se marchitan y porque las podemos fabricar según nuestras preferencias de color o tamaño. Quizás las consideramos mejores, porque no les afecta el pulgón ni los hongos; pero son rosas artificiales. Puede que nos acabe ocurriendo lo mismo con la inteligencia artificial, Dios dirá.
Alan Turing (1912-1954) bautizó la computación de datos como inteligencia, al lograr que un sujeto no pudiese discernir si estaba chateando con otro humano o con un software. A partir de este momento, el desarrollo de la ciencia de computación de datos ha sido espectacular y se han conseguido amplificar de forma exponencial determinados procesos, como el cálculo, el almacenamiento de datos o el procesamiento de símbolos. Estos avances logran replicar procesos humanos de forma cada vez más difícil de detectar. Desde un modelo computacional de procesamiento de la información, cabrá plantearse si la inteligencia humana puede explicarse válidamente desde el modelo computacional. Las redes neuronales artificiales así lo pretenden.
La cuestión de fondo, entonces, es si los programas informáticos consiguen resultados parecidos a los de la inteligencia humana o si la inteligencia humana opera computacionalmente. Si fuese así, será cuestión de tiempo que se logre replicar la actividad de la inteligencia humana sobre una base electrónica, pero, por el momento, solo se han logrado replicar con éxito determinados procesos muy concretos.
El reto que se plantea la inteligencia artificial actualmente, siguiendo las observaciones de Ramón López de Mántaras, profesor investigador del CSIC y director del Instituto de Investigación de Inteligencia Artificial, es poder trascender estos procesos concretos para desempeñarse de forma competente al nivel de una inteligencia general. Sin embargo, en este terreno, presenta unos déficits importantes, presumiblemente derivados de la propia constitución de la inteligencia artificial.
John Searle (1932) ya lanzó, en forma de metáfora, una objeción al computacionalismo que todavía sigue vigente. La metáfora de la habitación china ilustraba la falsa ilusión de competencia lingüística de un señor que simplemente conocía con qué caracteres debía responder a unos determinados caracteres chinos que recibía por escrito, de los que desconocía su significado. Esta metáfora sirve a Searle para ilustrar cómo el procesamiento computacional es sintáctico, no semántico, y ello conlleva déficits significativos, sobre todo en el procesamiento del lenguaje natural.
Los programas informáticos procesan la información sin entender el significado de la misma, puesto que el procesamiento de datos que hace la inteligencia artificial se da por la codificación en símbolos sobre los que se opera desde la lógica formal. Los algoritmos procesan la información según unos pasos ordenados y preestablecidos, dando un resultado. Una multiplicación es un ejemplo de algoritmo que las calculadoras ejecutan perfectamente. Sin embargo, la interpretación del lenguaje natural, el reconocimiento visual de los objetos, la causalidad y las inferencias son aspectos que la inteligencia humana domina con mucha más ventaja que la inteligencia artificial, para la que son difíciles de dominar.
Los chistes con frecuencia recurren a ciertas ambigüedades del lenguaje natural para inducir a situaciones absurdas. Por ejemplo, en la película Mary Poppins, dirigida por Robert Stevenson (1964) y protagonizada por Julie Andrews, el Sr. Grubbs, el banquero, muere de un ataque de risa al entender el chiste sobre el Sr. Smith y la pata de palo. Para quien no se acuerde, uno le cuenta a otro que se encontró por la calle con un señor con una pata de palo que se llamaba Smith, a lo que el otro le preguntó ¿y cómo se llama la otra pata? Lo ambiguo de la situación, que nos abre la posibilidad de una pregunta absurda que provoca la risa, será razón para que una inteligencia artificial pida aclaraciones para poder codificar correctamente la información, sin comprender lo absurdo de suponer que una pata de palo se llame Smith. El problema no está en la capacidad de interpretación sintáctica, sino semántica, como apuntaba Searle.
Una inteligencia artificial puede imitar el aprendizaje natural humano y hasta ser igualmente eficaz, pero no se confunde con este. Es despiadadamente lógico con las acciones a emprender, como V. I. K. I., el ordenador central de la película Yo, robot, dirigida por Alex Proyas (2004). En esta película de acción, inspirada en los relatos de Isaac Asimov y protagonizada por Will Smith, se plantea una distopía sobre un futuro gobernado por los ordenadores, que aplicando tres reglas básicas de conducta que les han introducido los programadores informáticos, someten a los seres humanos para garantizar su supervivencia. Se reformula el problema del totalitarismo desde una inteligencia artificial que toma decisiones lógicas a partir de un algoritmo de funcionamiento supuestamente idóneo. ¿Rosas sin pulgones?
La dificultad en el reconocimiento de los objetos se deriva de la propia naturaleza de la inteligencia artificial. No aumenta su aprendizaje desde el contacto con la realidad sino desde la acumulación de repeticiones que le permiten «aprender» a reconocer mejor determinados objetos. Esta situación se ejemplifica de forma épica en la película Los Mitchell contra las máquinas, dirigida por Michael Rianda y Jeff Rowe (2021). La incapacidad de los robots para reconocer al perro de raza pug de la familia Mitchell como tal es clave para que los Mitchell ganen la batalla. El problema está en que los robots no estarían suficientemente «entrenados» y colapsan cuando ven al perro y no saben si clasificarlo como un cerdo, un perro o un pan de molde. El reconocimiento de los objetos fruto de un entrenamiento en repeticiones de imágenes no deja de ser una manera fenoménica, no comprensiva de aprendizaje, nominalista, cabría decir. De la misma forma que el procesamiento no semántico de la información conlleva dificultades en la interpretación del lenguaje natural, el procesamiento icónico de los objetos comporta dificultades en el reconocimiento correcto de objetos visualmente parecidos.
En el reconocimiento visual de los objetos, la inteligencia natural opera con la inferencia más de lo que se piensa. Si vemos que en una cocina hay un mantel situado a media altura, inferimos que cubre una mesa que no vemos. Si vemos unos utensilios en la pared, inferimos que están colgados de alguna manera, de lo contrario se caerían. Por lo tanto, no se trata de un mantel cúbico suspendido en el aire o de utensilios depositados en la pared a media altura, sino de la forma que toma el mantel al cubrir la mesa y de la posición de los utensilios colgados en la pared, todos bajo el efecto de la fuerza de la gravedad. Estas disposiciones en el espacio de ciertos objetos por causa de objetos que no se ven es una inferencia que implica también la atribución de causalidad, de la que la inteligencia artificial no es capaz, a no ser que se programe para concluir de esta forma, de forma aproximada, desde la correlación estadística. Un procesamiento computacional puede llegar a concluir que existe una correlación estadística entre fenómenos, pero no podrá atribuir causalidades entre ellos.
La pregunta filosófica que asoma es si, pudiendo replicar desde el modelo computacional la actividad de la inteligencia humana, se puede prescindir de la semántica y de los conceptos para conceder que la inteligencia artificial suplante a la natural cuando se logre suficiente fiabilidad (estadística) en sus operaciones; rosas hiperrealistas. Aunque los robots de la película de los Mitchell no lo puedan apreciar, parece mucho más aceptable confundir al perro pug con un cerdo que con un pan de molde, puesto que, aunque por el color y la forma se asemeje más a un pan de molde, es infinitamente más parecido a un cerdo, por tratarse de un mamífero.
El juego de imitación de Turing al que nos enfrentamos con la inteligencia artificial es cada vez más más difícil de falsar, pero ¿estamos siendo demasiado puristas al no querer aceptar esta réplica casi perfecta de la inteligencia humana? En la industria la robotización es un hecho. En estos últimos años, las instituciones educativas se han librado de la rémora que suponía la memorización de contenidos y parecen estar preparadas para el siguiente paso, la superfluidad del entendimiento. El estudiante pragmático lo tiene claro: si cuela, cuela. Cual Nietzsche posmoderno, más allá de la memoria y del entendimiento, se enfrenta al presente con su móvil cargado de aplicaciones inteligentes.
Entre los profesionales de la salud mental, tampoco se permiten atavismos. El psicólogo cognitivo ya funciona desde el paradigma computacional para entender el funcionamiento mental: las creencias disfuncionales deben tratarse mediante una restructuración cognitiva deducida de un algoritmo basado en la función bienestar emocional.
Los protocolos y algoritmos no pueden diseñarse si no se comprende la naturaleza de las cosas, si no se entiende. Una inteligencia artificial podrá producir ensayos y poemas sobre el amor, pero no entenderá ni sentirá nada de lo que digan sus versos y palabras porque no lo habrá experimentado.
Comentarios
tracking