Desafío de la Inteligencia Artificial
Un filósofo afirma que nunca podremos saber si la IA se vuelve consciente
McClelland sostiene que la conciencia artificial, cada vez más presente en el debate ético y científico, sigue envuelta en una profunda incertidumbre epistemológica
Un filósofo de la Universidad de Cambridge ha advertido de que, en el estado actual del conocimiento, carecemos de herramientas adecuadas para determinar si la inteligencia artificial (IA) ha desarrollado conciencia o en qué momento podría hacerlo. Esta reflexión forma parte de un estudio elaborado por el doctor Tom McClelland, adscrito al Departamento de Historia y Filosofía de la Ciencia de la citada universidad, y publicado en la revista Mind and Language.
McClelland sostiene que la conciencia artificial, cada vez más presente en el debate ético y científico, sigue envuelta en una profunda incertidumbre epistemológica. En sus palabras, «la única postura justificable» ante este dilema es el agnosticismo, ya que ni ahora ni en un futuro cercano dispondremos de criterios válidos para verificar si una máquina posee conciencia. «No podemos saberlo, y quizá nunca lo sepamos», advierte.
El investigador matiza, no obstante, que la cuestión ética no depende exclusivamente de la conciencia entendida como autopercepción o capacidad de procesamiento complejo, sino de un tipo específico: la sintiencia. Este concepto alude a la capacidad de experimentar sensaciones subjetivas, positivas o negativas, como el sufrimiento o el placer. Así lo explica: «La consciencia haría que la IA desarrollara la percepción y se volviera consciente de sí misma, pero este todavía puede ser un estado neutral». Y añade: «La sensibilidad implica experiencias conscientes, buenas o malas, que es lo que hace que una entidad sea capaz de sufrir o disfrutar. Aquí es donde entra en juego la ética».
En ese sentido, McClelland considera improbable que las actuales tecnologías generen, siquiera de forma accidental, una IA con sintiencia. A modo de ejemplo, plantea que un coche autónomo que percibe el entorno no representa un dilema ético en sí mismo. Pero si ese vehículo reaccionara emocionalmente ante los trayectos o destinos, estaríamos ante una situación diferente.
A pesar de que empresas tecnológicas destinan recursos crecientes al desarrollo de la llamada Inteligencia Artificial General –un modelo de cognición equiparable a la humana–, el autor del estudio cuestiona la validez de los discursos que anticipan la inminente irrupción de la conciencia artificial y los planes para su regulación. A su juicio, estas posturas ignoran que «no sabemos qué explica la conciencia y, por lo tanto, no sabemos cómo comprobar la conciencia de la IA».
La incertidumbre científica da lugar a dos grandes corrientes opuestas. Por un lado, quienes defienden que reproducir la arquitectura funcional de la conciencia en un sistema artificial podría bastar para conferirle dicha cualidad, incluso si está basada en circuitos de silicio y no en tejido biológico. Por otro, los escépticos sostienen que la conciencia requiere necesariamente procesos biológicos en un organismo vivo, por lo que cualquier simulación en una máquina sería una mera réplica sin percepción real.
McClelland desmonta ambas posiciones al considerar que, en última instancia, cada una depende de un «salto de fe» que sobrepasa las evidencias disponibles o previsibles. «No tenemos una explicación profunda de la consciencia. No hay evidencia que sugiera que la consciencia pueda surgir con la estructura computacional adecuada, ni que sea esencialmente biológica», subraya.
Como muestra de esta dificultad, McClelland alude al sentido común que nos lleva a considerar consciente a un animal doméstico: «Creo que mi gato es consciente», señala. Sin embargo, esa intuición se basa en patrones evolutivos humanos, lo que la vuelve poco fiable frente a entidades artificiales. Dado que ni la intuición ni la investigación empírica ofrecen certezas, el autor insiste en adoptar una posición de escepticismo racional.
El estudio concluye con una crítica al uso interesado del concepto de conciencia por parte de la industria tecnológica. Según McClelland, muchas empresas aprovechan la falta de criterios verificables para presentar sus productos como dotados de capacidades que no pueden ser demostradas, lo cual «se convierte en parte de la publicidad» y alimenta expectativas infundadas sobre un nivel superior de inteligencia artificial.
Este debate, a su juicio, no es meramente teórico, sino que tiene implicaciones prácticas en la asignación de recursos científicos y en las prioridades morales de nuestras sociedades. Aun así, el filósofo deja un resquicio para la esperanza al afirmar que, aunque el problema de la conciencia es «formidable», no puede descartarse que algún día se alcance una comprensión más profunda.