
ChatGPT
Inteligencia Artificial
Los dos errores que tiene ChatGPT y que OpenAI no es capaz de solucionar
A pesar de que la inteligencia artificial ya es capaz de resolver problemas de todo tipo, todavía presenta ciertos fallos
La inteligencia artificial ha llegado para quedarse y los usuarios cada vez la emplean más para agilizar tareas rutinarias. El asistente virtual ChatGPT, un modelo de lenguaje desarrollado por OpenAI que utiliza inteligencia artificial para entender y generar texto de manera coherente y contextual ha sido, sin duda, una de las herramientas de IA que más se ha extendido entre la población. Según los últimos datos, es utilizada por unos 400 millones de usuarios activos semanales, incluyendo 15,5 millones de suscriptores Plus y 1,5 millones de clientes Enterprise.
Y a pesar de que lo emplean para realizar un sin fin de tareas, lo cierto es que, tal y como ha señalado el profesor Ned Block, filósofo y psicólogo de la Universidad de Nueva York en una entrevista con el divulgador Robinson Erhardt en YouTube, ChatGPT presenta dos fallos muy significativos.
La inteligencia artificial no puede «pensar»
Según explica Block, uno de los pensadores más reconocidos en el campo de la filosofía de la mente y las ciencias cognitivas, ChatGPT no ha llegado a cruzar ciertas barreras que el pensamiento humano sí.
Uno de los ejemplos más ilustrativos se da al pedirle que dibuje un reloj marcando horas concretas, como las 12.03 o las 6.28. En estos casos, el resultado suele ser siempre el mismo: un reloj que muestra las 10.10.La razón detrás de esta elección no es casual. Tal como explica Block, «las imágenes de relojes en internet están dominadas por las 10:10 porque es la disposición más atractiva». Esta hora es ampliamente utilizada en publicidad y catálogos, ya que ofrece una simetría visual agradable y permite que las manecillas no oculten el logotipo del fabricante, normalmente situado en el centro o en la parte superior de la esfera.
Otro fallo habitual se produce cuando se solicita una imagen de una persona escribiendo con la mano izquierda. Para los modelos de inteligencia artificial, esta acción sigue siendo un reto, y el resultado más común es el de una persona usando la mano derecha. «Siempre obtienes una mano derecha», afirma Block, quien reconoce haber intentado múltiples estrategias para conseguir una representación fiel de alguien escribiendo como zurdo. «He podido lograrlo, pero no ha sido fácil», añade.
Lo más significativo de estos fallos no es su frecuencia ocasional, sino su carácter estructural. Según advierte Block, «OpenAI sabe perfectamente que esto pasa y no han sido capaces de arreglarlo». En su opinión, el sistema de entrenamiento por refuerzo no ha dado los resultados esperados, en parte porque «probablemente habría que reforzar demasiadas otras horas además de las 10:10».
La raíz del problema reside en los sesgos que la inteligencia artificial absorbe de las imágenes más comunes disponibles en la red. Al estar expuesta mayoritariamente a representaciones de relojes marcando las 10:10 —una disposición estética y funcional preferida en el ámbito publicitario—, el modelo tiende a replicarla por defecto, incluso cuando se le pide una hora distinta. Se trata, por tanto, de una limitación que va más allá del azar y revela una dependencia directa de los patrones predominantes en los datos de entrenamiento.