Fundado en 1910

Varios estudios abordar cómo la IA puede leer la mente humana

¿Podrá la IA leer la mente humana? Así avanzan los futuros decodificadores mentales

Investigadores y empresas tecnológicas desarrollan sistemas capaces de traducir pensamientos en texto e imágenes a partir de la actividad cerebral

La posibilidad de que una máquina lea los pensamientos humanos ha sido durante décadas materia exclusiva de la ciencia ficción. En 2025 la inteligencia artificial (IA) avanza hacia un territorio inexplorado y ya podemos decir que hay avances importantes en IA y neurotecnología que apuntan a que ese escenario podría estar más cerca de lo previsto.

Investigadores de todo el mundo, respaldados por universidades y grandes compañías tecnológicas, siguen desarrollando sistemas capaces de traducir señales cerebrales en texto, imágenes e incluso emociones. Un salto que, aunque todavía sigue en fase experimental, plantea una revolución en la comunicación hombre-máquina y una inquietud, una más, sobre la privacidad mental.

Analizador de ondas cerebrales del doctor Emmet Brown en 'Regreso al futuro'

En la película Regreso al futuro (1985), el científico Emmett Brown aparece en una escena con un rudimentario «analizador de ondas cerebrales» que coloca sobre su cabeza y la de Marty McFly. El dispositivo, con cables y una gran ventosa metálica, supuestamente permitía leer los pensamientos del interlocutor. Sin embargo, como el propio Doc admitía con humor, la máquina «no funciona del todo bien», y en realidad no lograba captar ni un solo pensamiento. Aunque era ficción, el aparato anticipaba con décadas de adelanto la fascinación por descifrar la mente humana mediante la tecnología, una idea que hoy empieza a dejar de ser ciencia ficción.

Chip de NeuralinkNeuralink

Uno de los proyectos más ambiciosos en 2025 es Neuralink, la empresa fundada por Elon Musk que busca conectar directamente el cerebro humano con ordenadores mediante implantes neuronales. A diferencia del fallido invento de Doc Brown, Neuralink ha logrado avances reales: en 2024 anunció su primer implante en un paciente humano, quien fue capaz de mover un cursor en pantalla solo con el pensamiento.

El dispositivo, del tamaño de una moneda, registra señales cerebrales en tiempo real y promete, a largo plazo, restaurar funciones motoras, tratar enfermedades neurológicas e incluso potenciar la cognición humana. Aunque aún está lejos de leer pensamientos complejos, Neuralink es una vía de acceso directa entre la mente y la máquina.

Pensamientos convertidos en texto

Uno de los hitos más prometedores llegaba en 2021 desde la Universidad de Texas. Allí, un equipo científico trabajó en un decodificador semántico que, mediante el uso de resonancia magnética funcional y modelos avanzados de IA, era capaz de traducir la actividad cerebral en frases completas. El sistema, no invasivo, se entrenaba con largas sesiones en las que el usuario escucha historias mientras se registran sus patrones neuronales. Una vez entrenado, el decodificador es capaz de generar texto coherente incluso cuando la persona simplemente imagina una historia.

Un equipo científico de la Universidad de Texas ha creado un decodificador semántico

«Ya no se trata solo de leer impulsos eléctricos; estamos comenzando a acceder al contenido semántico del pensamiento», señalaban los autores del estudio. Aunque aún existen limitaciones en cuanto a vocabulario y precisión, el avance da muestras de un cambio radical en las formas de interacción con la tecnología.

Ver lo que otros imaginan

En Japón, la Universidad de Osaka fue más allá en 2023. Su equipo logró recrear imágenes mentales a partir de señales cerebrales, también mediante resonancia magnética funcional (fMRI) y utilizando modelos generativos como Stable Diffusion. Los resultados, aunque todavía rudimentarios, mostraron formas y colores que se asemejaban a lo que el sujeto visualizaba internamente. De algún modo, la IA ya comienza a «ver» lo que el cerebro imagina.

Un enfoque parecido se desarrolla en la Universidad Nacional de Singapur, donde el modelo MinD-Vis busca decodificar representaciones visuales mentales con un grado de fidelidad cada vez mayor. En ambos casos, la tecnología se orienta tanto a fines médicos como comunicativos, especialmente para personas con trastornos del habla o movilidad reducida.

En Japón, un equipo de la Universidad de Osaka ha logrado recrear imágenes mentales a partir de señales cerebrales

Más allá de lo académico, varias empresas tecnológicas también exploran dispositivos que integren estas capacidades de manera accesible. Meta junto con la empresa Basque Center on Cognition, Brain and Language (BCBL) han diseñado un prototipo de casco que analiza señales cerebrales con IA y las traduce en palabras. Según la compañía, la tecnología podría abrir nuevas formas de comunicación para personas con parálisis severas, al permitirles «pensar» frases en lugar de pronunciarlas.

Meta y BCBL colaboran en el impulso de la IA en neurociencia

En la misma línea, un equipo de la Universidad Tecnológica de Sidney ha desarrollado un casco portátil, sin implantes, que logra convertir pensamientos en texto. Aunque en etapa experimental, su funcionamiento en tiempo real demuestra que la idea de que la interfaz cerebro-máquina está dejando de ser algo teórico para convertirse en una herramienta con aplicaciones prácticas.

Más allá de las palabras

Otra vía de desarrollo apunta a la predicción de estados mentales. Genius, un modelo desarrollado por Verses AI, aplica el principio de inferencia activa inspirado en el cerebro humano para anticipar intenciones, emociones y decisiones. Aunque no 'lee' pensamientos de forma literal, el sistema puede deducir lo que un usuario desea o necesita antes de que lo exprese, una aproximación a la lectura mental.

Genius aplica el principio de inferencia activa inspirado en el cerebro humano

El objetivo final de estos sistemas no es solo reproducir contenido mental, sino comprender y responder al contexto cognitivo del usuario para abrir nuevas posibilidades en salud mental, educación personalizada o escenarios conversacionales.

Un campo prometedor… y peligroso

Pero con cada avance tecnológico llegan las dudas éticas. La idea de que una máquina pueda acceder a los pensamientos privados de una persona genera alarma entre los expertos y podrá generar aún más dudas en la sociedad. ¿Quién tendrá acceso a esa información? ¿Podrá utilizarse sin consentimiento? ¿Cómo se protegerá la privacidad mental?

«El cerebro es el último reducto de nuestra intimidad. Leer pensamientos sin autorización sería una forma de vigilancia más invasiva que cualquier cámara o micrófono», advierte un informe del Center for AI Ethics. Organismos internacionales ya han comenzado a debatir la necesidad de marcos legales para proteger la llamada «soberanía cognitiva», un concepto que, hasta hace poco, no tenía aplicación real.

Entre la esperanza y la distopía

La lectura mental mediante inteligencia artificial sigue en fase experimental. Mientras algunos vislumbran un futuro en el que personas con discapacidad puedan comunicarse sin barreras, otros temen un escenario donde los pensamientos sean explotados con fines comerciales, políticos o de vigilancia.

Por ahora, la tecnología no puede leer la mente con precisión total ni sin cooperación activa del usuario. Pero si la tendencia continúa al ritmo actual, el problema ya no será si se puede hacer, sino cómo y bajo qué condiciones debería hacerse.

Algo parece seguro, el pensamiento, hasta ahora intangible, ha dejado de ser territorio exclusivo de lo más privado del ser humano.