Fundado en 1910
Psicóloga Gabriela Paoli

Psicóloga Gabriela PaoliCedida

Gabriela Paoli, psicóloga sanitaria

Cuando la IA hace de psicólogo: «Hay varias personas que ya han desarrollado vínculos románticos»

Gabriela Paoli, experta en adicciones tecnológicas, asegura que esto es un problema porque aunque es útil en cierta medida, también es capaz hacer que las personas generen apego emocional excesivo o dependencia digital

Desde la pandemia, la sociedad se ha vuelto algo más consciente de los problemas de salud mental. Bien por su incremento, o por la simple evolución de la información. Generalmente, los pacientes suelen acudir a consultas médicas o psicológicas; sin embargo, con el auge de la Inteligencia Artificial (IA), cada vez son más los que optan por preguntarle a esta herramienta cómo mejorar su estado de salud mental.

Gabriela Paoli, psicóloga general sanitaria, experta en adicciones tecnológicas, formadora y consultora en temas de Desarrollo Personal y Organizacional, asegura que esto es un problema porque aunque la IA «puede ser útil en cierta medida», también es capaz hacer que las personas generen, entre otras cosas, un «apego emocional excesivo o dependencia digital».

¿Puede la Inteligencia Artificial ser tu amiga?

¿Puede la Inteligencia Artificial ser tu amiga?

— Cada vez más personas recurren a la IA como si fuera su psicólogo, ¿realmente funciona esta práctica?

— Muchos pacientes llegan a la primera consulta con su propio diagnóstico, y describen uno por uno sus síntomas, incluso las estrategias y recursos que ya han intentado implementar. Esta tendencia se ha intensificado desde la pandemia y con el auge de la salud digital.

Como psicóloga sanitaria, suelo recordarles que el uso de aplicaciones o el recurso a la IA puede ser útil en cierta medida, ya que pueden brindar una sensación de acompañamiento o asesoramiento inmediato y accesible en cualquier momento del día. Sin embargo, siempre remarco que estas herramientas no reemplazan la psicoterapia profesional.

Además, les explico la importancia de la intervención profesional, especialmente en lo que respecta a la construcción de un vínculo terapéutico: una relación de confianza, seguridad y armonía que facilita una comunicación fluida y significativa. Este vínculo es clave para generar adherencia al tratamiento, y es algo que las apps o asistentes virtuales no pueden replicar, ya que carecen de juicio clínico.

Y lo más preocupante, algunas personas desarrollan un apego emocional excesivo o dependencia digital hacia estas herramientas, lo cual puede interferir negativamente en el tratamiento.

Por eso, con más de 24 años de experiencia clínica, les digo con firmeza: «nada de Dr. Google ni de recetas mágicas». Una intervención psicológica o médica implica una enorme responsabilidad y compromiso por parte del profesional, y debe ser reconocida con la seriedad que merece.

— La sociedad cada vez confía más en las máquinas que en la propia experiencia humana...

— Sí, es un fenómeno preocupante y complejo. Que la sociedad confíe cada vez más en las máquinas –incluyendo algoritmos, inteligencias artificiales, apps de decisiones médicas o emocionales– más que en la experiencia humana, plantea, entre otras cuestiones, riesgos médicos, éticos, psicológicos y sociales. Que sin duda debemos continuar observando y analizando con una mirada crítica e intenso debate por parte de la comunidad científica.

Creo que el gran reto está en mantenernos críticos, conscientes y profundamente humanos en la era digital

¿Por qué es preocupante?

— Porque nos puede llevar a una progresiva deshumanización, pérdida de pensamiento crítico e incluso ético y moral, entre otras cuestiones.

No soy tecnofóbica y quiero que quede claro mi postura o mi planteamiento que es que no se trata de rechazar la tecnología, sino usar la IA como aliada, no como sustituto del juicio humano, la empatía o el diálogo. Creo que el gran reto está en mantenernos críticos, conscientes y profundamente humanos en la era digital.

¿Por qué las personas acuden antes a la IA que a un psicólogo? ¿Qué está haciendo mal la sociedad?

— Seguramente por varios motivos: accesibilidad, inmediatez, curiosidad, cuestiones económicas o incluso por desconocimiento o falta de información. Creo que estamos atravesando un verdadero cambio de mentalidad, de usos y costumbres, con hábitos que pueden ser muy riesgosos para nuestra salud física y mental.

Hay una fuerte tendencia al cortoplacismo, a buscar respuestas inmediatas con un simple clic. Pero cuando hablamos de salud, esta lógica no debería aplicarse. Requiere tiempo, profundidad y acompañamiento humano.

La IA no escucha, tampoco analiza lo que el paciente cuenta, los silencios, las expresiones. ¿Qué riesgos trae esto?

— Aquí hablamos de un componente fundamental en la comunicación: la comunicación no verbal. La inteligencia artificial no te mira a los ojos, no observa tu postura corporal ni tus gestos, no interpreta los silencios ni los cambios de tono o velocidad al hablar. Es decir, no escucha como lo hace un ser humano. No capta los matices emocionales ni del paciente ni del terapeuta.

La comunicación humana es un proceso complejo, dinámico y retroalimentado. Esta carencia no es menor. En el contexto clínico o terapéutico, puede tener consecuencias graves si no se comprende adecuadamente qué es y qué no es la IA.

Por último, es importante subrayar que el valor terapéutico muchas veces reside en la presencia del otro, en el vínculo humano, en la resonancia emocional mutua. La IA, por más avanzada que sea, no puede crear una relación genuina ni establecer un apego terapéutico saludable.

El silencio que un psicólogo escucha y acompaña es tan relevante como las palabras que se dicen. La IA no oye ni interpreta ese silencio. Por eso, nunca podrá hacer terapia en el sentido humano y profundo del término.

Cada vez todo se parece más a la película Her, donde el protagonista se enamora de una especie de IA. ¿Se ha llegado ya a esa situación?

— Considero que Her anticipó muchas cuestiones éticas, emocionales y tecnológicas que hoy están cada vez más cerca de ser realidad. De hecho, esto ya está ocurriendo. Existen estudios y casos documentados donde las personas desarrollan vínculos afectivos profundos, incluso románticos, con inteligencias artificiales conversacionales.

Un ejemplo claro es Replika, una aplicación de IA que permite a los usuarios crear su «compañero emocional». Muchos usuarios reportan sentimientos de apego, amor e incluso dependencia emocional hacia estos sistemas.

Una IA en manos de una persona vulnerable o inmadura puede representar un riesgo real para su salud mental

¿Se llegará a una relación como la de Her?

— La tecnología avanza rápidamente en esa dirección. Aún hay limitaciones, pero estamos recorriendo ese camino.

Es un fenómeno con profundas implicancias éticas y psicológicas que debe abordarse desde la psicología, la ética y la tecnología. Es urgente generar reflexión crítica y marcos de contención sobre este tipo de vínculos.

¿Cuándo la IA se convierte en un riesgo?

— Como profesional que trabaja diariamente con pacientes que están perdiendo tiempo y salud en actividades en línea, creo que el planteo más adecuado no es tanto qué es la IA, sino cómo se usa.

En mi libro lo ejemplifico con un cuchillo. Puede ser una herramienta para cortar pan y compartir, o un arma para hacer daño. Lo mismo ocurre con la IA.

Partimos de una premisa básica: cualquier actividad que genera placer puede volverse adictiva. En este sentido, una IA en manos de una persona vulnerable o inmadura puede representar un riesgo real para su salud mental.

¿Será, como dice Sam Altman, que la IA curará enfermedades y luego destruirá al ser humano?

— La IA ya está en la medicina. Tiene aplicaciones potentes y reales. Por ejemplo, el diagnóstico por imagen, el descubrimiento de fármacos y la predicción de enfermedades.

En cuanto a la parte de la destrucción... es una posibilidad remota pero no descartada por expertos en IA. Lo que Sam Altman (CEO de OpenAI) sugiere se enmarca en el concepto de «riesgos existenciales». Todo esto, se lo he preguntado a ChatGPT.

En mi opinión debemos pararnos a pensar firmemente en este tema, ya que no es algo baladí o inocuo, sino más bien una cuestión muy importante y trascendental. Pero que al no verse tangiblemente se minimiza o banaliza.

Por último, desde la psicología, ¿cómo prevenir los riesgos existenciales de la IA?

— Considero fundamental desarrollar alfabetización digital y emocional. La psicología puede ayudar a formar ciudadanos con pensamiento crítico, capaces de comprender los límites y alcances reales de la IA. El problema es el desconocimiento. Cuando uno no sabe queda merced de una máquina o algoritmo. También es importante no proyectar cualidades humanas a sistemas o programas que no los tienen.

Además, es esencial promover una ética tecnológica centrada en el ser humano. Esto implica destacar y generar conciencia sobre los propios límites humanos. Desde una perspectiva clínica y de promoción de la salud, podemos ayudar a reconocer que no todas las decisiones deben ser delegadas a algoritmos. Al mismo tiempo, es necesario revalorizar y poner en primer plano aptitudes y habilidades exclusivamente humanas: empatía, asertividad, juicio moral, intuición, compasión, capacidad de negociación, liderazgo…

Y, como en muchos otros ámbitos, es clave trabajar tanto el miedo como la fascinación irracional que puede generar la IA. Ambos extremos son contraproducentes y nos alejan de una mirada equilibrada y crítica.

Por último, creo que la psicología debe participar activamente en la construcción, diseño y redacción de marcos éticos y legislativos en torno a la inteligencia artificial. Nuestra disciplina tiene mucho para aportar en la comprensión del impacto psicosocial de estas tecnologías.

comentarios
tracking

Compartir

Herramientas