Fundado en 1910

La mayoría de los intentos de suicidio corresponden a chicas menores de edadEP

El caso de Adam Raine reabre el debate: la IA no predice bien el riesgo de suicidio

Los resultados de un nuevo estudio revelaron que, si bien los algoritmos lograron una especificidad elevada, su sensibilidad fue solo moderada

Al hablar de inteligencia artificial y suicidio, a todos se nos viene a la cabeza el caso de Adam Raine, el adolescente que se quitó la vida el pasado mes de abril en Estados Unidos tras consultar a una herramienta de IA cómo hacerlo. El caso, que marca un precedente, pone de manifiesto la necesaria reconfiguración de los programas de inteligencia artificial.

La precisión de los algoritmos de inteligencia artificial para prever comportamientos suicidas sigue siendo insuficiente para resultar útil en la identificación o priorización de personas con alto riesgo, según un nuevo análisis elaborado por investigadores de la Universidad de Melbourne, en Australia.

En el caso del estudio australiano, recientemente publicado en la revista científica PLOS Medicine, parte del contexto de las últimas cinco décadas, durante las cuales se han desarrollado numerosas escalas de evaluación de riesgo orientadas a detectar a pacientes propensos al suicidio o a la autolesión. Estas herramientas tradicionales, sin embargo, han demostrado históricamente una escasa capacidad predictiva. La aparición de métodos avanzados de aprendizaje automático, junto con el uso de historiales médicos electrónicos, ha renovado el interés por perfeccionar la predicción del riesgo suicida mediante algoritmos.

Para evaluar la eficacia real de estas herramientas modernas, los investigadores realizaron una revisión sistemática y un metaanálisis de 53 estudios previos que recurrieron a algoritmos de aprendizaje automático con el fin de prever suicidios, autolesiones o ambos fenómenos combinados. En total, los estudios examinados abarcaron más de 35 millones de historiales clínicos y casi 250.000 casos tratados en hospitales por autolesiones o suicidios consumados.

Los resultados revelaron que, si bien los algoritmos lograron una especificidad elevada, su sensibilidad fue solo moderada. Es decir, los sistemas mostraron ser ineficaces a la hora de detectar a quienes sí acabarían incurriendo en conductas autolesivas o suicidas.

De forma concreta, los investigadores advirtieron que más de la mitad de las personas que posteriormente buscaron atención médica por autolesión o fallecieron por suicidio habían sido clasificadas erróneamente como de bajo riesgo por los algoritmos. Asimismo, entre aquellos identificados como de alto riesgo, apenas un 6 % acabó falleciendo por suicidio y menos de una quinta parte regresó a los servicios de salud por autolesión.

Los autores del trabajo fueron tajantes en sus conclusiones: «Encontramos que las propiedades predictivas de estos algoritmos de aprendizaje automático eran deficientes y no mejores que las de las escalas tradicionales de evaluación de riesgos». Además, señalaron que «la calidad general de la investigación en esta área fue deficiente, y la mayoría de los estudios presentaban un riesgo de sesgo alto o incierto», por lo que «no hay evidencia suficiente para justificar cambios en las recomendaciones de las guías de práctica clínica actuales».

El estudio también advierte sobre el entusiasmo creciente en torno al potencial de la inteligencia artificial para detectar pacientes en riesgo. A pesar de las expectativas, el equipo subraya que estos modelos «pronostican de forma deficiente quiénes se suicidarán o volverán a acudir a los servicios de salud para recibir tratamiento por autolesión, y presentan tasas considerables de falsos positivos».

Por último, los investigadores remarcan que muchas de las guías clínicas internacionales desaconsejan expresamente la utilización de evaluaciones de riesgo como base para asignar intervenciones posteriores, y sostienen que los algoritmos analizados no ofrecen mejoras sustanciales respecto a los métodos tradicionales. En sus palabras: «Nuestro estudio demuestra que los algoritmos de aprendizaje automático no son mejores para predecir la conducta suicida futura que las herramientas tradicionales de evaluación del riesgo en las que se basaron estas guías. No observamos evidencia que justifique modificar estas guías».