La investigación, publicada en PLOS Medicine, analizó 53 estudios previos en los que se aplicaron algoritmos de inteligencia artificial a más de 35 millones de historiales médicos y cerca de 250.000 casos de suicidio o autolesión tratados en hospitales. El objetivo era comprobar si estas herramientas podían identificar con más fiabilidad a los pacientes en riesgo.

Los resultados muestran que la sensibilidad de los algoritmos es moderada y su especificidad alta, lo que significa que funcionan mejor descartando a quienes no se autolesionarán o suicidarán que identificando a quienes sí lo harán.

En la práctica, más de la mitad de las personas clasificadas como de bajo riesgo acabaron autolesionándose o muriendo por suicidio, mientras que entre los considerados de alto riesgo, solo el 6% murió por suicidio y menos del 20% volvió a los servicios de salud por autolesión.

Los autores señalan que la calidad general de las investigaciones en este campo es deficiente, con un riesgo de sesgo alto o incierto en la mayoría de los trabajos. “Las propiedades predictivas de estos algoritmos eran deficientes y no mejores que las escalas tradicionales de evaluación de riesgos”, subrayan.

Además, recuerdan que las guías de práctica clínica en distintos países ya desaconsejan el uso de evaluaciones de riesgo como base para decidir intervenciones posteriores. Según los investigadores, tampoco la inteligencia artificial aporta evidencia suficiente para modificar estas recomendaciones.

Aunque la IA despierta grandes expectativas en el ámbito de la salud, este estudio demuestra que, en la predicción del riesgo de suicidio, aún no ofrece mejoras reales frente a las herramientas tradicionales. La prevención sigue dependiendo, sobre todo, de la atención clínica personalizada y del acompañamiento cercano a los pacientes.