Cuando alguien comete suicidio, la familia y amigos de la víctima se quedan muchas veces con el sentimiento de que quizá pudiese haberse evitado la tragedia. Colin Walsh, científico de datos en el Centro Médico de la Universidad Vanderbilt, espera que su trabajo sirva para predecir el riesgo de suicidio dándole la oportunidad a la gente de preguntar «¿qué puedo hacer?», si es que hay alguna oportunidad de intervenir aún.
Walsh y sus colegas han creado un algoritmo de aprendizaje de máquina que predice, con una precisión asombrosa, la posibilidad de que un paciente pueda intentar suicidarse. En algunas pruebas, los resultados tuvieron una precisión del 80-90% prediciendo si alguien intentaría cometer suicidio dentro de los siguientes dos años y un 92% en predecir si alguien podría intentar cometer suicidio en la siguiente semana.
La predicción se basa en datos que han estado disponible públicamente de los hospitales, incluyendo edad, género, código postal, medicamentos y diagnósticos previos. Walsh y su equipo lograron recolectar datos de 5,167 pacientes del Centro Médico de la Universidad Vanderbilt, cuyos signos de daños a sí mismos o de intento de suicidio. Así identificaron unas 3,250 instancias de intento de suicidio.
Este conjunto de más de 5 mil casos se usó para entrenar una máquina para identificar el riesgo de intentar cometer suicidio, comparado con aquellos que se auto-infligieron daño físico, pero que no mostraron evidencia de un intento de suicidio. Los investigadores construyeron algoritmos para predecir el intento de suicidio entre un grupo de 12,695 pacientes seleccionados al azar sin historia documentada de intentos previos de quitarse la vida. El sistema se mostró incluso más preciso haciendo predicciones en una población más grande de pacientes admitidos en el hospital.
El artículo de Walsh, publicado en Clinical Psychological Science de abril pasado, es solamente la primera etapa del trabajo. Ahora el equipo de Walsh está trabajando intentando establecer si el algoritmo es efectivo tomando los datos de otro hospital. Y cuando el modelo sea mas confiable, Walsh espera trabajar con un equipo más grande para establecer mecanismos para poder intervenir. Se espera tener un programa de intervención para hacer pruebas por los siguientes dos años. «Me gustaría pensar que esto es muy rápido, pero ‘muy rápido’ en cuidados de salud significa hablar de meses», añade Walsh.
El suicidio es un acto personal muy intenso, que desde una perspectiva humana es imposible el hacer predicciones precisas basándose en un conjunto de datos. Walsh dice que es natural para los clínicos el preguntar cómo se han hecho las predicciones, pero los algoritmos son muy complejos que es imposible decir cuál es el factor de riesgo que nos puede dar las respuestas. «Es una combinación de factores de riesgo lo que nos dan las respuestas», añade Walsh.
Walsh y su equipo se sorprendieron cuando notaron que tomar melatonina parece ser un factor en calcular el riesgo. «No pienso que la melatonina está causando que las personas tengan pensamientos suicidas. No hay fisiología que nos lleve a esa conclusión. Pero hay una cosa que es muy importante en el riego de suicidio y son los desórdenes del sueño», comenta Walsh. Es posible que las prescripciones de la melatonina capturen el riesgo de los desórdenes de sueño, pero esta hipótesis debe aún probarse.
La investigación, por otra parte, pone en tela de juicio el rol de las computadoras en el tema del cuidado de la salud y del cómo la información personal debe ser usada. «Hay siempre el riesgo de consecuencias sin atender», dice Walsh. «Nuestra intención es buena y es la de construir un sistema que ayude a las personas, pero algunos problemas pueden resultar que no está directamente contemplado».
Los investigadores, por otra parte, tienen que decidir cuanto de la decisión de la computadoras debe tomarse en cuenta en términos de la salud de un paciente. Walsh, como médico, dice que hay un problema en el hecho de predicciones de alto riesgo cuando estas no parecen ser parte del entorno clínico del paciente.
Por ahora, los algoritmos de aprendizaje de máquina se basan en los datos de la admisión de hospitales. Pero Walsh reconoce que muchas personas en riesgo de suicidio no pasan antes tiempo en los hospitales. «Mucho de nuestras vidas pasa lejos de los centros de salud. Si solamente confiamos en los datos presentes de los hospitales para hacer nuestro trabajo, solamente tendremos parte de la historia», dice Walsh.
¿Pero de dónde más podrían obtenerse los datos? La red Internet parece ser una opción prometedora. Pasamos mucho tiempo en Facebook y Twitter, dice Walsh, por lo que tenemos muchos datos de las redes sociales para predecir el riesgo de suicidio. Sin embargo, como el propio Walsh aclara: «Necesitamos sin embargo saber qué información es la verdadera».
Facebook, de hecho, ya había anunciado ya antes de que estaba usando su propia inteligencia artificial para revisar los mensajes con signos preocupantes para la salud de los propios usuarios. Entrenar a las computadoras para identificar riesgos de suicidio está lejos de ser un asunto directo. Y, para que las predicciones e intervenciones tengan éxito, Walsh piensa que es esencial desestigmatizar el suicidio. «No podemos ayudar a nadie si no estamos cómodos hablando del asunto».
Pero con unas 800 mil muertes en todo el mundo por suicidio, es claro que esto podría convertirse en un problema de salud pública que no puede ser ignorado. Considerando lo difícil que es identificar un paciente con riesgos de suicidio, el aprendizaje de ls computadoras podría dar una solución importante.
Referencias: QZ