
Los algoritmos predictivos están cambiando la manera en que vivimos. Desde predecir qué película nos va a interesar ver a continuación hasta cuál es el anuncio más "adecuado" para nosotros en las redes sociales, un área en la que están empezando a ser utilizados y probablemente sea una de las más importantes, complicadas y controversiales, es la salud.
"La inteligencia artificial orientada hacia los algoritmos tiene el potencial de transformar radicalmente cómo diagnosticamos y tratamos los problemas de salud, desde la depresión hasta la gripe, pasando por el cáncer y las fallas pulmonares", escribió Dan Kopf del portal Quartz.
El año pasado, científicos de datos del Centro Médico de la Universidad Vanderbilt en Nashville, Tennessee, desarrollaron un algoritmo -basado en la inteligencia artificial- que puede predecir, con un 84% de precisión, la probabilidad de que un paciente intentará suicidarse dentro de la próxima semana, y con un 80% de precisión, la probabilidad de que un paciente intentará suicidarse dentro de los próximos 2 años, explica Olivia Goldhill en el portal Quartz.
Liderados por Colin Walsh, los investigadores tomaron los datos de 5.167 pacientes que habían sido ingresados al centro médico con indicios de haberse lastimado a sí mismos o de tener ideas suicidas. Leyeron cada uno de estos casos e identificaron 3.250 instancias de intentos suicidas.
Esta información fue utuilizada para entrenar a una máquina a que identifique quienes estaban en riesgo de intentar suicidarse en comparación con aquellos que, si bien se habían hecho daño a sí mismo, no evidenciaban tener intención suicida.
Los científicos de datos también construyeron algoritmos para predecir el intento suicida entre un grupo de 12.695 pacientes elegidos al azar, sin un intento de suicidio en su historial. El algoritmo resultó aún más preciso en hacer predicciones sobre riesgo suicida en esta muestra general de pacientes.
El sistema de inteligencia artificial utiliza los datos de los pacientes en cuestión -que incluyen la edad, el género, el código postal, la medicación y la historia de su diagnóstico- para predecir la probabilidad de que intentarán quitarse la vida. El estudio fue realizado de manera retrospectiva. Lamentablemente, casi 2.000 de los pacientes suicidaron mientras la investigación estaba en marcha.
Un dato interesante que arrojó el estudio es la correlación entre el riesgo suicida y las prescripciones de melatonina. Es poco probable que la melatonina provoque pensamientos suicidas, explica Quartz, sino que la prescripción es probablemente un indicador de problemas para dormir -que son, en sí mismos, un factor clave del riesgo suicida-.
Actualmente, Walsh está trabajando con doctores para desarrollar un programa de intervención basado en su algoritmo. Si la inteligencia artificial dice que un paciente está en alto riesgo de intentar suicidarse, ¿se lo puede obligar a quedarse hospitalizado?
Este y otros dilemas éticos surgen a partir de la nueva tecnología, plantea Goldhill en Quartz. ¿Quién podría tener acceso a la información? ¿Se puede obligar a alguien a ser hospitalizado por un riesgo potencial que predice una máquina?
Pero el algoritmo sobre el riesgo suicida es casi una excepción, plantea Kopf. La mayoría de estos modelos predictivos son utilizados para mejorar la publicidad dirigida y la detección del fraude.
Sin embargo, existen otras organizaciones sin fines de lucro, como DataKind y Bayes Impact, que están intentando desarrollar algoritmos para el bien social.
DataKind trabajó con el Colegio de Justicia Criminal John Jay de Nueva York para ayudarlos a identificar qué estudiantes estaban en riesgo de dejar los estudios aún si les faltaba poco para graduarse. El fin es desarrollar programas que ayuden a estos estudiantes en riesgo.
Y Chris Danforth, investigador de la Universidad de Vermont, y Andrew Reece, de Harvard, desarrollaron un algoritmo que puede detectar signos de depresión analizando el tono de los posteos de Instagram de una persona. Ambos crearon un segundo algoritmo que puede identificar el ascenso y caída de la enfermedad mental de alguien al escanear el lenguaje, la cantidad de palabras, los patrones del habla y el grado de actividad de sus posteos en Twitter.
La red social Facebook también ha desarrollado algoritmos de reconocimiento de patrones que monitorearán los posteos de los usuarios en busca de riesgo de suicidio o de daño a sí mismos, para conectarlos con servicios de salud mental, si fuese necesario.