Los pacientes deprimidos no pronuncian las vocales tanto como las personas que no lo están. Sus sonrisas son más escuetas. Además, los suicidas que hablan con voz entrecortada en lugar de un tono tenso tienen más probabilidades de volver a intentarlo. Y los pacientes con trastornos sicóticos, como una forma de esquizofrenia, levantan sus cejas a menudo cuando evitan una mirada.

Estos son algunos de los biomarcadores del comportamiento que los investigadores han establecido utilizando el análisis acústico y facial. Con la tecnología, se miden los cambios no siempre perceptibles para el ojo o el oído, como los movimientos leves de los músculos faciales y los cambios sutiles en el tono y el lenguaje.

La inteligencia artificial (AI, por sus siglas en inglés) “puede detectar la expresión facial y las conductas de las personas para ayudar a los médicos a realizar una evaluación más objetiva de la salud mental”, dijo Louis-Philippe Morency, profesor asociado de ciencias de la computación en Carnegie Mellon University de Pittsburgh.

Los expertos dicen que la AI tiene un gran potencial en el cuidado de la salud mental, donde las evaluaciones son subjetivas y que a menudo se basan en los informes de los pacientes sobre sí mismos. Pero ahora están surgiendo preguntas sobre la privacidad, el costo y la implementación cuando la inteligencia artificial se traslada del laboratorio al mercado.

El Dr. Morency estuvo en equipos de investigación en University of Southern California y ahora en Carnegie Mellon que publicaron estudios que establecen más de una docena de biomarcadores del comportamiento que permiten detectar trastornos como la depresión, el trastorno de estrés postraumático (PTSD, por sus siglas en inglés) y la esquizofrenia y el suicidio. Ahora está colaborando con investigadores que prueban cómo usar la tecnología para monitorear la salud mental.

“Creamos un diccionario de estos marcadores de comportamiento que revelan diferentes trastornos de salud mental”, dijo el Dr. Morency. “La tecnología brinda un resumen de estos marcadores de comportamiento y podemos usarlo como parte de un tratamiento para ver cómo se está comportando una persona hoy en comparación con hace un mes”.

Esto no tiene la intención de reemplazar a los médicos, dijo, y si un paciente muestra un marcador de comportamiento, eso no significa que éste tenga el padecimiento. Simplemente significa que pueden ser más probables los síntomas mentales.

“Esto no significa que si usted de repente tiene una voz entrecortada, es un suicida”, dijo el Dr. Morency. “Esta es una señal que el médico debería poder usarla cuando realizan su evaluación”.

Investigadores de Columbia University y University of Pittsburgh están llevando a cabo un estudio clínico en el que están monitoreando a adolescentes en riesgo de cometer suicidio mediante sus teléfonos inteligentes. “Parte del problema al que nos enfrentamos dentro del campo es que realmente debemos mejorar en la identificación de los factores que conducen a la escalada del riesgo de suicidio”, dijo Randy Auerbach, profesor asociado de psiquiatría en University of Columbia Medical School. “¿Podemos acceder a ellos en tiempo real para establecer intervenciones?”

Los investigadores están reclutando a adolescentes de alto riesgo que han estado en salas de emergencia psiquiátrica debido a un intento de suicidio o porque han expresado el deseo de terminar con su vida. Tienen fondos federales para inscribir de 200 a 300 adolescentes para monitorearlos durante seis meses.

Todos los participantes y sus padres dieron su consentimiento para ser parte del estudio y para que los investigadores del estudio supervisen el uso del teléfono de los adolescentes.

La privacidad es primordial, dijo el Dr. Morency, por lo que una gran parte del estudio consiste en descubrir marcadores de comportamiento no identificables a partir de los datos telefónicos.

El estudio de Columbia recopilará información de los teléfonos inteligentes, incluyendo autorretratos (selfies) y grabaciones de voz. Los investigadores recopilarán las palabras que los adolescentes usan en los sitios de redes sociales y en los textos o correos electrónicos, así como información que rastrea su paradero.

A partir de los datos, los investigadores pueden analizar los rasgos faciales y el tono, la velocidad y cadencia del habla utilizando los biomarcadores de comportamiento que establecieron el Dr. Morency y sus colegas. Pueden usar la AI para detectar si las personas suicidas entran en un estado mental cuando corren el riesgo de quitarse la vida.

Si los participantes expresan pensamientos o comportamientos suicidas durante las evaluaciones semanales de sus teléfonos, los investigadores y el personal clínico son notificados y así tomarán medidas para poner al adolescente en cuestión en contacto con un médico o los servicios de emergencia, dijo el Dr. Auerbach.

Aunque la AI parece prometedora en el campo de la salud mental, esta enfrenta un largo camino desde el laboratorio de investigación hasta la aplicación en la vida real.

Joshua Magee, profesor asistente de psicología en University of Miami, publicó un estudio el año pasado en el que examinó las aplicaciones de salud mental, las cuales no están reguladas. Llegó a la conclusión de que los consumidores deberían ser cautelosos y usar dichas aplicaciones solo en conjunción con un profesional de la salud mental.

Traducido por  Luis Felipe Cedillo

Editado por Michelle del Campo           

Copyright © 2019 Dow Jones & Company, Inc. All Rights Reserved

 


Fecha de publicación: 09/05/2019