El crecimiento espectacular de las aplicaciones de salud mental ha creado una industria riesgosa

WHEN CAROLINA ESCUDERO estaba severamente deprimido, ir al consultorio de un terapeuta se volvió difícil de afrontar. Entonces se unió a BetterHelp, una popular aplicación de terapia. Pagaba $ 65 por semana, pero pasaba la mayor parte del tiempo esperando que respondiera su consejero asignado. Recibió dos respuestas en un mes. «Fue como enviarle un mensaje de texto a un conocido que no tiene idea de cómo lidiar con una enfermedad mental», dice. BetterHelp dice que su servicio no pretende operar las 24 horas del día, todos sus terapeutas tienen títulos avanzados y «miles de horas de trabajo clínico práctico», y los usuarios pueden cambiarlos fácilmente si la programación es difícil.

Escucha esta historia

Disfrute de más audio y podcasts en iOS o Androide.

Ayudar a las personas a lidiar con los problemas mentales rara vez ha sido más urgente. La incidencia de depresión y ansiedad se ha disparado en la pandemia, en más del 25% a nivel mundial en 2020, según el Lanceta, una revista médica. Eso, combinado con más personas que utilizan servicios en línea, ha llevado a un auge de las aplicaciones de salud mental. La Asociación Estadounidense de Psicología calcula que hay entre 10.000 y 20.000 disponibles para descargar. Pero está aumentando la evidencia de que se están ignorando los riesgos de privacidad para los usuarios. Nadie está comprobando si las aplicaciones funcionan tampoco.

Las empresas de tecnología de salud mental recaudaron casi $ 2 mil millones en fondos de capital en 2020, según CB Insights, una empresa de datos. Sus productos abordan problemas que van desde el estrés general hasta el trastorno bipolar grave. Las aplicaciones de telesalud como BetterHelp o Talkspace conectan a los usuarios con terapeutas autorizados. También son comunes las aplicaciones de meditación basadas en suscripción como Headspace. En octubre, Headspace compró Ginger, una aplicación de terapia, por $ 3 mil millones. Ahora que las grandes empresas están dando prioridad a la salud mental de los empleados, algunas aplicaciones están trabajando con ellos para ayudar a toda la fuerza laboral. Una de esas aplicaciones, Lyra, admite 2,2 millones de usuarios empleados en todo el mundo y está valorada en 4.600 millones de dólares.

Debajo, sin embargo, un trauma acecha en algunos rincones de la industria. En octubre de 2020, los piratas informáticos que habían violado Vastaamo, una popular startup finlandesa, comenzaron a chantajear a algunos de sus usuarios. Vastaamo pidió a los terapeutas que hicieran copias de seguridad de las notas de los pacientes en línea, pero al parecer no las anonimizó ni las cifró. Amenazando con compartir detalles de asuntos extramatrimoniales y, en algunos casos, pensamientos sobre pedofilia, en la web oscura, los piratas informáticos exigieron rescates de bitcoins a unos 30.000 pacientes. Vastaamo se declaró en quiebra, pero dejó a muchos finlandeses recelosos de dar datos personales a los médicos, dice Joni Siikavirta, abogada que representa a los pacientes de la empresa.

Pueden surgir otros casos. No existen estándares universales para almacenar «datos emocionales». John Torous, de la Facultad de Medicina de Harvard, que ha revisado 650 aplicaciones de salud mental, describe sus políticas de privacidad como pésimas. Algunos comparten información con los anunciantes. «Cuando me uní a BetterHelp, comencé a ver anuncios dirigidos con palabras que había usado en la aplicación para describir mis experiencias personales», informa un usuario. BetterHelp dice que comparte con socios de marketing solo identificadores de dispositivos asociados con «nombres de eventos genéricos», solo para medición y optimización, y solo si los usuarios están de acuerdo. No se comparte información privada, como el diálogo con los terapeutas, dice.

En cuanto a la efectividad, los métodos de las aplicaciones son notoriamente difíciles de evaluar. Woebot, por ejemplo, es un chatbot que utiliza inteligencia artificial para reproducir la experiencia de la terapia cognitivo-conductual. El producto se comercializa como clínicamente validado basado en parte en un estudio científico que concluyó que los humanos pueden formar vínculos significativos con los bots. Pero el estudio fue escrito por personas con vínculos financieros con Woebot. De sus diez informes revisados ​​por pares hasta la fecha, dice Woebot, ocho presentan asociaciones con un investigador principal sin vínculos financieros con él. Se divulga cualquier coautor con vínculos financieros, dice.

Las aplicaciones de salud mental se diseñaron para usarse además de la atención clínica, no en lugar de ella. Con eso en mente, la Comisión Europea está revisando el campo. Se está preparando para promover un nuevo estándar que se aplicará a todas las aplicaciones de salud. Una escala basada en letras clasificará la seguridad, la facilidad de uso y la seguridad de los datos. Liz Ashall-Payne, fundadora de ORCHA, una startup británica que ha revisado miles de aplicaciones, incluso para el Servicio Nacional de Salud, dice que el 68% no cumplía con los criterios de calidad de la firma. ¿Es hora de volver al sofá?

Para un análisis más experto de las historias más importantes en economía, negocios y mercados, suscríbase a Money Talks, nuestro boletín semanal.

Este artículo apareció en la sección Negocios de la edición impresa con el título «Psyber boom».