El auge de la IA en salud mental es real. Y también los riesgos.

La salud conductual antes era ignorada, como algo secundario: invisible, con poco financio y malentendida. Pero eso ya cambió. El estigma se ha reducido, y el costo económico de descuidarla es demasiado alto como para pasarlo por alto. Empleadores, aseguradoras y políticos ahora lo toman en serio. Sin embargo, tanto pacientes como profesionales enfrentan un panorama cada vez más complicado.

Los cambios en las políticas gubernamentales generan incertidumbre, mientras que el impacto a largo plazo de la pandemia se minimiza. Hay temor de que las empresas eliminen silenciosamente sus Programas de Asistencia al Empleado (EAP), lo que plantea dudas sobre qué pasará cuando el ámbito laboral deje de priorizar la salud mental. Mientras tanto, vemos un mundo dividido: algunos acceden a atención real, y otros recurren a IA como ChatGPT para gestionar problemas como depresión o TOC. Estamos en medio de un punto de inflexión, y la atención por sí sola no resolverá el problema.

Mientras la demanda de salud conductual aumenta, los modelos tradicionales de atención se quedan atrás. La escasez de profesionales y el agotamiento clínico han dejado a millones de personas sin acceso a servicios de salud mental. Por ejemplo, uno de cada tres adultos con ansiedad no recibe la atención que necesita. Además, los profesionales atienden a pacientes con síntomas más graves y que requieren tratamientos más largos, llevándolos al límite de su capacidad.

Con más personas necesitando ayuda y menos profesionales disponibles, la salud conductual está llegando a un punto crítico. La atención virtual y las herramientas digitales ya no son solo una promesa, sino una necesidad. Este cambio impulsa el auge de la IA en salud mental, con un mercado que se espera crezca de 88 mil millones en 2024 a 132 mil millones para 2032 (un aumento del 50% en solo ocho años).

LEAR  Bioplásticos a Base de Almidón ‘Seguros’ Dañan Órganos y Alteran el Metabolismo

Afortunadamente, muchas de estas tecnologías emergentes ayudan a aliviar la carga. Herramientas con IA optimizan operaciones con flujos automatizados, asignación inteligente de recursos y documentación más rápida. En la primera línea de atención, apps y plataformas de telemedicina están transformando cómo y dónde las personas reciben apoyo.

Pero no todas las soluciones cumplen lo que prometen. La avalancha de herramientas de IA para diagnóstico, chatbots y sistemas de decisión clínica ha hecho más difícil —no más fácil— distinguir qué herramientas realmente mejoran la atención y cuáles solo agregan confusión.

En un mercado lleno de potencial pero vulnerable al exceso, cabe preguntarse: ¿estamos sobreestimando la capacidad actual de la IA en salud conductual?

No toda la IA es igual

El mundo de la salud conductual está inundado de IA, pero sus aplicaciones varían mucho en sofisticación e impacto.

Algunas herramientas ya están marcando una diferencia real. Evaluaciones automatizadas y verificadores de síntomas ayudan a asignar pacientes al nivel adecuado de atención con mayor rapidez y precisión. Asistentes de voz y análisis de discurso reducen el tiempo de documentación, permitiendo a los profesionales enfocarse en sus pacientes. Chatbots y apps móviles ofrecen apoyo entre sesiones, manteniendo a los pacientes comprometidos. Estas no son promesas futuristas, sino soluciones que reducen carga administrativa, mejoran la atención y hacen la salud conductual más accesible.

Pero en otros casos, la credibilidad clínica de la IA es cuestionable. A diferencia de áreas como radiología o cardiología —donde existen estándares claros—, muchas herramientas en salud mental se basan en datasets pequeños, sesgados o sin pruebas reales. Estos modelos pueden arrojar resultados confiados pero clínicamente erróneos, desviando tratamientos, poniendo pacientes en riesgo y exponiendo a profesionales a consecuencias legales.

LEAR  Reconociendo y Mitigando los Riesgos de Ciberseguridad: Estrategias para Organizaciones de Salud

En lugar de simplificar, estas herramientas muchas veces obligan a reguladores a intervenir, especialmente cuando la IA influye en diagnósticos o decisiones de tratamiento. Esto no mejora la eficiencia, sino que añade fricción a un sistema ya sobrecargado.

Algunas aplicaciones de autoayuda y chatbots prometen más de lo que pueden ofrecer, imitando "terapia" sin capacidad para manejar crisis o necesidades complejas. Mientras tanto, herramientas como ChatGPT —que no cumplen estándares de seguridad— son usadas por millones por su accesibilidad.

Este mercado tendrá avances y retrocesos, pero a pesar de sus limitaciones, debemos seguir avanzando. Con los límites adecuados, la IA puede ayudarnos a construir un mejor sistema. Sin embargo, debemos ser responsables con su implementación, o el riesgo para los pacientes aumentará.

Cómo debe ser una IA responsable

Ya sea en un gran sistema de salud o una clínica independiente, evaluar la IA requiere escepticismo saludable. Los líderes no pueden dejarse llevar por promesas exageradas.

Las herramientas de IA que realmente marcan la diferencia no solo optimizan facturación, sino que están validadas clínicamente, diseñadas para profesionales y enfocadas en reducir su carga de trabajo. A diferencia de las enfocadas en ingresos, las soluciones clínicas mejoran directamente la experiencia del paciente y la capacidad del profesional para brindar atención.

Claves para identificar IA confiable:

🔴 Señales de alerta: Protección de datos débil, datasets pequeños o falta de validación científica.
🟢 Señales positivas: Modelos con supervisión humana, limitaciones claras y enfoque en complementar, no reemplazar, el juicio clínico.

💡 La mejor IA se construye con profesionales de la salud, no solo para ellos. Busca soluciones desarrolladas con su aporte desde el inicio.
📈 Empieza pequeño, demuestra valor y luego escala. Ninguna herramienta debe implementarse sin pruebas previas de precisión, eficiencia o adherencia al tratamiento.

LEAR  ¿Qué podría significar la elección para la interoperabilidad de datos?

La IA ya está marcando una diferencia en salud conductual: facilitando diagnósticos, optimizando protocolos y detectando riesgos antes de que escalen.

Pero el progreso es desigual. No todas las herramientas funcionan perfectamente desde el inicio, ni todos los sistemas se integran bien. Esto no es fracaso, sino parte de construir algo nuevo.

Para avanzar, necesitamos estándares claros, salvaguardias inteligentes y voluntad de aprender de los aciertos y errores. La salud conductual no necesita tecnología que reemplace a las personas, sino que las respete, potencie su labor y ayude a más personas a recibir la atención que merecen.

Este momento no se trata de perseguir tendencias, sino de sentar bases sólidas para el futuro de la atención médica. Juntos, podemos lograrlo.

📸 Foto: metamorworks, Getty Images

Melissa Tran es CEO de ProsperityEHR, donde lidera la modernización de infraestructura en salud conductual. Con experiencia en Epic, Bluetree Network y Tegria, tiene amplia trayectoria en sistemas clínicos y operaciones sanitarias.

Dra. Heidi V. Carlson es psicóloga y terapeuta familiar en River Valley Behavioral Health & Wellness Center, especializada en trauma, desarrollo cerebral y trastornos del estado de ánimo. Además de su trabajo clínico, brinda capacitación en salud mental.

Este artículo forma parte del programa MedCity Influencers. Cualquiera puede publicar su perspectiva sobre innovación en salud en MedCity News. Descubre cómo aquí.