Los Grandes Modelos de Lenguaje (LLMs) han generado una fiebre del oro en el cuidado de la salud, especialmente en la salud mental, con aparentemente cada empresa afirmando que su chatbot puede revolucionar la terapia. No es difícil ver por qué. La salud mental enfrenta un problema de suministro fundamental: dos tercios de las personas que necesitan atención no pueden acceder a ella. A diferencia de muchas condiciones médicas que pueden tratarse con medicamentos autoadministrados, la terapia psicológica requiere inherentemente una conversación sostenida entre el paciente y el clínico. Cada hora de terapia representa una unidad irreducible de tiempo clínico, creando un límite natural en el acceso a la atención.
Los LLMs, con sus notables habilidades conversacionales, están posicionados de manera única para ayudar a resolver esta crisis. Pero al igual que la explosión de las punto com antes, la oleada de ‘terapeutas’ de IA ha creado un paisaje turbulento donde separar la innovación legítima de los atajos peligrosos no es sencillo.
El argumento ético a favor de los LLMs en la atención al paciente
Para ser claro, no voy a hacer el caso agotado de que ChatGPT es un reemplazo de un profesional de la salud mental calificado. No lo es. Tampoco minimizaré las cualidades humanas únicas de la terapia psicológica, que involucra fundamentalmente una experiencia humana. Y sin embargo… aquí estamos, enfrentando una crisis de salud mental donde dos tercios de las personas que necesitan atención no pueden acceder a ella. Cuando tu casa está en llamas, no rechazas la manguera de incendios porque no es tan elegante como tu sistema de rociadores interior. Si los LLMs, a través de sus fenomenales capacidades conversacionales, pueden ampliar el impacto de los clínicos que brindan terapias habladas, argumentaría que es un imperativo moral que figuremos el camino a seguir. La verdadera pregunta no es si deberíamos usar LLMs en la atención al paciente; es “¿cómo podemos hacer esto asegurando que se mantenga la seguridad y la rigurosidad clínica?” Este es el ‘problema difícil’ de los LLMs en la salud, y abordarlo determinará si la IA se convierte en una fuerza genuina para el bien o simplemente otra tecnología sobrevalorada.
Evitar el problema difícil de hacer que los LLMs sean seguros
1. “Chatbots basados en reglas”
Un enfoque común es limitar los chatbots a mensajes predefinidos escritos por sus creadores. En primer lugar, debemos reconocer que etiquetar estas soluciones como “IA” estira considerablemente el término. Los sistemas basados en reglas, por definición, no muestran las características inteligentes adaptativas de la IA genuina. (Los escépticos pueden preguntarse si la designación de “IA” sirve más como una herramienta de marketing que como una descripción técnica precisa).
Por el contrario, los LLMs producen respuestas únicas adaptadas al contexto específico. A diferencia de sus predecesores basados en reglas, estos sistemas muestran un comportamiento verdaderamente inteligente, respondiendo a los matices de cada conversación.
Si bien es innegable que los chatbots basados en reglas son seguros, principalmente porque son en gran medida inertes, su falla fundamental radica en la eficacia y la usabilidad. A pesar de las afirmaciones de los vendedores, los metaanálisis independientes cuentan una historia diferente: los efectos terapéuticos son pequeños y no se mantienen con el tiempo. Además, los usuarios informan consistentemente frustración con respuestas que se sienten vacías, genéricas, incoherentes, repetitivas y limitadas.
2. “No es atención médica, es bienestar”
En su prisa por llegar al mercado, muchas empresas que despliegan LLMs están evitando por completo los requisitos de seguridad clínica simplemente rebautizando sus herramientas como “entrenadores de bienestar” u otras etiquetas vagas. Al descartar casualmente sus soluciones como no clínicas, se excusan de la responsabilidad. Este juego de manos probablemente se vuelva particularmente común entre los proveedores de teleterapia, que ya ofrecen servicios de atención más amplios y pueden desear agregar rápidamente funciones de IA a su oferta bajo la apariencia de bienestar. Si bien es legalmente permisible (por ahora), es un juego peligroso.
El problema fundamental es el contexto: ya sea etiquetado como “entrenador” o no, los productos LLM no validados no deben usarse dentro del contexto del tratamiento de salud mental de individuos vulnerables. El trágico suicidio de un niño de 14 años relacionado con un LLM no validado de Character AI destaca los peligros de la IA operando sin una supervisión clínica adecuada y los graves riesgos legales y de reputación para aquellos que no priorizan la rigurosidad clínica. Esto no es necesariamente una cuestión de regulación: la FDA determina en última instancia qué productos están sujetos a supervisión de dispositivos médicos. Sin embargo, cualquier herramienta de IA que se utilice como parte de la atención al paciente, independientemente de su etiqueta de “bienestar”, debe ser responsable de pruebas clínicas revisadas por pares robustas y validación de seguridad de terceros.
Abordando el problema difícil
El camino hacia una IA segura en la salud mental no es a través de adaptaciones superficiales de LLMs de propósito general. Si bien estos modelos sobresalen en la conversación natural, carecen fundamentalmente de la rigurosidad clínica requerida para la atención médica: sus respuestas son inherentemente inexplicables, pueden ser impredecibles y a menudo son inexactas. Estas limitaciones no se pueden resolver mediante simples “ajustes” o vagas nociones de “salvaguardias”.
La solución robusta es separar la toma de decisiones clínicas de la destreza conversacional. Esto significa desarrollar un sistema de razonamiento clínico independiente y especializado que funcione junto al LLM. A diferencia de la “caja negra” de los LLMs, esta capa de razonamiento clínico debe entrenarse específicamente en datos de salud, representar explícitamente protocolos clínicos establecidos y proporcionar decisiones explicables con métricas de seguridad cuantificables. Piénselo como un supervisor clínico en tiempo real, asegurando que cada interacción de LLM cumpla con los estándares de salud manteniendo la calidad de la conversación natural que hace que la IA generativa sea tan poderosa en la salud mental.
Para mayor claridad, este enfoque está muy alejado de simplemente pedirle a ChatGPT que “actúe como un terapeuta”, ni presume de una amplia selección de indicaciones cuidadosamente elaboradas escritas por profesionales de la salud mental calificados. El verdadero progreso requiere reconocer que la IA segura para la salud mental necesita dos sistemas distintos trabajando en conjunto: uno para la conversación natural y otro para el razonamiento clínico. Solo separando claramente estas funciones podemos aprovechar adecuadamente las fortalezas conversacionales de los LLMs mientras mantenemos estándares clínicos rigurosos a través de sistemas de supervisión dedicados.
Comentarios finales
En la salud mental, enfrentamos una verdad simple: millones necesitan ayuda, y tenemos una tecnología que podría transformar el acceso a la atención. La tentación de tomar atajos, ya sea a través de sistemas basados en reglas o aplicaciones de bienestar no validadas, es comprensible pero en última instancia perjudicial. La verdadera innovación requiere abordar los problemas difíciles de seguridad y rigurosidad clínica de frente. La tecnología existe. La necesidad es clara. La pregunta es: ¿haremos el trabajo duro necesario para cerrar la brecha entre la promesa de los LLMs y las demandas de la atención médica?
Foto: anyaberkut, Getty Images
Ross Harper, CEO de Limbic, es un distinguido Ph.D. en neurociencia computacional y una maestría en Modelado Matemático de University College London y una maestría en Ciencias Naturales de la Universidad de Cambridge. Ross posee una comprensión intrincada de la superposición entre matemáticas, tecnología y la mente humana. Lanzó Limbic en 2020 para permitir que los grandes modelos de lenguaje y GenAI ayuden en los procesos en el espacio de la salud mental, apoyando a los clínicos y pacientes dentro del NHS y los EE. UU.