El surgimiento de los modelos de lenguaje grandes (LLMs) llevó a un equipo de investigación a comparar el rendimiento de esta tecnología frente a los sistemas tradicionales de soporte de decisiones clínicas en la identificación de interacciones entre medicamentos. Un análisis retrospectivo reveló que las herramientas clínicas tradicionales detectaron 280 casos relevantes, mientras que la IA solo encontró 80.
Estudios como este ejemplifican por qué los profesionales de la salud son cautelosos al adoptar la IA en la práctica clínica. Según una encuesta sobre inversión en TI para salud en 2024 de Bain y KLAS Research, las preocupaciones regulatorias, legales, de coste y precisión son válidas cuando la seguridad del paciente está en juego.
Sin embargo, el estudio también muestra que la IA gana cada vez más terreno. Los encuestados se muestran optimistas sobre su implementación y están más dispuestos a experimentar con esta tecnología para mejorar resultados.
La IA enfrenta un dilema clave al integrarse en los flujos de trabajo clínicos: ¿Cómo usar la tecnología para mejorar la atención sin aumentar el riesgo?
Veamos esta pregunta desde el soporte de decisiones clínicas, específicamente en información sobre medicamentos. Durante décadas, la tecnología ha ayudado a los médicos a mantenerse al día con la evidencia médica, algo imposible de lograr manualmente. Por ejemplo, PubMed contiene más de 30 millones de publicaciones y crece en un millón al año.
Las bases de datos especializadas monitorean literatura, actualizaciones regulatorias y guías clínicas, evaluando su calidad y sintetizando información para los médicos.
Los sistemas confiables ofrecen datos basados en evidencia, curados por expertos. La IA puede mejorar esta experiencia, acelerando el acceso a la información con menos clics—si está diseñada para ello.
IA general vs. IA especializada
Los LLMs, como ChatGPT, dominan las conversaciones sobre IA. Sin embargo, usarlos como sustituo de sistemas de soporte clínico tiene limitaciones.
Por ejemplo, un estudio mostró que ChatGPT pasó por alto interacciones farmacológicas relevantes. Otro reveló que, aunque podía identificarlas, fallaba al predecir severidad o proporcionar documentación de calidad.
Preguntas clave para evaluar IA clínica:
- ¿Para quién está diseñada? La IA especializada se enfoca en un público específico y sus necesidades críticas, superando a las herramientas generales.
- ¿Qué datos la entrenan? Debe incluir evidencia citada y revisada por expertos, no solo contenido web sin filtro.
- ¿Cómo interpreta preguntas ambiguas? Debe aclarar su interpretación para evitar errores (ej.: "parámetros de monitoreo para vancomicina").
- ¿Ofrece múltiples soluciones? Los clínicos necesitan opciones, no una única respuesta.
- ¿Reconoce sus límites? Debe ser transparente cuando no pueda responder con precisión.
- ¿Involucró a médicos en su desarrollo? Su participación es esencial para garantizar seguridad y utilidad.
Conclusión
La IA especializada, combinada con el juicio clínico, logra mejores resultados que cualquiera por separado.
Imagen: MR.Cole_Photographer, Getty Images
Sonika Mathur, Vicepresidenta Ejecutiva de Micromedex, tiene más de 20 años de experiencia en soporte de decisiones clínicas. Este artículo forma parte del programa MedCity Influencers. Más información aquí.
