La IA Decide Quién Recibe Atención: Abordando el Sesgo en las Decisiones de Cobertura Asistencial

La influencia de la inteligencia artificial en el sector sanitario ha crecido notablemente. Sin embargo, los sesgos en los algoritmos de IA están generando brechas en la atención que estas herramientas pretendían resolver. Los líderes sanitarios se ven obligados a sopesar tanto el incentivo financiero de lograr eficiencia operativa como las necesidades de los pacientes al determinar cómo brindar la atención más adecuada y rentable posible.

Aunque existe una gran necesidad y oportunidad de abordar este gasto general con herramientas avanzadas de IA que predicen las necesidades del paciente y la probabilidad de reingreso, los sesgos intrínsecos en estos algoritmos terminan causando más daño que beneficio. Los ahorros financieros se logran a expensas de la salud de los pacientes.

Contención de costes frente a necesidades del paciente

Muchos de estos sesgos se remontan a una tensión central en la atención basada en valor: el impulso por contener costes versus las necesidades individuales de los pacientes. Los modelos de valor y los planes de Medicare Advantage utilizan análisis predictivos para gestionar el gasto post-agudo. Los algoritmos procesan montañas de datos para determinar el plan de cuidado de un paciente, como cuántos días de rehabilitación "debería" necesitar un paciente típico o cuántas visitas de terapia domiciliaria son "suficientes". Las aseguradoras promocionan esto como medicina personalizada, pero a menudo observo una mentalidad de talla única. Las herramientas arrojan una duración de estancia o un nivel de servicio óptimos dirigidos al paciente promedio, lo que frecuentemente no se ajusta a la realidad.

Los proveedores de primera línea son testigos frecuentes de estos conflictos, percibiendo que estos algoritmos de gestión de la utilización son como un instrumento contundente. Colaborando con organizaciones de atención responsable (ACO) y hospitales, me he encontrado repetidamente con sistemas automatizados de preautorización que deniegan, por ejemplo, una semana extra de enfermería a domicilio o un equipo médico personalizado, porque el paciente "no cumple los criterios". En un contrato basado en valor, existe presión para reducir servicios que estadísticamente parecen excesivos, pero las enfermedades no siempre son promedio. Recuerdo a una superviviente de cáncer con complicaciones que superó el número estándar de visitas de terapia domiciliaria del algoritmo. La lógica de contención de costes la habría dejado sin cobertura; en cambio, nuestros coordinadores de atención lucharon por extender los servicios y evitaron lo que podría haber sido un reingreso hospitalario costoso. Lamentablemente, no todos los pacientes tienen un defensor que anule el algoritmo. La atención basada en valor nunca debería significar denegar cuidados cuando son legítimamente necesarios, pero sin controles cuidadosos, los algoritmos pueden cometer precisamente ese error en nombre de la "optimización".

LEAR  Líderes de la salud chocan sobre la regla final de paridad en salud mental.

Decisiones opacas y desafíos en la coordinación de la atención

Para pacientes y familias, una de las partes más frustrantes de todo esto es la opacidad. Cuando una fórmula de IA decide denegar la cobertura, las personas que sufren las consecuencias a menudo no tienen ni idea del porqué. Solo reciben una fría carta de denegación, que suelen parecerse todas, con frases genéricas como "no médicamente necesario" o "servicios ya no requeridos", con escasos o ningún detalle sobre su caso específico. Por ejemplo, dos de nuestros pacientes en centros distintos recibieron cartas diciendo que un director médico revisó su caso —sin dar nombre ni especialidad— y concluyó que estaban listos para ir a casa, pero ninguna carta mencionó las condiciones muy reales que hacían inseguro el hogar. Es como si la decisión se tomara en una caja negra y solo emergiera un veredicto vagamente redactado. A menudo, el informe del algoritmo nunca se comparte con los pacientes, dejándoles adivinar el método de puntuación, mientras éste funciona silenciosamente en segundo plano, invisible e inexaminado por aquellos a quienes afecta. Esta falta de transparencia hace extremadamente difícil para las familias impugnar o siquiera comprender las denegaciones.

La opacidad no solo perjudica a los pacientes; también entorpece la coordinación de la atención. Hospitales y centros de enfermería especializada (SNF) luchan por planificar transiciones cuando los cortes de cobertura llegan abruptamente basados en criterios ocultos. Esta incertidumbre deja a los planificadores del alta sin un plan adecuado para los servicios post-alta y a los SNFs sorprendidos por una aseguradora que detiene el pago mientras un paciente aún necesita rehabilitación. Esto crea tensión entre proveedores y pagadores y sitúa a los pacientes en medio de un tira y afloja. Los hospitales también han tenido que apresurarse para mantener a un paciente más tiempo o buscar financiación alternativa porque una denegación automatizada trastocó el plan de alta original. En muchos casos, los médicos y los equipos de cuidado de los SNFs están en fuerte desacuerdo con la decisión del algoritmo de finalizar la cobertura, ya que saben que el paciente no está listo. El resultado pueden ser altas apresuradas, traspasos precipitados y mayor riesgo de complicaciones o reingreso, exactamente lo que una buena atención transicional pretende prevenir. Estas decisiones de cobertura basadas en IA, cuando están envueltas en secreto, erosionan la confianza y la coordinación. Los proveedores se ven obligados a malgastar tiempo en apelaciones y soluciones alternativas en lugar de atender a los pacientes. Las familias a menudo quedan a oscuras hasta que súbitamente reciben una denegación y se apresuran a organizar la atención por su cuenta. La transparencia no es un lujo aquí; es una necesidad para una atención segura y coordinada.

LEAR  Cuatro Importantes Financiamientos en Tecnología Sanitaria Anunciados en Noviembre

Instaurar equidad y transparencia en las decisiones algorítmicas de atención

Controlar los costes es importante en todos los niveles de atención y es una pieza clave de los programas de atención basada en valor. Sin embargo, esto no puede hacerse a expensas de los pacientes. Más allá de la regulación, los desarrolladores de algoritmos y las organizaciones sanitarias deben redoblar esfuerzos en auditar estas herramientas en busca de sesgos antes de su implantación definitiva. Esto incluye examinar los resultados por raza, género y código postal, entre otros factores, y corregir cualquier error que surja. La transparencia también es una pieza fundamental del rompecabezas. Las aseguradoras no necesitan publicar fórmulas patentadas, pero deberían discloser los criterios utilizados para aprobar o denegar servicios post-agudos. Pacientes y proveedores merecen saber si las decisiones se basan en evidencia clínica, proyecciones de costes o un algoritmo de IA. Además, no se debería mantener a hospitales y SNFs en la oscuridad sobre cuánto tiempo es probable que se cubra la atención post-aguda de un paciente. Incluso si se usa un algoritmo, sus predicciones deberían compartirse para que todos puedan planificar adecuadamente y señalar preocupaciones a tiempo si la predicción parece errónea. En lo que respecta a la coordinación de la atención, una mayor comunicación es clave.

Los algoritmos de IA son herramientas y, aunque fueron diseñados por humanos y pueden programarse para alinearse con las prioridades de la empresa, raramente tienen la imagen completa. A medida que estas herramientas siguen evolucionando, los líderes sanitarios deben anteponer siempre al paciente. Esto significa mantener controles humanos para garantizar que los pacientes sigan recibiendo la atención que necesitan. Al final del día, los humanos no solo poseen más conocimiento situacional que la tecnología, sino que tienen más empatía y comprensión para emitir un juicio mejor del que estas herramientas jamás tendrán.

LEAR  Oli McBurnie: Su Etapa en Las Palmas, el Triunfo Ante el Barcelona como Visitante y su Regreso a Inglaterra con el Hull City

Foto: J Studios, Getty Images

El Dr. Afzal es un visionario en la innovación sanitaria, dedicando más de una década a impulsar modelos de atención basada en valor. Como cofundador y CEO de Puzzle Healthcare, lidera una empresa reconocida a nivel nacional que se especializa en la coordinación de la atención post-aguda y la reducción de reingresos hospitalarios. Bajo su liderazgo, Puzzle Healthcare ha recibido elogios de varios de los principales sistemas sanitarios y ACOs del país por sus excepcionales resultados en pacientes, la mejora en la prestación de atención y la reducción efectiva de las tasas de reingreso.

Este artículo aparece a través del programa MedCity Influencers. Cualquier persona puede publicar su perspectiva sobre negocios e innovación en healthcare en MedCity News a través de MedCity Influencers. Haga clic aquí para saber cómo.

Deja un comentario