La IA Decide Quién Recibe Atención: Sesgo Algorítmico en las Decisiones de Cuidados Postagudos

Las herramientas de decisión basadas en inteligencia artificial determinan cada vez más qué servicios de atención posaguda reciben los pacientes, y cuáles no. Como director ejecutivo de una empresa de tecnología sanitaria que trabaja con hospitales, centros de enfermería especializada (SNF) y organizaciones de atención responsable (ACO) en todo el país, he sido testigo de cómo algoritmos recomiendan denegar servicios necesarios de maneras que han encendido las alarmas. En un caso paradigmático, el software de una aseguradora predijo que una paciente de 85 años se recuperaría de una lesión grave en exactamente 16,6 días. Al día 17, se suspendió el pago por su rehabilitación en la residencia, a pesar de que aún sufría dolor y no podía vestirse o caminar por sí misma. Un juez tachó posteriormente la decisión de “especulativa”, pero para entonces ella ya había agotado sus ahorros para pagar la atención que debería haber recibido. Este ejemplo, lamentablemente, no es un incidente aislado. Subraya cómo el sesgo algorítmico y la automatización rígida pueden filtrarse en las determinaciones de cobertura para auxiliares de salud en el hogar, equipamiento médico, estancias de rehabilitación y cuidados de relevo.

Investigadores han encontrado que algunos algoritmos sanitarios replican inadvertidamente los sesgos humanos. Se demostró que un programa ampliamente utilizado para identificar pacientes de alto riesgo favorecía sistemáticamente a pacientes blancos menos enfermos frente a pacientes negros más enfermos, porque utilizaba el gasto sanitario como indicador de necesidad. Se gasta menos dinero en pacientes negros con las mismas afecciones, por lo que el algoritmo subestimaba su riesgo, negando efectivamente a muchos pacientes negros el acceso a una gestión de cuidados adicional hasta que se descubrió el sesgo. Este tipo de distorsión puede traducirse fácilmente en aprobaciones de cobertura sesgadas si los algoritmos se basan en datos demográficos o socioeconómicos.

He observado herramientas de cobertura basadas en IA que tienen en cuenta variables no clínicas como la edad del paciente, el código postal o su “situación vital”, lo cual puede ser problemático. Incluir determinantes sociales en los algoritmos es un arma de doble filo: en teoría podría mejorar la atención, pero los expertos advierten que a menudo reproduce disparidades. Por ejemplo, usar datos del código postal o de ingresos puede disminuir el acceso a servicios para pacientes más pobres si no se manejan con cuidado. En la práctica, he visto cómo a pacientes de barrios desatendidos se les aprueban menos horas de atención domiciliaria, como si el software asumiera que esas comunidades pueden arreglárselas con menos. Los sesgos pueden no ser intencionados, pero cuando el diseño o los datos de un algoritmo reflejan desigualdades sistémicas, los grupos vulnerables pagan el precio.

LEAR  Todas las tareas y las soluciones más económicas

Supuestos erróneos en la planificación del alta

Otra forma sutil de sesgo proviene de supuestos defectuosos integrados en las herramientas de planificación del alta. Algunos sistemas de gestión de casos hospitalarios utilizan ahora predicciones de IA para recomendar planes de atención posalta, pero no siempre aciertan con el factor humano.

Un problema común en las decisiones de planificación del alta, cuidados de relevo y equipamiento médico basadas en IA son los algoritmos que hacen suposiciones sobre el cuidado familiar o el apoyo adicional. En teoría, saber que un paciente tiene familia en casa debería ayudar a garantizar el apoyo. Sin embargo, estos sistemas no saben si un familiar está capacitado o dispuesto a proporcionar cuidados. Tuvimos un caso en el que el software de alta etiquetó como de bajo riesgo a un anciano paciente que había sufrido un ictus porque vivía con un hijo adulto, lo que implicaba que alguien le ayudaría en casa. Lo que el algoritmo no sabía era que el hijo trabajaba en dos empleos y no estaba en casa la mayor parte de los días. La herramienta estuvo a punto de enviar al paciente a casa con un apoyo domiciliario mínimo, lo que podría haber terminado en un desastre o en una visita de emergencia al hospital si nuestro equipo no hubiera intervenido. Esto ya no es hipotético, ya que incluso las directrices federales de atención advierten de no asumir nunca que un familiar presente en el hospital será el cuidador en el hogar. Aún así, la IA pasa por alto ese matiz.

Estas herramientas carecen del contexto humano de la dinámica familiar y de la comprensión de la diferencia entre un cuidador dispuesto y capaz y uno que está ausente, es anciano o está desbordado. Un clínico puede captar esa distinción; un ordenador a menudo no lo haría. El resultado es que algunos pacientes terminan sin los servicios que realmente necesitan.

LEAR  Nuevo programa de fibrilación auricular de Saint Luke’s y Story Health.

Pasos hacia la rectificación de errores en la atención algorítmica

Con la implementación de tecnología avanzada a lo largo del continuo sanitario a un ritmo acelerado, y particularmente su uso en la atención crítica posaguda, es inevitable que ocurran errores como los que menciono. La diferencia es que el impacto de esos errores se siente más profundamente en poblaciones de pacientes vulnerables y diversas que ya enfrentan grandes desafíos, especialmente en nuestras áreas de atención más crítica. Los pacientes no blancos a menudo se encuentran con un mayor riesgo de reingresos hospitalarios, con un aumento adicional del riesgo debido a bajos ingresos y falta de seguro.

Si hay un aspecto positivo, es que la industria sanitaria está empezando a enfrentarse a estos problemas. Poner el foco en soluciones de IA sesgadas y opacas ha impulsado llamamientos al cambio – y algunos pasos concretos hacia adelante. Los reguladores, por su parte, han comenzado a intervenir. Los Centros de Servicios de Medicare y Medicaid propusieron recientemente nuevas normas que limitan el uso de algoritmos de caja negra en las decisiones de cobertura de Medicare Advantage. De ser aceptadas, a partir del próximo año, las aseguradoras deberán garantizar que las herramientas predictivas tengan en cuenta las circunstancias individuales de cada paciente, en lugar de aplicar ciegamente una fórmula genérica. También se requerirá que clínicos cualificados revisen las denegaciones recomendadas por la IA para asegurar que se ajustan a la realidad médica. Estas propuestas de política hacen eco de lo que los expertos de primera línea han defendido: que los algoritmos deben asistir, no anular, el juicio clínico sólido. Es un paso bienvenido hacia el cambio y la corrección de los errores cometidos hasta ahora, aunque la aplicación será clave. Podemos y debemos hacerlo mejor para asegurar que nuestras nuevas herramientas inteligentes realmente vean al individuo – haciéndolas tan transparentes, imparciales y compasivas como los cuidadores que desearíamos para nuestras propias familias. Al final, reinventar la atención posaguda con IA debería tratarse de mejorar los resultados y la equidad, no de ahorrar dinero a costa de los pacientes más vulnerables.

LEAR  ¿Quién ganó MedCity INVEST Pitch Perfect?

Foto: ismagilov, Getty Images

El Dr. Afzal es un visionario en innovación sanitaria, dedicando más de una década a impulsar modelos de atención basados en valor. Como cofundador y director ejecutivo de Puzzle Healthcare, lidera una empresa de reconocido prestigio nacional especializada en la coordinación de la atención posaguda y la reducción de reingresos hospitalarios. Bajo su liderazgo, Puzzle Healthcare ha recibido elogios de varios de los principales sistemas sanitarios y ACO del país por sus excepcionales resultados en pacientes, la mejora en la prestación de cuidados y la reducción eficaz de las tasas de reingreso.

Esta publicación aparece a través del programa MedCity Influencers. Cualquier persona puede publicar su perspectiva sobre negocios e innovación en el cuidado de la salud en MedCity News a través de MedCity Influencers. Haga clic aquí para saber cómo.

Deja un comentario