La IA con agencia podría sumir a la atención sanitaria en una zona legal gris, según un abogado

Los agentes de IA —sistemas autónomos y específicos diseñados para realizar funciones con intervención humana mínima o nula— están ganando terreno en el ámbito sanitario. La industria enfrenta una presión enorme para reducir costos sin comprometer la calidad asistencial, y expertos en tecnología de la salud consideran que la IA agentica podría ser una solución escalable para este objetivo tan complejo.

No obstante, esta categoría de IA conlleva riesgos más elevados que sus predecesoras, según señala una abogada especializada en ciberseguridad y privacidad de datos.

Lily Li, fundadora del bufete Metaverse Law, subrayó que, por definición, los sistemas de IA agentica están diseñados para actuar en representación de un usuario o una organización —lo cual excluye al ser humano de decisiones o tareas potencialmente críticas—.

“Si se producen alucinaciones o errores en los resultados, o sesgos en los datos de entrenamiento, estos fallos tendrán un impacto tangible”, afirmó.

Por ejemplo, un agente de IA podría cometer errores como rellenar una receta de forma incorrecta o gestionar mal el triaje en urgencias, lo que podría derivar en lesiones o incluso en la muerte, explicó Li.

Estos escenarios hipotéticos ponen de relieve la ambigüedad jurídica que surge cuando la responsabilidad se traslada desde los profesionales acreditados.

“Incluso en situaciones en las que el agente de IA tome la decisión médica ‘correcta’, pero el paciente no responda adecuadamente al tratamiento, no está claro si los seguros de mala praxis médica actuales cubrirían reclamaciones en las que ningún médico titulado haya participado”, comentó.

Li señaló que los líderes sanitarios se desenvuelven en un terreno complejo —y opina que la sociedad debe abordar los riesgos potenciales de la IA agentica, pero solo en la medida en que estas herramientas contribuyan a un exceso de muertes o daños en comparación con un médico humano en circunstancias similares—.

LEAR  Bucky Irving menciona el equipo de la AFC con el que quiere jugar en horario estelar por $4,200,000,000

También destacó que los ciberdelincuentes podrían aprovechar estos sistemas para lanzar nuevos tipos de ataques.

Para evitar estos peligros, recomendó que las organizaciones de salud incorporen riesgos específicos de la IA agentica en sus modelos y políticas de evaluación de riesgos.

“Las organizaciones sanitarias deberían revisar primero la calidad de los datos subyacentes para eliminar errores y sesgos existentes en codificación, facturación y toma de decisiones, que alimentarán lo que el modelo aprende. Después, asegurarse de establecer límites en los tipos de acciones que la IA puede realizar —como restricciones de frecuencia en peticiones, limitaciones geográficas o filtros contra comportamientos maliciosos”, indicó Li.

También instó a las empresas de IA a adoptar protocolos estándar de comunicación entre sus agentes, lo que permitiría implementar cifrado y verificación de identidad para evitar usos malintencionados.

En su opinión, el futuro de la IA agentica en salud podría depender menos de su capacidad técnica y más de cómo el sector logre construir confianza y mecanismos de rendición de cuentas en el uso de estos modelos.

Foto: Weiquan Lin, Getty Images