Claudio Terranova, Clara Cestonaro, Ludovico Fava, Alessandro Cinquetti. IA y evaluación de responsabilidad profesional en el ámbito sanitario. ¿Una revolución en la medicina legal?. Front Med (Lausanne). 2024;10:1337335. Legal Medicine and Toxicology, Department of Cardiac, Thoracic, Vascular Sciences and Public Health, University of Padua, Padua, Italy
Resumen Chat Geminis 3:
IA y evaluación de responsabilidad profesional en la atención sanitaria
La integración de la Inteligencia Artificial (IA) avanzada en entornos clínicos está transformando radicalmente el panorama de la atención sanitaria. Si bien la IA promete mejorar la seguridad del paciente y optimizar los resultados clínicos, también plantea complejos desafíos éticos y legales. Este artículo, escrito por Claudio Terranova y colegas de la Universidad de Padua, explora el potencial transformador de la IA en el ámbito de la medicina legal, específicamente en la evaluación de la negligencia médica y la responsabilidad profesional.
1. La naturaleza dual de la IA en la atención médica
Los autores distinguen entre dos modos principales de aplicación de la IA: IA autónoma e IA integrada .
IA autónoma: Sistemas que operan de forma independiente y toman decisiones clínicas sin intervención humana. Si bien teóricamente son posibles, los autores señalan que estos sistemas actualmente no son lo suficientemente fiables ni avanzados para su implementación clínica completa.
IA integrada: Sistemas diseñados para apoyar a los profesionales humanos, combinando la información obtenida mediante IA con la experiencia humana. Este enfoque de "participación humana" es actualmente el modelo dominante, permitiendo a los médicos revisar los resultados de la IA antes de tomar decisiones finales sobre el diagnóstico o el tratamiento.
2. Los componentes básicos de la evaluación de responsabilidad
El artículo describe los pasos tradicionales necesarios para establecer la responsabilidad profesional en un caso de negligencia médica, que normalmente requiere prueba de tres elementos:
Daño/Perjuicio: El paciente debe haber sufrido una lesión física o psicológica.
Error/Conducta: El proveedor de atención médica debe haberse desviado del "estándar de atención" establecido.
Causalidad: Debe existir un vínculo causal claro entre el error del proveedor y el daño al paciente.
Los autores argumentan que la IA no sólo cambiará el comportamiento de los trabajadores de la salud, sino que también se convertirá en una herramienta vital para los testigos expertos que evalúan estos casos.
3. El impacto de la IA en el consentimiento informado
Uno de los cambios más significativos identificados se encuentra en el ámbito del consentimiento informado. A medida que la IA se convierte en una herramienta en el flujo de trabajo clínico, es necesario informar a los pacientes sobre su función.
Transparencia: Los médicos deben explicar si se utilizó un sistema de IA para el diagnóstico o la planificación del tratamiento.
Riesgos y limitaciones: Los pacientes deben comprender la naturaleza de "caja negra" de algunos sistemas de IA, donde la lógica detrás de una recomendación específica puede no ser totalmente transparente.
Implicaciones de responsabilidad: si un médico no revela el uso de IA o no explica sus limitaciones, puede enfrentar responsabilidad por falta de consentimiento informado, incluso si no ocurrió ningún error clínico.
4. Evaluación de la conducta y el «estándar de atención»
Determinar si un médico actuó con negligencia implica comparar su comportamiento con un estándar de atención: lo que un profesional razonablemente prudente habría hecho en la misma situación. La IA complica esto de dos maneras:
La IA como estándar: si una herramienta de IA se acepta ampliamente como el "estándar de oro" para un diagnóstico específico (por ejemplo, en radiología), un médico que ignore la sugerencia correcta de la IA podría ser considerado negligente.
Exceso de confianza: Por el contrario, un médico que sigue ciegamente una recomendación incorrecta de IA sin ejercer su criterio clínico también podría ser considerado responsable. El artículo enfatiza que la IA debe ser una herramienta complementaria , no un sustituto de la discreción profesional.
5. Establecer la causalidad mediante IA
La causalidad suele ser el elemento más difícil de probar en medicina legal. La IA y el aprendizaje automático (ML) ofrecen herramientas potentes para analizar grandes conjuntos de datos e identificar asociaciones estadísticamente significativas entre una intervención específica y un resultado adverso.
Reconocimiento de patrones: la IA puede revisar miles de casos clínicos similares para determinar si una complicación fue un riesgo conocido o el resultado de un error específico.
El problema de la "caja negra": Un obstáculo importante persiste: los sistemas de IA pueden identificar correlaciones que no necesariamente implican causalidad . Además, la naturaleza de "caja negra" de los modelos de aprendizaje profundo dificulta que los peritos expliquen el razonamiento ante un juez o jurado, lo que podría socavar el requisito legal de "credibilidad racional".
6. La necesidad de un «nuevo perito»
Los autores concluyen que la "revolución" en la medicina legal requerirá un nuevo tipo de profesional: el perito experto en IA . Evaluar un caso de negligencia médica con IA requiere más que solo conocimientos clínicos; requiere una formación cultural y técnica especializada para comprender el sesgo de los algoritmos, la calidad de los datos y las limitaciones específicas del software utilizado. Jueces y abogados también necesitarán nuevas habilidades para interpretar la evidencia generada por IA y evaluar el estándar de atención en la era digital.
7. Marcos regulatorios y legales
El artículo aborda la insuficiencia de los marcos regulatorios actuales. La mayoría de las leyes existentes se basan en la culpa, centrándose en la negligencia humana. Sin embargo, a medida que la IA se vuelve más autónoma, el sistema legal podría necesitar cambiar hacia modelos de responsabilidad sin culpa o regulaciones específicas para la cadena de suministro de IA (desarrolladores, programadores y proveedores). Los autores abogan por un enfoque cauteloso y equilibrado que evite la automatización completa del proceso legal, garantizando que el juicio humano siga siendo el árbitro final de la justicia.
Conclusión
El artículo plantea que, si bien la IA aún no está lista para reemplazar a los médicos o expertos legales, su papel como herramienta colaborativa e integrada es inevitable. Para la medicina legal, la "revolución" reside en la capacidad de la IA para mejorar la eficiencia, la exhaustividad y la imparcialidad de las evaluaciones de responsabilidad. Sin embargo, preservar la supervisión humana es fundamental para mantener los estándares éticos y garantizar que los matices de la realidad clínica no se pierdan en el procesamiento algorítmico. La transición requerirá importantes actualizaciones legislativas y una nueva generación de expertos médico-legales capaces de desenvolverse en la intersección de la medicina, el derecho y la tecnología.
(*) Una vez que esta en la pagina del articulo, pulsando el botón derecho puede acceder a su traducción al idioma español Este blog de bioquímica-clínica está destinado a bioquímicos y médicos; la información que contiene es de actualización y queda a criterio y responsabilidad de los mencionados profesionales, el uso que le den a la misma.
Nueva presentación el 09 de Enero
Dr. Anibal E. Bagnarelli,
Bioquímico-Farmacéutico,UBA.
Cordiales saludos.
Ciudada de Buenos Aires. R. Argentina
