La inteligencia artificial en medicina veterinaria plantea desafíos éticos


El uso de la inteligencia artificial (IA) está aumentando en el campo de la medicina veterinaria, pero los expertos veterinarios advierten que la prisa por adoptar la tecnología plantea algunas consideraciones éticas.


por Tracey Peake, Universidad Estatal de Carolina del Norte


«Una gran diferencia entre la medicina veterinaria y la humana es que los veterinarios tienen la capacidad de sacrificar a los pacientes, lo que podría deberse a una variedad de razones médicas y financieras, por lo que los riesgos de los diagnósticos proporcionados por los algoritmos de IA son muy altos», dice Eli Cohen, asociado. profesor clínico de radiología en la Facultad de Medicina Veterinaria de NC State. «Los productos de IA humanos deben validarse antes de salir al mercado, pero actualmente no existe una supervisión regulatoria para los productos de IA veterinarios».

En una reseña para Veterinary Radiology and Ultrasound , Cohen analiza las cuestiones éticas y legales planteadas por los productos veterinarios de IA actualmente en uso. También destaca las diferencias clave entre la IA veterinaria y la IA utilizada por médicos humanos.

Actualmente, la IA se comercializa entre los veterinarios para radiología e imágenes, en gran parte porque no hay suficientes radiólogos veterinarios en ejercicio para satisfacer la demanda. Sin embargo, Cohen señala que el análisis de imágenes de IA no es lo mismo que un radiólogo capacitado que interpreta imágenes a la luz del historial médico y la situación única de un animal.

Si bien la IA puede identificar con precisión algunas condiciones en una radiografía, los usuarios deben comprender las posibles limitaciones. Por ejemplo, es posible que la IA no pueda identificar todas las condiciones posibles y que no pueda discriminar con precisión entre condiciones que se ven similares en las radiografías pero que tienen diferentes cursos de tratamiento.

Actualmente, la FDA no regula la IA en productos veterinarios como lo hace en la medicina humana. Los productos veterinarios pueden salir al mercado sin más supervisión que la proporcionada por el desarrollador y/o la empresa de IA.

«La IA y cómo funciona es a menudo una caja negra, lo que significa que incluso el desarrollador no sabe cómo toma decisiones o diagnósticos», dice Cohen. «Si a eso le sumamos la falta de transparencia de las empresas en el desarrollo de la IA, incluida la forma en que se entrenó y validó la IA, se le está pidiendo a los veterinarios que utilicen una herramienta de diagnóstico sin manera de evaluar si es precisa o no.

«Dado que los veterinarios a menudo reciben una sola visita para diagnosticar y tratar a un paciente y no siempre reciben un seguimiento, la IA podría estar proporcionando diagnósticos erróneos o incompletos y un veterinario tendría una capacidad limitada para identificar eso, a menos que se revise el caso o se produzca una enfermedad grave». ocurre el resultado», continúa Cohen.

«La IA se comercializa como un reemplazo o como si tuviera un valor similar a la interpretación de un radiólogo, porque existe una brecha en el mercado. El mejor uso de la IA en el futuro, y ciertamente en esta fase inicial de implementación, es con lo que se llama un radiólogo en el bucle, donde la IA se usa junto con un radiólogo, no en lugar de uno», explica Cohen.

«Esta es la forma más ética y defendible de emplear esta tecnología emergente: aprovecharla para que más veterinarios y mascotas accedan a las consultas con radiólogos, pero lo más importante es que los expertos en el dominio resuelvan los problemas de la IA y prevengan los resultados adversos y el daño al paciente».

Cohen recomienda que los expertos veterinarios se asocien con los desarrolladores de IA para garantizar la calidad de los conjuntos de datos utilizados para entrenar el algoritmo, y que se realicen pruebas de validación de terceros antes de que las herramientas de IA se lancen al público.

«Casi todo lo que un veterinario podría diagnosticar en las radiografías tiene el potencial de ser de riesgo medio a alto, lo que significa que conduce a cambios en el tratamiento médico, la cirugía o la eutanasia, ya sea debido al diagnóstico clínico o a las limitaciones financieras del cliente», dice Cohen. “Ese nivel de riesgo es el umbral que la FDA usa en medicina humana para determinar si debe haber un radiólogo en el circuito. Sería prudente como profesión adoptar un modelo similar.

«La IA es una herramienta poderosa y cambiará la forma en que se practica la medicina, pero la mejor práctica en el futuro será usarla junto con los radiólogos para mejorar el acceso y la calidad de la atención al paciente, en lugar de usarla para reemplazar esas consultas».

Más información: Eli B. Cohen et al, Primero, no hacer daño. Cuestiones éticas y legales de la inteligencia artificial y el aprendizaje automático en radiología veterinaria y oncología radioterápica, radiología y ultrasonido veterinarios (2022). DOI: 10.1111/vru.13171



WP Twitter Auto Publish Powered By : XYZScripts.com