El despliegue caótico de AI en los grandes hospitales de EE. UU. se detalla en citas anónimas


Aurich Lawson | imágenes falsas

Cuando se trata de inteligencia artificial, la exageración, la esperanza y los presentimientos están repentinamente en todas partes. Pero la tecnología turbulenta ha causado olas durante mucho tiempo en el cuidado de la salud: desde la incursión fallida de IBM Watson en el cuidado de la salud (y la larga esperanza de que las herramientas de inteligencia artificial algún día puedan vencer a los médicos en la detección del cáncer en imágenes médicas) hasta los problemas reales de los sesgos raciales algorítmicos. .

Pero, detrás de la refriega pública de fanfarrias y fracasos, hay una realidad caótica de lanzamientos que en gran parte no se ha dicho. Durante años, los sistemas de atención médica y los hospitales han lidiado con intentos ineficientes y, en algunos casos, condenados al fracaso, de adoptar herramientas de inteligencia artificial, según un nuevo estudio dirigido por investigadores de la Universidad de Duke. El estudio, publicado en línea como una preimpresión, abre el telón sobre estas implementaciones desordenadas al tiempo que extrae lecciones aprendidas. En medio de revelaciones reveladoras de 89 profesionales involucrados en las implementaciones en 11 organizaciones de atención médica, incluidas Duke Health, Mayo Clinic y Kaiser Permanente, los autores ensamblan un marco práctico que los sistemas de salud pueden seguir mientras intentan implementar nuevas herramientas de inteligencia artificial. .

Y siguen llegando nuevas herramientas de IA. Apenas la semana pasada, un estudio en JAMA Internal Medicine encontró que ChatGPT (versión 3.5) superó de manera decisiva a los médicos al proporcionar respuestas empáticas y de alta calidad a las preguntas médicas que las personas publicaron en el subreddit r/AskDocs. Las respuestas superiores, según lo juzgado subjetivamente por un panel de tres médicos con experiencia médica relevante, sugieren que un chatbot de IA como ChatGPT podría algún día ayudar a los médicos a enfrentar la creciente carga de responder a los mensajes médicos enviados a través de portales de pacientes en línea.

Esto no es poca cosa. El aumento de los mensajes de los pacientes está relacionado con las altas tasas de agotamiento de los médicos. Según los autores del estudio, una herramienta de chat de IA eficaz no solo podría reducir esta carga agotadora, ofreciendo alivio a los médicos y liberándolos para dirigir sus esfuerzos a otra parte, sino que también podría reducir las visitas innecesarias al consultorio, aumentar la adherencia del paciente y el cumplimiento de la orientación médica. y mejorar los resultados de salud del paciente en general. Además, una mejor capacidad de respuesta de los mensajes podría mejorar la equidad del paciente al brindar más soporte en línea para los pacientes que tienen menos probabilidades de programar citas, como aquellos con problemas de movilidad, limitaciones laborales o miedo a las facturas médicas.

IA en la realidad

Todo eso suena genial, como gran parte de la promesa de las herramientas de inteligencia artificial para la atención médica. Pero hay algunas limitaciones y advertencias importantes en el estudio que hacen que el potencial real de esta aplicación sea más difícil de lo que parece. Para empezar, el tipo de preguntas que la gente hace en un foro de Reddit no son necesariamente representativas de las que le harían a un médico que conocen y (con suerte) confían. Y la calidad y los tipos de respuestas que los médicos voluntarios ofrecen a personas aleatorias en Internet pueden no coincidir con las que dan a sus propios pacientes, con quienes tienen una relación establecida.

Pero, incluso si los resultados principales del estudio se mantuvieran en interacciones reales entre médico y paciente a través de sistemas de mensajes de portal de pacientes reales, hay muchos otros pasos que tomar antes de que un chatbot pueda alcanzar sus elevados objetivos, según las revelaciones del grupo liderado por Duke. estudio de preimpresión.

Para ahorrar tiempo, la herramienta de IA debe estar bien integrada en las aplicaciones clínicas de un sistema de salud y en el flujo de trabajo establecido de cada médico. Es probable que los médicos necesiten soporte técnico confiable y potencialmente las 24 horas en caso de fallas. Y los médicos tendrían que establecer un equilibrio de confianza en la herramienta, un equilibrio tal que no transmitan ciegamente las respuestas generadas por IA a los pacientes sin revisarlas, pero que sepan que no necesitarán dedicar tanto tiempo a editar las respuestas que las anula. la utilidad de la herramienta.

Y después de gestionar todo eso, un sistema de salud tendría que establecer una base de evidencia de que la herramienta está funcionando como se esperaba en su sistema de salud en particular. Eso significa que tendrían que desarrollar sistemas y métricas para seguir los resultados, como la gestión del tiempo de los médicos y la equidad del paciente, la adherencia y los resultados de salud.

Estas son peticiones pesadas en un sistema de salud ya de por sí complicado y engorroso. Como señalan los investigadores del preprint en su introducción:

Basándose en el Modelo de Queso Suizo de Defensa Pandémica, cada capa del ecosistema de IA de atención médica actualmente contiene grandes agujeros que hacen que la amplia difusión de productos de bajo rendimiento sea inevitable.

El estudio identificó un marco de ocho puntos basado en los pasos de una implementación cuando se toman decisiones, ya sea por parte de un ejecutivo, un líder de TI o un médico de primera línea. El proceso implica: 1) identificar y priorizar un problema; 2) identificar cómo la IA podría ayudar potencialmente; 3) desarrollar formas de evaluar los resultados y éxitos de una IA; 4) descubrir cómo integrarlo en los flujos de trabajo existentes; 5) validar la seguridad, eficacia y equidad de la IA en el sistema de atención médica antes del uso clínico; 6) implementar la herramienta de IA con comunicación, capacitación y generación de confianza; 7) seguimiento; y 8) actualizar o desmantelar la herramienta a medida que pasa el tiempo.



Source link-49