La IA generativa llega a la atención sanitaria y no todo el mundo está entusiasmado


IA generativa, que puede crear y analizar imágenes, texto, audio, vídeos y más, se está abriendo camino cada vez más en la atención sanitaria, impulsada tanto por las grandes empresas tecnológicas como por las nuevas empresas.

Google Cloud, la división de productos y servicios en la nube de Google, está colaborando con Highmark Health, una empresa de atención médica sin fines de lucro con sede en Pittsburgh, en herramientas de inteligencia artificial generativa diseñadas para personalizar la experiencia de admisión del paciente. La división AWS de Amazon dice que está trabajando con clientes anónimos en una forma de utilizar la IA generativa para analizar bases de datos médicas para “determinantes sociales de la salud”. Y Microsoft Azure está ayudando a construir un sistema de inteligencia artificial generativo para Providence, la red de atención médica sin fines de lucro, para clasificar automáticamente los mensajes enviados por los pacientes a los proveedores de atención.

Entre las nuevas empresas destacadas de IA generativa en el sector sanitario se incluyen Ambience Healthcare, que está desarrollando una aplicación de IA generativa para médicos; Nabla, un asistente de IA ambiental para practicantes; y Abridge, que crea herramientas de análisis para documentación médica.

El amplio entusiasmo por la IA generativa se refleja en las inversiones en esfuerzos de IA generativa dirigidos a la atención sanitaria. En conjunto, la IA generativa en nuevas empresas de atención médica ha recaudado decenas de millones de dólares en capital de riesgo hasta la fecha, y la gran mayoría de los inversores en salud dicen que la IA generativa ha influido significativamente en sus estrategias de inversión.

Pero tanto los profesionales como los pacientes tienen opiniones encontradas sobre si la IA generativa centrada en la atención sanitaria está lista para el horario de máxima audiencia.

La IA generativa podría no ser lo que la gente quiere

En una encuesta reciente de Deloitte, solo alrededor de la mitad (53%) de los consumidores estadounidenses dijeron que pensaban que la IA generativa podría mejorar la atención médica, por ejemplo, haciéndola más accesible o acortando los tiempos de espera para las citas. Menos de la mitad dijeron que esperaban que la IA generativa hiciera que la atención médica fuera más asequible.

Andrew Borkowski, director de inteligencia artificial de VA Sunshine Healthcare Network, el sistema de salud más grande del Departamento de Asuntos de Veteranos de EE. UU., no cree que el cinismo sea injustificado. Borkowski advirtió que el despliegue de la IA generativa podría ser prematuro debido a sus limitaciones «significativas» y a las preocupaciones en torno a su eficacia.

«Uno de los problemas clave de la IA generativa es su incapacidad para manejar consultas o emergencias médicas complejas», dijo a TechCrunch. «Su base de conocimientos finita -es decir, la ausencia de información clínica actualizada- y la falta de experiencia humana lo hacen inadecuado para brindar asesoramiento médico integral o recomendaciones de tratamiento».

Varios estudios sugieren que esos puntos tienen credibilidad.

En un artículo publicado en la revista JAMA Pediatrics, se descubrió que el chatbot de IA generativa de OpenAI, ChatGPT, que algunas organizaciones sanitarias han puesto a prueba para casos de uso limitados, comete errores al diagnosticar enfermedades pediátricas el 83% de las veces. Y al probar el GPT-4 de OpenAI como asistente de diagnóstico, los médicos del Centro Médico Beth Israel Deaconess en Boston observaron que el modelo clasificó el diagnóstico incorrecto como su respuesta principal casi dos de cada tres veces.

La IA generativa actual también tiene dificultades con las tareas administrativas médicas que forman parte integral de los flujos de trabajo diarios de los médicos. En el punto de referencia MedAlign para evaluar qué tan bien la IA generativa puede realizar cosas como resumir los registros médicos de los pacientes y buscar entre notas, GPT-4 falló en el 35% de los casos.

OpenAI y muchos otros proveedores de IA generativa advierten contra la confianza en sus modelos para obtener asesoramiento médico. Pero Borkowski y otros dicen que podrían hacer más. «Dependerse únicamente de la IA generativa para la atención sanitaria podría dar lugar a diagnósticos erróneos, tratamientos inadecuados o incluso situaciones potencialmente mortales», afirmó Borkowski.

Jan Egger, que dirige las terapias guiadas por IA en el Instituto de IA en Medicina de la Universidad de Duisburg-Essen, que estudia las aplicaciones de la tecnología emergente para la atención al paciente, comparte las preocupaciones de Borkowski. Él cree que la única forma segura de utilizar la IA generativa en la atención médica actualmente es bajo la atenta y atenta mirada de un médico.

«Los resultados pueden ser completamente erróneos y cada vez es más difícil mantener la conciencia de ello», dijo Egger. “Claro, la IA generativa se puede utilizar, por ejemplo, para redactar previamente cartas de alta. Pero los médicos tienen la responsabilidad de comprobarlo y tomar la decisión final”.

La IA generativa puede perpetuar los estereotipos

Una forma particularmente dañina en la que la IA generativa en la atención sanitaria puede hacer las cosas mal es perpetuando los estereotipos.

En un estudio de 2023 de Stanford Medicine, un equipo de investigadores probó ChatGPT y otros chatbots generativos impulsados ​​por IA en preguntas sobre la función renal, la capacidad pulmonar y el grosor de la piel. Los coautores descubrieron que las respuestas de ChatGPT no solo eran frecuentemente incorrectas, sino que también incluían varias creencias falsas reforzadas y arraigadas de que existen diferencias biológicas entre las personas negras y blancas, falsedades que se sabe que han llevado a los proveedores médicos a diagnosticar erróneamente problemas de salud.

La ironía es que los pacientes con mayor probabilidad de ser discriminados por la IA generativa para la atención sanitaria son también los que tienen más probabilidades de utilizarla.

Las personas que carecen de cobertura sanitaria (personas de color, en general, según un estudio de KFF) están más dispuestas a probar la IA generativa para cosas como encontrar un médico o apoyo para la salud mental, mostró la encuesta de Deloitte. Si las recomendaciones de AI se ven empañadas por sesgos, podrían exacerbar las desigualdades en el tratamiento.

Sin embargo, algunos expertos sostienen que la IA generativa está mejorando en este sentido.

En un estudio de Microsoft publicado a finales de 2023, los investigadores dijeron que lograron una precisión del 90,2 % en cuatro puntos de referencia médicos desafiantes utilizando GPT-4. Vanilla GPT-4 no pudo alcanzar este puntaje. Pero, dicen los investigadores, a través de ingeniería rápida (diseñando indicaciones para que GPT-4 produzca ciertos resultados) pudieron aumentar la puntuación del modelo hasta en 16,2 puntos porcentuales. (Vale la pena señalar que Microsoft es un importante inversor en OpenAI).

Más allá de los chatbots

Pero hacerle una pregunta a un chatbot no es lo único para lo que sirve la IA generativa. Algunos investigadores dicen que las imágenes médicas podrían beneficiarse enormemente del poder de la IA generativa.

En julio, un grupo de científicos dio a conocer un sistema llamado caplazamiento impulsado por la complementariedad del flujo de trabajo clínico (CoDoC), en un estudio publicado en Nature. El sistema está diseñado para determinar cuándo los especialistas en imágenes médicas deberían confiar en la IA para el diagnóstico en comparación con las técnicas tradicionales. Según los coautores, CoDoC obtuvo mejores resultados que los especialistas y redujo los flujos de trabajo clínicos en un 66%.

En noviembre, un Demostración del equipo de investigación chino Panda, un modelo de IA utilizado para detectar posibles lesiones pancreáticas en radiografías. Un estudio demostró que Panda es muy preciso a la hora de clasificar estas lesiones, que a menudo se detectan demasiado tarde para una intervención quirúrgica.

De hecho, Arun Thirunavukarasu, investigador clínico de la Universidad de Oxford, dijo que no hay “nada único” en la IA generativa que impida su implementación en entornos de atención médica.

“Son factibles aplicaciones más mundanas de la tecnología de IA generativa en a corto y mediano plazo, e incluirán corrección de texto, documentación automática de notas y cartas y funciones de búsqueda mejoradas para optimizar los registros electrónicos de los pacientes”, dijo. “No hay ninguna razón por la que la tecnología de IA generativa, si es efectiva, no pueda implementarse en este tipo de roles inmediatamente”.

“Ciencia rigurosa”

Pero si bien la IA generativa se muestra prometedora en áreas específicas y limitadas de la medicina, expertos como Borkowski señalan los obstáculos técnicos y de cumplimiento que deben superarse antes de que la IA generativa pueda ser útil (y confiable) como una herramienta integral de asistencia sanitaria.

«Existen importantes preocupaciones sobre la privacidad y la seguridad en torno al uso de IA generativa en la atención médica», dijo Borkowski. “La naturaleza sensible de los datos médicos y el potencial de uso indebido o acceso no autorizado plantean graves riesgos para la confidencialidad del paciente y la confianza en el sistema sanitario. Además, el panorama regulatorio y legal que rodea el uso de la IA generativa en la atención médica todavía está evolucionando, y aún deben resolverse cuestiones relacionadas con la responsabilidad, la protección de datos y la práctica de la medicina por parte de entidades no humanas”.

Incluso Thirunavukarasu, por optimista que sea respecto de la IA generativa en la atención sanitaria, dice que es necesario que haya una “ciencia rigurosa” detrás de las herramientas orientadas al paciente.

«Particularmente sin supervisión médica directa, debería haber ensayos de control aleatorios pragmáticos que demuestren un beneficio clínico para justificar el despliegue de IA generativa de cara al paciente», dijo. «Una gobernanza adecuada en el futuro es esencial para detectar cualquier daño imprevisto tras el despliegue a escala».

Recientemente, la Organización Mundial de la Salud publicó directrices que abogan por este tipo de ciencia y la supervisión humana de la IA generativa en la atención sanitaria, así como por la introducción de auditorías, transparencia y evaluaciones de impacto sobre esta IA por parte de terceros independientes. El objetivo, según explica la OMS en sus directrices, sería fomentar la participación de un grupo diverso de personas en el desarrollo de la IA generativa para la atención sanitaria y brindar una oportunidad para expresar inquietudes y aportar opiniones durante todo el proceso.

«Hasta que las preocupaciones no se aborden adecuadamente y se establezcan las salvaguardias apropiadas», dijo Borkowski, «la implementación generalizada de la IA generativa médica puede ser… potencialmente dañina para los pacientes y la industria de la salud en su conjunto».



Source link-48