El chatbot médico de inteligencia artificial de Google aprueba el examen médico de EE. UU.


El chatbot médico de inteligencia artificial de Google ha pasado el examen médico en los Estados Unidos. Sin embargo, sus resultados todavía están por debajo de los de los humanos, dice un estudio publicado el miércoles en Nature. El año pasado, el lanzamiento de ChatGPT, cuyo desarrollador OpenAI está respaldado por el rival de Google, Microsoft, provocó una carrera entre gigantes tecnológicos en el floreciente campo de la IA. La atención médica es un área en la que la tecnología ya ha mostrado un progreso tangible, con algunos algoritmos que han demostrado ser capaces de leer escaneos médicos mejor que los humanos.

Med-PaLM fue el primer modelo de lenguaje importante, según Google

Google había presentado su herramienta de inteligencia artificial dedicada a preguntas médicas, llamada Med-PaLM, en un artículo previo a la publicación en diciembre. A diferencia de ChatGPT, no se ha lanzado al público en general. Google afirma que Med-PaLM fue el primer modelo de lenguaje grande, una técnica de inteligencia artificial entrenada en grandes cantidades de texto generado por humanos, en pasar el USMLE (Examen de licencia médica de EE. UU.).

Aprobar este examen le permite ejercer la medicina en los Estados Unidos. Para conseguirlo, deberá obtener una puntuación aproximada del 60%. En febrero, un estudio reveló que ChatGPT se desempeñó bastante bien en el examen. En un nuevo estudio revisado por pares publicado el miércoles en la revista Nature, los investigadores de Google dijeron que Med-PaLM obtuvo un 67,6% al responder preguntas de opción múltiple al estilo USMLE. Estos resultados son «alentadores, pero aún más bajos que los de los humanos», dice el estudio.

En su lugar, se probará el modelo para «tareas administrativas».

Para identificar y reducir las llamadas «alucinaciones», la palabra para una respuesta obviamente incorrecta que ofrece un modelo de IA, Google dijo que ha desarrollado un nuevo punto de referencia. Karan Singhal, investigador de Google y autor principal del nuevo estudio, dijo a la AFP que su equipo había probado una versión más nueva del modelo. Según se informa, Med-Palm 2 obtuvo un 86,5 % en el examen USMLE, superando a la versión anterior en casi un 20 %, según un estudio publicado en mayo que no ha sido revisado por pares.

Según el Wall Street Journal, Med-PaLM 2 ha estado en pruebas en el prestigioso hospital de investigación estadounidense Mayo Clinic desde abril. Cualquier prueba realizada con Med-PaLM 2 no será «clínica, orientada al paciente o que pueda dañar a los pacientes», dijo Karan Singhal. Más bien, el modelo se probará para «tareas administrativas que se pueden automatizar con relativa facilidad, con poco riesgo», agregó.



Source link-59