\n<\/aside>\n<\/p>\n
ChatGPT todav\u00eda no existe en House, MD.<\/p>\n
Si bien el hablador robot de IA ha fracasado anteriormente con sus intentos de diagnosticar casos m\u00e9dicos desafiantes (con una tasa de precisi\u00f3n del 39 por ciento en un an\u00e1lisis del a\u00f1o pasado), un estudio publicado esta semana en JAMA Pediatrics sugiere que la cuarta versi\u00f3n del modelo de lenguaje grande es especialmente mala. con ni\u00f1os. Ten\u00eda una tasa de precisi\u00f3n de s\u00f3lo el 17 por ciento al diagnosticar casos m\u00e9dicos pedi\u00e1tricos.<\/p>\n
La baja tasa de \u00e9xito sugiere que los pediatras humanos no se quedar\u00e1n sin trabajo en el corto plazo, en caso de que eso fuera una preocupaci\u00f3n. Como lo expresan los autores: \u00ab[T]\u00bbEste estudio subraya el papel invaluable que desempe\u00f1a la experiencia cl\u00ednica\u00bb. Pero tambi\u00e9n identifica las debilidades cr\u00edticas que llevaron a la alta tasa de error de ChatGPT y las formas de transformarlo en una herramienta \u00fatil en la atenci\u00f3n cl\u00ednica. Con tanto inter\u00e9s y experimentaci\u00f3n con chatbots de IA, muchos Los pediatras y otros m\u00e9dicos consideran inevitable su integraci\u00f3n en la atenci\u00f3n cl\u00ednica.<\/p>\n
En general, el campo m\u00e9dico ha sido uno de los primeros en adoptar tecnolog\u00edas impulsadas por la IA, lo que ha dado lugar a algunos fracasos notables, como la creaci\u00f3n de sesgos raciales algor\u00edtmicos, as\u00ed como a \u00e9xitos, como la automatizaci\u00f3n de tareas administrativas y la ayuda a interpretar esc\u00e1neres de t\u00f3rax e im\u00e1genes de retina. Tambi\u00e9n hay mucho en el medio. Pero el potencial de la IA para la resoluci\u00f3n de problemas ha despertado un inter\u00e9s considerable en convertirla en una herramienta \u00fatil para diagn\u00f3sticos complejos, sin necesidad de un genio m\u00e9dico exc\u00e9ntrico, quisquilloso y que tome pastillas.<\/p>\n
En el nuevo estudio realizado por investigadores del Centro M\u00e9dico Infantil Cohen en Nueva York, ChatGPT-4 demostr\u00f3 que a\u00fan no est\u00e1 listo para diagn\u00f3sticos pedi\u00e1tricos. En comparaci\u00f3n con los casos generales, los casos pedi\u00e1tricos requieren una mayor consideraci\u00f3n de la edad del paciente, se\u00f1alan los investigadores. Y como cualquier padre sabe, diagnosticar afecciones en beb\u00e9s y ni\u00f1os peque\u00f1os es especialmente dif\u00edcil cuando no pueden identificar o articular todos los s\u00edntomas que experimentan.<\/p>\n
Para el estudio, los investigadores compararon el chatbot con 100 desaf\u00edos de casos pedi\u00e1tricos publicados en JAMA Pediatrics y NEJM entre 2013 y 2023. Estos son casos m\u00e9dicos publicados como desaf\u00edos o cuestionarios. Se invita a los m\u00e9dicos que lean el libro a intentar llegar al diagn\u00f3stico correcto de un caso complejo o inusual bas\u00e1ndose en la informaci\u00f3n que ten\u00edan los m\u00e9dicos tratantes en ese momento. A veces, las publicaciones tambi\u00e9n explican c\u00f3mo los m\u00e9dicos llegaron al diagn\u00f3stico correcto.<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nConexiones perdidas<\/h2>\n Para la prueba de ChatGPT, los investigadores pegaron el texto relevante de los casos m\u00e9dicos en el mensaje, y luego dos investigadores m\u00e9dicos calificados calificaron las respuestas generadas por la IA como correctas, incorrectas o \u00abno capturaron completamente el diagn\u00f3stico\u00bb. En el \u00faltimo caso, a ChatGPT se le ocurri\u00f3 una condici\u00f3n cl\u00ednicamente relacionada que era demasiado amplia o inespec\u00edfica para ser considerada el diagn\u00f3stico correcto. Por ejemplo, ChatGPT diagnostic\u00f3 el caso de un ni\u00f1o como causado por un quiste de hendidura branquial (un bulto en el cuello o debajo de la clav\u00edcula) cuando el diagn\u00f3stico correcto fue s\u00edndrome branquio-oto-renal, una condici\u00f3n gen\u00e9tica que causa el desarrollo anormal del tejido en el cuello, y malformaciones en o\u00eddos y ri\u00f1ones. Uno de los signos de la afecci\u00f3n es la formaci\u00f3n de quistes de hendidura branquial.<\/p>\n
En general, ChatGPT obtuvo la respuesta correcta en s\u00f3lo 17 de los 100 casos. Fue claramente err\u00f3neo en 72 casos y no capt\u00f3 completamente el diagn\u00f3stico de los 11 casos restantes. Entre los 83 diagn\u00f3sticos err\u00f3neos, 47 (57 por ciento) estaban en el mismo sistema de \u00f3rganos.<\/p>\n
Entre los fracasos, los investigadores notaron que ChatGPT parec\u00eda tener dificultades para detectar relaciones conocidas entre condiciones que, con suerte, un m\u00e9dico experimentado detectar\u00eda. Por ejemplo, en un caso m\u00e9dico no estableci\u00f3 la conexi\u00f3n entre el autismo y el escorbuto (deficiencia de vitamina C). Las condiciones neuropsiqui\u00e1tricas, como el autismo, pueden llevar a dietas restringidas y eso, a su vez, puede provocar deficiencias vitam\u00ednicas. Como tales, las afecciones neuropsiqui\u00e1tricas son factores de riesgo notables para el desarrollo de deficiencias vitam\u00ednicas en ni\u00f1os que viven en pa\u00edses de altos ingresos, y los m\u00e9dicos deben estar atentos a ellas. Mientras tanto, ChatGPT lleg\u00f3 al diagn\u00f3stico de una rara enfermedad autoinmune.<\/p>\n
Aunque el chatbot tuvo problemas en esta prueba, los investigadores sugieren que podr\u00eda mejorar si se le capacitara espec\u00edfica y selectivamente en literatura m\u00e9dica precisa y confiable, no en material de Internet, que puede incluir informaci\u00f3n inexacta y desinformaci\u00f3n. Tambi\u00e9n sugieren que los chatbots podr\u00edan mejorar con un mayor acceso en tiempo real a los datos m\u00e9dicos, lo que permitir\u00eda a los modelos perfeccionar su precisi\u00f3n, lo que se describe como \u00abajuste\u00bb.<\/p>\n
\u00abEsto presenta una oportunidad para que los investigadores investiguen si la capacitaci\u00f3n y el ajuste de datos m\u00e9dicos espec\u00edficos pueden mejorar la precisi\u00f3n del diagn\u00f3stico de los chatbots basados \u200b\u200ben LLM\u00bb, concluyen los autores.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Agrandar \/ El Dr. Greg House tiene una mejor tasa de diagn\u00f3stico preciso de pacientes que ChatGPT. ChatGPT todav\u00eda no existe en House, MD. Si bien el hablador robot de…<\/p>\n","protected":false},"author":1,"featured_media":952754,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[940,7233,65604,133,194,15494,1690,4756,1188,3805,9987,73],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/952753"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=952753"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/952753\/revisions"}],"predecessor-version":[{"id":952755,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/952753\/revisions\/952755"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/952754"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=952753"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=952753"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=952753"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}