{"id":1097638,"date":"2024-04-19T22:20:09","date_gmt":"2024-04-19T22:20:09","guid":{"rendered":"https:\/\/magazineoffice.com\/gpt-4-tuvo-un-rendimiento-cercano-al-nivel-de-los-medicos-expertos-en-evaluaciones-oculares\/"},"modified":"2024-04-19T22:20:11","modified_gmt":"2024-04-19T22:20:11","slug":"gpt-4-tuvo-un-rendimiento-cercano-al-nivel-de-los-medicos-expertos-en-evaluaciones-oculares","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/gpt-4-tuvo-un-rendimiento-cercano-al-nivel-de-los-medicos-expertos-en-evaluaciones-oculares\/","title":{"rendered":"GPT-4 tuvo un rendimiento cercano al nivel de los m\u00e9dicos expertos en evaluaciones oculares"},"content":{"rendered":"


\n<\/p>\n

\n

A medida que los modelos de aprendizaje de idiomas (LLM) contin\u00faan avanzando, tambi\u00e9n lo hacen las preguntas sobre c\u00f3mo pueden beneficiar a la sociedad en \u00e1reas como el campo m\u00e9dico. Un estudio reciente de la Facultad de Medicina Cl\u00ednica de la Universidad de Cambridge encontr\u00f3 que el GPT-4 de OpenAI funcion\u00f3 casi tan bien en una evaluaci\u00f3n oftalmol\u00f3gica como los expertos en el campo, el Tiempos financieros<\/em> reportado por primera vez.<\/p>\n

En el estudio, publicado en M\u00e1s salud digital<\/em>, los investigadores probaron el LLM, su predecesor GPT-3.5, el PaLM 2 de Google y el LLaMA de Meta con 87 preguntas de opci\u00f3n m\u00faltiple. Cinco oftalm\u00f3logos expertos, tres oftalm\u00f3logos en formaci\u00f3n y dos m\u00e9dicos j\u00f3venes no especializados recibieron el mismo examen simulado. Las preguntas surgieron de un libro de texto para realizar pruebas a los alumnos sobre todo, desde la sensibilidad a la luz hasta las lesiones. Los contenidos no est\u00e1n disponibles p\u00fablicamente, por lo que los investigadores creen que los LLM no podr\u00edan haber sido capacitados en ellos previamente. ChatGPT, equipado con GPT-4 o GPT-3.5, tuvo tres oportunidades de responder definitivamente o su respuesta se marc\u00f3 como nula.<\/p>\n

GPT-4 obtuvo una puntuaci\u00f3n m\u00e1s alta que los estudiantes y los m\u00e9dicos j\u00f3venes, respondiendo correctamente 60 de las 87 preguntas. Si bien esto fue significativamente m\u00e1s alto que el promedio de 37 respuestas correctas de los m\u00e9dicos j\u00f3venes, apenas super\u00f3 el promedio de 59,7 de los tres estudiantes. Mientras que un oftalm\u00f3logo experto solo respondi\u00f3 con precisi\u00f3n 56 preguntas, los cinco obtuvieron una puntuaci\u00f3n promedio de 66,4 respuestas correctas, superando a la m\u00e1quina. PaLM 2 obtuvo una puntuaci\u00f3n de 49 y GPT-3.5 obtuvo una puntuaci\u00f3n de 42. LLaMa obtuvo la puntuaci\u00f3n m\u00e1s baja con 28, quedando por debajo de los m\u00e9dicos j\u00f3venes. En particular, estos ensayos se produjeron a mediados de 2023.<\/p>\n

Si bien estos resultados tienen beneficios potenciales, tambi\u00e9n existen bastantes riesgos y preocupaciones. Los investigadores notaron que el estudio ofrec\u00eda una cantidad limitada de preguntas, especialmente en ciertas categor\u00edas, lo que significa que los resultados reales podr\u00edan variar. Los LLM tambi\u00e9n tienen tendencia a \u00abalucinar\u00bb o inventar cosas. Eso es una cosa si es un hecho irrelevante, pero afirmar que hay cataratas o c\u00e1ncer es otra historia. Como ocurre en muchos casos de uso de LLM, los sistemas tambi\u00e9n carecen de matices, lo que crea m\u00e1s oportunidades de inexactitud.<\/p>\n<\/div>\n


\n
Source link-47<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

A medida que los modelos de aprendizaje de idiomas (LLM) contin\u00faan avanzando, tambi\u00e9n lo hacen las preguntas sobre c\u00f3mo pueden beneficiar a la sociedad en \u00e1reas como el campo m\u00e9dico.…<\/p>\n","protected":false},"author":1,"featured_media":1097639,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21981],"tags":[9544,108717,7301,73336,8,4756,1577,40178,3074,2057],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1097638"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=1097638"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1097638\/revisions"}],"predecessor-version":[{"id":1097640,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1097638\/revisions\/1097640"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/1097639"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=1097638"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=1097638"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=1097638"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}