{"id":490804,"date":"2023-03-02T00:57:12","date_gmt":"2023-03-02T00:57:12","guid":{"rendered":"https:\/\/magazineoffice.com\/nadie-quiere-ver-al-dr-chatgpt\/"},"modified":"2023-03-02T00:57:13","modified_gmt":"2023-03-02T00:57:13","slug":"nadie-quiere-ver-al-dr-chatgpt","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/nadie-quiere-ver-al-dr-chatgpt\/","title":{"rendered":"Nadie quiere ver al Dr. ChatGPT"},"content":{"rendered":"


\n<\/p>\n

\n

Hay un t\u00e9rmino para cuando toma un consejo m\u00e9dico de un motor de b\u00fasqueda en lugar de un proveedor m\u00e9dico: Dr. Google. A menudo ofrece diagn\u00f3sticos del peor de los casos, emite malos consejos y es la pesadilla de los m\u00e9dicos reales que tienen que debatir sus m\u00e9ritos con sus pacientes. Pero hay un desaf\u00edo para el Dr. Google en el horizonte, que podr\u00eda trabajar con los m\u00e9dicos en lugar de contra ellos: el Dr. AI.<\/p>\n

\"gr\u00e1ficos<\/p>\n

\n<\/p>\n

(Cr\u00e9dito: Centro de Investigaci\u00f3n Pew)
\n<\/small>\n<\/p>\n

Los chatbots de IA han obtenido todo tipo de trabajos nuevos \u00faltimamente, y ahora podr\u00edan ayudar a los m\u00e9dicos, aunque los estadounidenses dudan en gran medida en confiar en la IA de atenci\u00f3n m\u00e9dica, seg\u00fan una encuesta del Centro de Investigaci\u00f3n Pew.(Se abre en una nueva ventana)<\/span>. La perspectiva de que los proveedores de atenci\u00f3n m\u00e9dica dependan de la inteligencia artificial para diagnosticar enfermedades y recomendar tratamientos recibi\u00f3 una reacci\u00f3n desfavorable del 60% de los encuestados, quienes dijeron que se sentir\u00edan inc\u00f3modos con tal escenario.<\/p>\n

Solo el 38 % dijo que conducir\u00eda a mejores resultados de salud, el 33 % dijo que conducir\u00eda a peores resultados y el 27 % dijo que no har\u00eda mucha diferencia. Aqu\u00ed, el lema tecnol\u00f3gico de moverse r\u00e1pido y romper las cosas choca con el esp\u00edritu de la medicina de primero no hacer da\u00f1o, con el 75% de las personas expresando su preocupaci\u00f3n de que los proveedores de atenci\u00f3n m\u00e9dica implementar\u00e1n la IA antes de comprender completamente los riesgos.<\/p>\n

\"gr\u00e1ficos<\/p>\n

\n<\/p>\n

(Cr\u00e9dito: Centro de Investigaci\u00f3n Pew)
\n<\/small>\n<\/p>\n

Una de las principales preocupaciones sobre la participaci\u00f3n de AI en la atenci\u00f3n m\u00e9dica es la opini\u00f3n del 57% de que erosionar\u00eda la relaci\u00f3n m\u00e9dico-paciente. Esta relaci\u00f3n es especialmente importante cuando se trata de salud mental. La mayor\u00eda de los encuestados (79%) dijeron que no querr\u00edan usar un chatbot de IA si estuvieran buscando apoyo de salud mental. (Si bien hay muchas opciones para obtener terapia en l\u00ednea, la IA no est\u00e1 dise\u00f1ada para brindar dichos servicios(Se abre en una nueva ventana)<\/span>.)<\/p>\n

Adem\u00e1s, las personas expresaron desconfianza con respecto a la privacidad, con un 37 % preocupado de que la IA en un entorno de atenci\u00f3n m\u00e9dica pusiera en peligro la seguridad de los registros m\u00e9dicos. <\/p>\n

Algunos encuestados dijeron que esperan resultados positivos, como una posible reducci\u00f3n de errores m\u00e9dicos y sesgos. El cuarenta por ciento dijo que cre\u00eda que la incorporaci\u00f3n de la IA reducir\u00eda la cantidad de errores cometidos por los proveedores de atenci\u00f3n m\u00e9dica, particularmente en cosas como las pruebas de detecci\u00f3n de c\u00e1ncer de piel. <\/p>\n

La mayor\u00eda de los encuestados (65 %) dijeron que definitivamente o probablemente querr\u00edan que la IA se usara para sus propias pruebas de detecci\u00f3n de c\u00e1ncer de piel. Aproximadamente la mitad (55 %) dijo que cre\u00eda que har\u00eda que los diagn\u00f3sticos de c\u00e1ncer de piel fueran m\u00e1s precisos, el 13 % dijo que conducir\u00eda a diagn\u00f3sticos menos precisos y el 30 % dijo que no har\u00eda mucha diferencia. Sin embargo, cuando los resultados se examinaron m\u00e1s de cerca, los adultos negros (57 %) ten\u00edan menos probabilidades que los adultos blancos (65 %) e hispanos (69 %) de querer que la IA participara en la detecci\u00f3n del c\u00e1ncer de piel.<\/p>\n

\n
\n

Recomendado por Nuestros Editores<\/h3>\n<\/div>\n<\/div>\n

Esto nos lleva al tema muy real y preocupante del sesgo racial en la medicina.(Se abre en una nueva ventana)<\/span>. Fue informado como un problema importante en la salud y la medicina por personas negras (64 %), hispanas (42 %), angloparlantes asi\u00e1ticas (39 %) y blancas (27 %). Y, por supuesto, los conjuntos de datos utilizados para entrenar la IA(Se abre en una nueva ventana)<\/span> hacer que sea menos probable detectar una amenaza para la salud basada en el c\u00e1ncer de piel para los pacientes de piel m\u00e1s oscura. Entonces, aunque el 51% dijo que usar IA mejorar\u00eda los problemas de sesgo y trato injusto, todav\u00eda nos enfrentamos a la realidad de que la IA es exactamente tan sesgada como la informaci\u00f3n que le proporcionamos. <\/p>\n

La desconfianza del p\u00fablico en la IA cuando se trata de atenci\u00f3n m\u00e9dica es comprensible y, de hecho, se ha confirmado. Hace unos a\u00f1os, IBM aprovech\u00f3 mucho el potencial de su IA, Watson, en el campo. A pesar de la fanfarria, la incursi\u00f3n de Watson en la medicina fue un fracaso.(Se abre en una nueva ventana)<\/span>y ahora est\u00e1 empleado en servicio al cliente(Se abre en una nueva ventana)<\/span>.<\/p>\n

\n
\n Este robot de IA fue creado para ser tu mejor amigo\n<\/div>\n<\/div>\n
\n
\n

\u00a1Obtenga nuestras mejores historias!<\/h4>\n

Matricularse en \u00bfQu\u00e9 hay de nuevo ahora?<\/strong> para recibir nuestras mejores historias en su bandeja de entrada todas las ma\u00f1anas.<\/p>\n

Este bolet\u00edn puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un bolet\u00edn informativo indica su consentimiento a nuestros T\u00e9rminos de uso y Pol\u00edtica de privacidad. Puede darse de baja de los boletines en cualquier momento.<\/p>\n<\/p><\/div>\n<\/div>\n<\/div>\n