{"id":394294,"date":"2023-01-09T23:08:27","date_gmt":"2023-01-09T23:08:27","guid":{"rendered":"https:\/\/magazineoffice.com\/la-aplicacion-de-salud-mental-koko-probo-chatgpt-en-sus-usuarios\/"},"modified":"2023-01-09T23:08:29","modified_gmt":"2023-01-09T23:08:29","slug":"la-aplicacion-de-salud-mental-koko-probo-chatgpt-en-sus-usuarios","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/la-aplicacion-de-salud-mental-koko-probo-chatgpt-en-sus-usuarios\/","title":{"rendered":"La aplicaci\u00f3n de salud mental Koko prob\u00f3 ChatGPT en sus usuarios"},"content":{"rendered":"


\n<\/p>\n

\n
\n
<\/p>\n
\n
\"Una<\/div>\n<\/div>\n

<\/span><\/p>\n

Ilustraci\u00f3n: ProStockStudio (Shutterstock)<\/figcaption><\/p>\n<\/div>\n

<\/figure>\n

\u00c9l robot de chat de IA ChatGPT puede hacer muchas cosas. Puede responder a los tuits<\/span>, escribir ciencia ficcion<\/span>planifique este reportero navidad familiar<\/span>y es incluso programado para actuar como abogado<\/span> En la corte. Pero, \u00bfpuede un robot proporcionar apoyo de salud mental seguro y eficaz? Una empresa llamada Koko decidi\u00f3 averiguar utilizando la IA para ayudar a crear soporte de salud mental para unos 4.000 de sus usuarios en octubre. Los usuarios de Twitter, no de Koko, estaban descontentos con los resultados y con el hecho de que el experimento se llev\u00f3 a cabo..<\/p>\n

\u201cFrancamente, esto va a ser el futuro. Pensaremos que estamos interactuando con humanos y no sabremos si hubo una IA involucrada. \u00bfC\u00f3mo afecta eso a la comunicaci\u00f3n entre humanos? Tengo mis propios desaf\u00edos de salud mental, as\u00ed que realmente quiero ver que esto se haga correctamente\u201d. El cofundador de Koko, Rob Morris, le dijo a Gizmodo en una entrevista.<\/p>\n

Morris dice que todo el alboroto fue un malentendido. <\/p>\n

\u201cNo deber\u00eda haber tratado de discutirlo en Twitter\u201d, dijo. <\/p>\n


\n

Koko es un servicio de salud mental entre pares que permite a las personas pedir consejo y apoyo de otros usuarios. En un breve experimento, la empresa permiti\u00f3 que los usuarios generaran respuestas autom\u00e1ticas utilizando \u00abKoko Bot\u00bb, impulsado por GPT-3 de OpenAI, que luego podr\u00edan editarse, enviarse o rechazarse. Seg\u00fan Morris, los 30.000 mensajes asistidos por IA enviados durante la prueba recibieron una respuesta abrumadoramente positiva, pero la compa\u00f1\u00eda cancel\u00f3 el experimento despu\u00e9s de unos d\u00edas porque \u00abse sent\u00eda un poco est\u00e9ril\u00bb.<\/p>\n

\u201cCuando est\u00e1s interactuando con GPT-3, puedes comenzar a captar algunas se\u00f1ales. Todo est\u00e1 muy bien escrito, pero es una especie de f\u00f3rmula, y puedes leerlo y reconocer que todo es puramente un bot y no hay matices humanos agregados\u201d, dijo Morris a Gizmodo. \u201cHay algo acerca de la autenticidad que se pierde cuando tienes esta herramienta como herramienta de apoyo para ayudarte en tu escritura, particularmente en este tipo de contexto. En nuestra plataforma, los mensajes se sent\u00edan mejor de alguna manera cuando pod\u00eda sentir que estaban escritos m\u00e1s por humanos\u201d.<\/p>\n

Morris public\u00f3 un hilo en Twitter sobre la prueba que impl\u00edcito los usuarios no entend\u00edan que una IA estaba involucrada en su cuidado. \u00c9l tuite\u00f3 que \u201cuna vez que la gente supo que los mensajes fueron co-creados por una m\u00e1quina, no funcion\u00f3\u201d. El tuit caus\u00f3 revuelo en Twitter sobre la \u00e9tica de Koko. investigar.<\/p>\n

\n
\n

G\/O Media puede recibir una comisi\u00f3n<\/p>\n

\n
\n
\n
<\/picture><\/div>\n<\/div>\n
\n

$ 50 de descuento en pedidos anticipados<\/p>\n

anillo de c\u00e1mara de coche<\/p>\n<\/div>\n<\/div>\n

\n

Es una c\u00e1mara. para tu coche<\/strong>
Las c\u00e1maras HD de doble cara de Ring Car Cam capturan la actividad dentro y alrededor de su autom\u00f3vil con detalles HD.<\/span><\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n

\u201cLos mensajes compuestos por IA (y supervisados \u200b\u200bpor humanos) fueron calificados significativamente m\u00e1s altos que los escritos por humanos solos\u201d, Morris tuite\u00f3<\/a><\/span>. \u201cLos tiempos de respuesta se redujeron en un 50 %, a menos de un minuto\u201d.<\/p>\n

Morris dijo que estas palabras causaron un malentendido: las \u00abpersonas\u00bb en este contexto eran \u00e9l mismo y su equipo, no usuarios involuntarios. Los usuarios de Koko sab\u00edan que los mensajes fueron coescritos por un bot y no estaban chateando directamente con la IA, dijo.<\/p>\n

\u201cSe explic\u00f3 durante el proceso de incorporaci\u00f3n\u201d, dijo Morris. Cuando la IA estuvo involucrada, las respuestas incluyeron un descargo de responsabilidad de que el mensaje fue \u00abescrito en colaboraci\u00f3n con Koko Bot\u00bb, agreg\u00f3.. <\/p>\n

Sin embargo, el experimento plantea cuestiones \u00e9ticas, incluidas dudas sobre qu\u00e9 tan bien inform\u00f3 Koko a los usuarios y los riesgos de probar una tecnolog\u00eda no probada en un entorno de atenci\u00f3n m\u00e9dica en vivo, incluso uno de igual a igual.<\/p>\n