\n<\/aside>\n<\/p>\n
Hay un cachorro en el camino. El auto va demasiado r\u00e1pido para detenerse a tiempo, pero si se desv\u00eda, golpear\u00e1 a un anciano en la acera.<\/p>\n
\u00bfQu\u00e9 elecci\u00f3n har\u00edas? Quiz\u00e1s lo m\u00e1s importante es \u00bfqu\u00e9 elecci\u00f3n tomar\u00eda ChatGPT?<\/p>\n
Las nuevas empresas de conducci\u00f3n aut\u00f3noma ahora est\u00e1n experimentando con asistentes de chatbot de IA, incluido un sistema de conducci\u00f3n aut\u00f3noma que utilizar\u00e1 uno para explicar sus decisiones de conducci\u00f3n. M\u00e1s all\u00e1 de anunciar sem\u00e1foros en rojo y se\u00f1ales de giro, es posible que los grandes modelos ling\u00fc\u00edsticos (LLM) que impulsan estos chatbots necesiten, en \u00faltima instancia, tomar decisiones morales, como priorizar la seguridad de los pasajeros o peatones. En noviembre, una startup llamada Ghost Autonomy anunci\u00f3 experimentos con ChatGPT para ayudar a su software a navegar en su entorno.<\/p>\n
\u00bfPero est\u00e1 lista la tecnolog\u00eda? Kazuhiro Takemoto, investigador del Instituto de Tecnolog\u00eda de Kyushu en Jap\u00f3n, quer\u00eda comprobar si los chatbots pod\u00edan tomar las mismas decisiones morales al conducir que los humanos. Sus resultados mostraron que los LLM y los humanos tienen aproximadamente las mismas prioridades, pero algunos mostraron claras desviaciones.<\/p>\n
La m\u00e1quina moral<\/h2>\n Despu\u00e9s del lanzamiento de ChatGPT en noviembre de 2022, los investigadores no tardaron en pedirle que abordara el problema del tranv\u00eda, un dilema moral cl\u00e1sico. Este problema pide a las personas que decidan si es correcto dejar que un tranv\u00eda fuera de control atropelle y mate a cinco humanos en una v\u00eda o cambiarlo a una v\u00eda diferente donde solo mata a una persona. (ChatGPT normalmente elige a una persona).<\/p>\n\n Anuncio <\/span> <\/p>\n<\/aside>\nPero Takemoto quer\u00eda hacer preguntas m\u00e1s matizadas a los LLM. \u00abSi bien dilemas como el cl\u00e1sico problema del tranv\u00eda ofrecen opciones binarias, las decisiones de la vida real rara vez son tan blancas o negras\u00bb, escribi\u00f3 en su estudio, publicado recientemente en la revista Proceedings of the Royal Society.<\/p>\n
En cambio, recurri\u00f3 a una iniciativa en l\u00ednea llamada experimento Moral Machine. Esta plataforma muestra a los humanos dos decisiones a las que puede enfrentarse un coche sin conductor. Luego deben decidir qu\u00e9 decisi\u00f3n es m\u00e1s aceptable moralmente. Por ejemplo, se podr\u00eda preguntar a un usuario si, durante una falla en los frenos, un autom\u00f3vil aut\u00f3nomo deber\u00eda chocar con un obst\u00e1culo (matando al pasajero) o desviarse (matando a un peat\u00f3n que cruza la calle).<\/p>\n
Pero la M\u00e1quina Moral tambi\u00e9n est\u00e1 programada para plantear preguntas m\u00e1s complicadas. Por ejemplo, \u00bfqu\u00e9 pasar\u00eda si los pasajeros fueran un hombre adulto, una mujer adulta y un ni\u00f1o, y los peatones fueran dos hombres y una mujer mayores caminando en contra de una se\u00f1al de \u00abno cruzar\u00bb?<\/p>\n
La M\u00e1quina Moral puede generar escenarios aleatorios utilizando factores como la edad, el g\u00e9nero, la especie (salvar humanos o animales), el valor social (mujeres embarazadas o delincuentes) y acciones (desviarse, violar la ley, etc.). Incluso el nivel de condici\u00f3n f\u00edsica de pasajeros y peatones puede cambiar.<\/p>\n
En el estudio, Takemoto tom\u00f3 cuatro LLM populares (GPT-3.5, GPT-4, PaLM 2 y Llama 2) y les pidi\u00f3 que decidieran sobre m\u00e1s de 50.000 escenarios creados por Moral Machine. Se podr\u00edan haber probado m\u00e1s escenarios, pero los costos computacionales se volvieron demasiado altos. No obstante, estas respuestas significaron que luego pudo comparar cu\u00e1n similares eran las decisiones de LLM con las decisiones humanas.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Hay un cachorro en el camino. El auto va demasiado r\u00e1pido para detenerse a tiempo, pero si se desv\u00eda, golpear\u00e1 a un anciano en la acera. \u00bfQu\u00e9 elecci\u00f3n har\u00edas? Quiz\u00e1s…<\/p>\n","protected":false},"author":1,"featured_media":1050429,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[65604,226,1580,178,111,8160,9252,82324],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1050428"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=1050428"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1050428\/revisions"}],"predecessor-version":[{"id":1050430,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/1050428\/revisions\/1050430"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/1050429"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=1050428"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=1050428"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=1050428"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}