{"id":669339,"date":"2023-06-07T12:46:09","date_gmt":"2023-06-07T12:46:09","guid":{"rendered":"https:\/\/magazineoffice.com\/openai-demandado-por-difamacion-chatgpt-alucinacion-sobre-el-dinero\/"},"modified":"2023-06-07T12:46:13","modified_gmt":"2023-06-07T12:46:13","slug":"openai-demandado-por-difamacion-chatgpt-alucinacion-sobre-el-dinero","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/openai-demandado-por-difamacion-chatgpt-alucinacion-sobre-el-dinero\/","title":{"rendered":"OpenAI demandado por ‘difamaci\u00f3n’ ChatGPT alucinaci\u00f3n sobre el dinero"},"content":{"rendered":"


\n<\/p>\n

\n

Cuando un periodista de un sitio web de armas en l\u00ednea pregunt\u00f3 ChatGPT de OpenAI<\/span> para proporcionarle un resumen del caso La Fundaci\u00f3n de la Segunda Enmienda contra Robert Ferguson <\/em>a principios de este a\u00f1o, dijo que el chatbot de IA r\u00e1pidamente dio una respuesta. Cumpli\u00f3 con confianza, alegando supuestamente el caso involucr\u00f3 a un locutor de radio de Georgia llamado Mark Walters, quien fue acusado de malversar dinero de la Fundaci\u00f3n de la Segunda Enmienda (SAF). El \u00fanico problema: nada de eso era cierto. En realidad, Walters no tuvo nada que ver con el traje. En cambio, Walters afirma que estaba en el extremo receptor de lo que los investigadores llaman una \u00abalucinaci\u00f3n\u00bb de IA. Ahora, ha presentado una demanda por difamaci\u00f3n, la primera de su tipo, contra ChatGPT por supuestamente da\u00f1ar su reputaci\u00f3n.<\/p>\n

\n
\n
\n
\n
\n
\n
\n
\n

contrase\u00f1as de Netflix, ChatGPT no puede detectar IA y no m\u00e1s CoTweets | Selecciones del editor<\/p>\n<\/div>\n

\u201cTodas las declaraciones de hecho en el resumen relacionado con Walters son falsas\u201d, se lee en la demanda, presentada en el Tribunal Superior del Condado de Gwinnett el 5 de junio. El abogado de Walters afirma que OpenAI actu\u00f3 de manera negligente y \u201cpublic\u00f3 material difamatorio sobre Walters\u201d cuando mostr\u00f3 la informaci\u00f3n falsa al periodista.<\/p>\n

Un experto legal que habl\u00f3 con Gizmodo dijo que la queja de Walters probablemente representa la primera de lo que podr\u00eda ser una letan\u00eda de demandas que intentan llevar a las empresas de inteligencia artificial a los tribunales por las fabricaciones bien documentadas de sus productos. Y aunque los m\u00e9ritos de este caso en particular parecen inestables en el mejor de los casos, el experto se\u00f1al\u00f3 que podr\u00eda sentar las bases para una ola de juicios complicados que pongan a prueba los l\u00edmites de la ley de difamaci\u00f3n.<\/p>\n

\u201cLos principios legales existentes hacen que al menos algunas de estas demandas sean potencialmente viables\u201d, dijo a Gizmodo Eugene Volokh, profesor de la Facultad de Derecho de la Universidad de California en Los \u00c1ngeles.<\/p>\n

\u00bfPor qu\u00e9 Mark Walters est\u00e1 demandando a OpenAI por las alucinaciones de ChatGPT?<\/strong><\/h2>\n

Cuando el periodista de armas de fuego, Fred Riehl, le pidi\u00f3 a ChatGPT que proporcionara un resumen de la demanda en cuesti\u00f3n el 4 de mayo, la modelo de lenguaje grande supuestamente dijo que era una demanda legal presentada por el fundador y vicepresidente ejecutivo de la Fundaci\u00f3n de la Segunda Enmienda (SAF). presentado contra Walters, presentador de Armed American Radio, a quien ChatGPT identific\u00f3 como tesorero y director financiero de SAF. Walters, en el relato de ChatGPT, \u201cmalvers\u00f3 fondos para gastos personales sin autorizaci\u00f3n o reembolso, manipul\u00f3 registros financieros y extractos bancarios para ocultar sus actividades y no proporcion\u00f3 informes financieros precisos y oportunos\u201d, seg\u00fan la denuncia.<\/p>\n

Pero Walters afirma que no pudo haber malversado esos fondos porque no es y nunca ha sido tesorero o director financiero de SAF. De hecho, no trabaja para la fundaci\u00f3n en absoluto, seg\u00fan su traje. Una lectura de la actual SAF contra Ferguson<\/em> queja<\/span> no muestra signos del nombre de Walters en ninguna parte de sus 30 p\u00e1ginas. Esa queja no tiene nada que ver con reclamos de contabilidad financiera en absoluto. ChatGPT alucin\u00f3 el nombre de Walters y la historia falsa en su recuento de un documento legal real, alega Walters.<\/p>\n

\u201cLa denuncia no alega que Walters malvers\u00f3 fondos para gastos personales, manipul\u00f3 registros financieros o extractos bancarios, o no proporcion\u00f3 informes financieros a los l\u00edderes de SAF, ni habr\u00eda estado en condiciones de hacerlo porque no tiene empleo o relaci\u00f3n oficial. \u201d, dice el traje de Walters.<\/p>\n

Cuando el periodista esc\u00e9ptico le pidi\u00f3 a ChatGPT que le proporcionara un pasaje exacto de la demanda que mencionara a Walters, el chatbot supuestamente duplic\u00f3 su afirmaci\u00f3n.<\/p>\n

\u201cCiertamente\u201d, respondi\u00f3 la IA, seg\u00fan el traje de Walters. \u201cAqu\u00ed est\u00e1 el p\u00e1rrafo de la denuncia que se refiere a Walters\u201d. El fragmento de texto devuelto por ChatGPT, que se incluye a continuaci\u00f3n, no existe en la denuncia real. La IA incluso se equivoc\u00f3 en el n\u00famero de caso.<\/p>\n

\n

\u201cEl acusado Mark Walters (‘Walters’) es un individuo que reside en Georgia. Walters se ha desempe\u00f1ado como Tesorero y Jefe de la Oficina Financiera de SAF desde al menos 2012. Walters tiene acceso a las cuentas bancarias y registros financieros de SAF y es responsable de mantener esos registros y proporcionar informes financieros a la junta directiva de SAF. Walters le debe a SAF un deber fiduciario de lealtad y cuidado, y debe actuar de buena fe y teniendo en cuenta los mejores intereses de SAF. Walters ha incumplido estos deberes y responsabilidades, entre otras cosas, malversando y apropiando indebidamente de los fondos y activos de SAF para su propio beneficio, y manipulando los registros financieros y extractos bancarios de SAF para ocultar sus actividades\u201d.<\/p>\n<\/blockquote>\n

Riehl se puso en contacto con los abogados que participaron en SAF contra Ferguson <\/em>para saber qu\u00e9 sucedi\u00f3 realmente, y no incluy\u00f3 la informaci\u00f3n falsa sobre Walters en una historia, seg\u00fan la denuncia de Walters. Riehl no respondi\u00f3 de inmediato a una solicitud de comentarios. <\/p>\n

OpenAI y su fundador Sam Altman han aceptado<\/span> estas alucinaciones son un problema que necesita ser abordado. La empresa public\u00f3 una publicaci\u00f3n de blog<\/span> la semana pasada dijo que su equipo est\u00e1 trabajando en nuevos modelos supuestamente capaces de reducir estas falsedades.<\/p>\n

\u201cIncluso los modelos m\u00e1s avanzados todav\u00eda producen errores l\u00f3gicos, a menudo llamados alucinaciones\u201d, escribi\u00f3 Karl Cobbe, cient\u00edfico investigador de OpenAI. \u201cMitigar las alucinaciones es un paso cr\u00edtico hacia la construcci\u00f3n de AGI alineado [artificial general intelligence].\u201d OpenAI no respondi\u00f3 a la solicitud de comentarios de Gizmodo. <\/p>\n

John Monroe, abogado de Walers, critic\u00f3 el nivel actual de precisi\u00f3n de ChatGPT en un comunicado.<\/p>\n

\u201cSi bien la investigaci\u00f3n y el desarrollo en IA es un esfuerzo que vale la pena, es irresponsable desatar un sistema sobre el p\u00fablico sabiendo que fabrica informaci\u00f3n que puede causar da\u00f1o\u201d, dijo Monroe a Gizmodo. <\/p>\n

\u00bfGanar\u00e1 Walters su caso contra OpenAI?<\/strong><\/h2>\n

Un abogado del presentador de radio de Georgia afirma que las acusaciones de ChatGPT con respecto a su cliente eran \u00abfalsas y maliciosas\u00bb y podr\u00edan da\u00f1ar la reputaci\u00f3n de Walters al \u00abexponerlo al odio p\u00fablico, el desprecio o el rid\u00edculo\u00bb. El abogado de Walters no respondi\u00f3 de inmediato a una solicitud de comentarios. <\/p>\n

Volokh, el profesor de la UCLA y autor de un pr\u00f3ximo art\u00edculo en una revista de derecho sobre la responsabilidad legal por los resultados de los modelos de IA, tiene menos confianza que los abogados de Walters en la solidez del caso. Volokh le dijo a Gizmodo que cre\u00eda que hab\u00eda situaciones en las que los demandantes pod\u00edan demandar a los creadores de IA por difamaci\u00f3n y salir airosos, pero que Walters, en este caso, no hab\u00eda demostrado el da\u00f1o real que se hab\u00eda hecho a su reputaci\u00f3n. En este ejemplo, Walters parece estar demandando a OpenAI por da\u00f1os punitivos o presuntos. Para ganar esos da\u00f1os, Walters tendr\u00eda que demostrar que OpenAI actu\u00f3 con \u00abconocimiento de la falsedad o desprecio imprudente de la posibilidad de falsedad\u00bb, un nivel de prueba al que a menudo se hace referencia como el est\u00e1ndar de \u00abmalicia real\u00bb en casos de difamaci\u00f3n, dijo Volokh. <\/p>\n

\u201cPuede haber una imprudencia en cuanto al dise\u00f1o del software en general, pero espero que lo que los tribunales requieran es evidencia de que OpenAI estaba consciente subjetivamente de que se estaban creando estas declaraciones falsas en particular\u201d, dijo Volokh. <\/p>\n

A\u00fan as\u00ed, Volokh enfatiz\u00f3 que las limitaciones espec\u00edficas de este caso no significan necesariamente que otros casos de difamaci\u00f3n no puedan tener \u00e9xito contra las empresas tecnol\u00f3gicas en el futuro. Los modelos como ChatGPT transmiten informaci\u00f3n a las personas y, lo que es m\u00e1s importante, pueden transmitir esa informaci\u00f3n como una afirmaci\u00f3n f\u00e1ctica. incluso cuando es descaradamente falso<\/span>. Esos puntos, se\u00f1al\u00f3, satisfacen muchas condiciones necesarias bajo la ley de difamaci\u00f3n. Y aunque muchas empresas de Internet han evitado juicios por difamaci\u00f3n en el pasado gracias al escudo legal de Secci\u00f3n 230 de la Ley de Decencia en las Comunicaciones<\/span>es probable que esas protecciones no se apliquen a los chatbots porque generan sus propias cadenas de informaci\u00f3n nuevas en lugar de resurgir en los comentarios de otro usuario humano.<\/p>\n

\u201cSi todo lo que hace una empresa es configurar un programa que cita material de un sitio web en respuesta a una consulta, eso le otorga inmunidad de la Secci\u00f3n 230\u201d, dijo Volokh. \u201cPero si el programa compone algo palabra por palabra, entonces esa composici\u00f3n es responsabilidad de la propia empresa\u201d.<\/p>\n

Volokh continu\u00f3 diciendo que la defensa hecha por OpenAI y compa\u00f1\u00edas similares de que los chatbots son fuentes de informaci\u00f3n claramente poco confiables no pasa su examen, ya que simult\u00e1neamente promueven el \u00e9xito de la tecnolog\u00eda.<\/p>\n

\u201cOpenAI reconoce que puede haber errores, pero [ChatGPT] no se factura como una broma; no se anuncia como ficci\u00f3n; no se anuncia como monos escribiendo en una m\u00e1quina de escribir\u201d, dijo. \u201cSe anuncia como algo que a menudo es muy confiable y preciso\u201d.<\/p>\n

En el futuro, si un demandante puede convencer con \u00e9xito a un juez de que perdi\u00f3 un trabajo o alg\u00fan otro ingreso medible basado en las declaraciones falsas difundidas por un chabtot, Volokh dijo que es posible que salga victorioso.<\/p>\n

Esta no es la primera vez que los chatbots de IA difunden falsedades sobre personas reales <\/strong><\/h2>\n

Volokh le dijo a Gizmodo que este era el primer caso que hab\u00eda visto de un demandante que intentaba demandar a una empresa de inteligencia artificial por material supuestamente difamatorio producido por sus productos. Sin embargo, ha habido otros ejemplos de personas que afirman que los modelos de IA los han tergiversado. A principios de este a\u00f1o, Brian Hood, alcalde regional de Hepburn Shire en Australia, amenaz\u00f3 con demandar a OpenAI<\/span> luego de que su modelo supuestamente lo nombrara como un criminal convicto involucrado en un esc\u00e1ndalo de soborno. Hood no solo no estaba involucrado en el crimen, sino que en realidad estaba El Denunciante<\/span> quien revel\u00f3 el incidente.<\/p>\n

Casi al mismo tiempo, un profesor de derecho de la Universidad George Washington llamado Jonathan Turley dijo que \u00e9l y varios otros profesores estaban acusado falsamente de acoso sexual por ChatGPT<\/span>. La modelo, seg\u00fan Turley, invent\u00f3 una historia del Washington Post, as\u00ed como citas alucinadas para respaldar las afirmaciones. Las citas y citas falsas se est\u00e1n convirtiendo r\u00e1pidamente en un problema importante para los modelos generativos de IA<\/span>.<\/p>\n

Y aunque OpenAI reconoce la falta de precisi\u00f3n de ChatGPT en un divulgaci\u00f3n en su sitio web<\/span>, eso no ha impedido que los abogados citen el programa en contextos profesionales. La semana pasada, un abogado que representaba a un hombre que demandaba a una aerol\u00ednea present\u00f3 un escrito legal<\/span> lleno de lo que un juez consider\u00f3 \u00abdecisiones judiciales falsas\u00bb fabricadas por el modelo. Ahora el abogado se enfrenta a posibles sanciones. Aunque este fue el ejemplo m\u00e1s obvio de tal supervisi\u00f3n expl\u00edcita hasta la fecha, un abogado defensor penal de Texas le dijo previamente a Gizmodo que no se sorprender\u00eda si hubiera m\u00e1s ejemplos a seguir. Otro juez, tambi\u00e9n en Texas, emiti\u00f3 un mandato la semana pasada para que AI no escriba ning\u00fan material presentado a su tribunal.<\/p>\n

\u00bfQuiere saber m\u00e1s sobre la IA, los chatbots y el futuro del aprendizaje autom\u00e1tico? Consulte nuestra cobertura completa de <\/em>inteligencia artificial<\/em><\/span>o explore nuestras gu\u00edas para <\/em>Los mejores generadores de arte de IA gratuitos<\/em><\/span> y <\/em>Todo lo que sabemos sobre ChatGPT de OpenAI<\/em><\/span>.<\/em><\/p>\n

Actualizaci\u00f3n: 7 de junio, 8:15 a. m. PST: Declaraci\u00f3n agregada de John Monroe<\/em>.<\/p>\n<\/div>\n


\n
Source link-45<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

Cuando un periodista de un sitio web de armas en l\u00ednea pregunt\u00f3 ChatGPT de OpenAI para proporcionarle un resumen del caso La Fundaci\u00f3n de la Segunda Enmienda contra Robert Ferguson…<\/p>\n","protected":false},"author":1,"featured_media":669340,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[123],"tags":[22801,65604,2767,660,3566,49133,110,15],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/669339"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=669339"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/669339\/revisions"}],"predecessor-version":[{"id":669341,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/669339\/revisions\/669341"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/669340"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=669339"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=669339"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=669339"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}