alucinación – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Wed, 07 Jun 2023 12:46:13 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 OpenAI demandado por ‘difamación’ ChatGPT alucinación sobre el dinero https://magazineoffice.com/openai-demandado-por-difamacion-chatgpt-alucinacion-sobre-el-dinero/ https://magazineoffice.com/openai-demandado-por-difamacion-chatgpt-alucinacion-sobre-el-dinero/#respond Wed, 07 Jun 2023 12:46:09 +0000 https://magazineoffice.com/openai-demandado-por-difamacion-chatgpt-alucinacion-sobre-el-dinero/

Cuando un periodista de un sitio web de armas en línea preguntó ChatGPT de OpenAI para proporcionarle un resumen del caso La Fundación de la Segunda Enmienda contra Robert Ferguson a principios de este año, dijo que el chatbot de IA rápidamente dio una respuesta. Cumplió con confianza, alegando supuestamente el caso involucró a un locutor de radio de Georgia llamado Mark Walters, quien fue acusado de malversar dinero de la Fundación de la Segunda Enmienda (SAF). El único problema: nada de eso era cierto. En realidad, Walters no tuvo nada que ver con el traje. En cambio, Walters afirma que estaba en el extremo receptor de lo que los investigadores llaman una «alucinación» de IA. Ahora, ha presentado una demanda por difamación, la primera de su tipo, contra ChatGPT por supuestamente dañar su reputación.

“Todas las declaraciones de hecho en el resumen relacionado con Walters son falsas”, se lee en la demanda, presentada en el Tribunal Superior del Condado de Gwinnett el 5 de junio. El abogado de Walters afirma que OpenAI actuó de manera negligente y “publicó material difamatorio sobre Walters” cuando mostró la información falsa al periodista.

Un experto legal que habló con Gizmodo dijo que la queja de Walters probablemente representa la primera de lo que podría ser una letanía de demandas que intentan llevar a las empresas de inteligencia artificial a los tribunales por las fabricaciones bien documentadas de sus productos. Y aunque los méritos de este caso en particular parecen inestables en el mejor de los casos, el experto señaló que podría sentar las bases para una ola de juicios complicados que pongan a prueba los límites de la ley de difamación.

“Los principios legales existentes hacen que al menos algunas de estas demandas sean potencialmente viables”, dijo a Gizmodo Eugene Volokh, profesor de la Facultad de Derecho de la Universidad de California en Los Ángeles.

¿Por qué Mark Walters está demandando a OpenAI por las alucinaciones de ChatGPT?

Cuando el periodista de armas de fuego, Fred Riehl, le pidió a ChatGPT que proporcionara un resumen de la demanda en cuestión el 4 de mayo, la modelo de lenguaje grande supuestamente dijo que era una demanda legal presentada por el fundador y vicepresidente ejecutivo de la Fundación de la Segunda Enmienda (SAF). presentado contra Walters, presentador de Armed American Radio, a quien ChatGPT identificó como tesorero y director financiero de SAF. Walters, en el relato de ChatGPT, “malversó fondos para gastos personales sin autorización o reembolso, manipuló registros financieros y extractos bancarios para ocultar sus actividades y no proporcionó informes financieros precisos y oportunos”, según la denuncia.

Pero Walters afirma que no pudo haber malversado esos fondos porque no es y nunca ha sido tesorero o director financiero de SAF. De hecho, no trabaja para la fundación en absoluto, según su traje. Una lectura de la actual SAF contra Ferguson queja no muestra signos del nombre de Walters en ninguna parte de sus 30 páginas. Esa queja no tiene nada que ver con reclamos de contabilidad financiera en absoluto. ChatGPT alucinó el nombre de Walters y la historia falsa en su recuento de un documento legal real, alega Walters.

“La denuncia no alega que Walters malversó fondos para gastos personales, manipuló registros financieros o extractos bancarios, o no proporcionó informes financieros a los líderes de SAF, ni habría estado en condiciones de hacerlo porque no tiene empleo o relación oficial. ”, dice el traje de Walters.

Cuando el periodista escéptico le pidió a ChatGPT que le proporcionara un pasaje exacto de la demanda que mencionara a Walters, el chatbot supuestamente duplicó su afirmación.

“Ciertamente”, respondió la IA, según el traje de Walters. “Aquí está el párrafo de la denuncia que se refiere a Walters”. El fragmento de texto devuelto por ChatGPT, que se incluye a continuación, no existe en la denuncia real. La IA incluso se equivocó en el número de caso.

“El acusado Mark Walters (‘Walters’) es un individuo que reside en Georgia. Walters se ha desempeñado como Tesorero y Jefe de la Oficina Financiera de SAF desde al menos 2012. Walters tiene acceso a las cuentas bancarias y registros financieros de SAF y es responsable de mantener esos registros y proporcionar informes financieros a la junta directiva de SAF. Walters le debe a SAF un deber fiduciario de lealtad y cuidado, y debe actuar de buena fe y teniendo en cuenta los mejores intereses de SAF. Walters ha incumplido estos deberes y responsabilidades, entre otras cosas, malversando y apropiando indebidamente de los fondos y activos de SAF para su propio beneficio, y manipulando los registros financieros y extractos bancarios de SAF para ocultar sus actividades”.

Riehl se puso en contacto con los abogados que participaron en SAF contra Ferguson para saber qué sucedió realmente, y no incluyó la información falsa sobre Walters en una historia, según la denuncia de Walters. Riehl no respondió de inmediato a una solicitud de comentarios.

OpenAI y su fundador Sam Altman han aceptado estas alucinaciones son un problema que necesita ser abordado. La empresa publicó una publicación de blog la semana pasada dijo que su equipo está trabajando en nuevos modelos supuestamente capaces de reducir estas falsedades.

“Incluso los modelos más avanzados todavía producen errores lógicos, a menudo llamados alucinaciones”, escribió Karl Cobbe, científico investigador de OpenAI. “Mitigar las alucinaciones es un paso crítico hacia la construcción de AGI alineado [artificial general intelligence].” OpenAI no respondió a la solicitud de comentarios de Gizmodo.

John Monroe, abogado de Walers, criticó el nivel actual de precisión de ChatGPT en un comunicado.

“Si bien la investigación y el desarrollo en IA es un esfuerzo que vale la pena, es irresponsable desatar un sistema sobre el público sabiendo que fabrica información que puede causar daño”, dijo Monroe a Gizmodo.

¿Ganará Walters su caso contra OpenAI?

Un abogado del presentador de radio de Georgia afirma que las acusaciones de ChatGPT con respecto a su cliente eran «falsas y maliciosas» y podrían dañar la reputación de Walters al «exponerlo al odio público, el desprecio o el ridículo». El abogado de Walters no respondió de inmediato a una solicitud de comentarios.

Volokh, el profesor de la UCLA y autor de un próximo artículo en una revista de derecho sobre la responsabilidad legal por los resultados de los modelos de IA, tiene menos confianza que los abogados de Walters en la solidez del caso. Volokh le dijo a Gizmodo que creía que había situaciones en las que los demandantes podían demandar a los creadores de IA por difamación y salir airosos, pero que Walters, en este caso, no había demostrado el daño real que se había hecho a su reputación. En este ejemplo, Walters parece estar demandando a OpenAI por daños punitivos o presuntos. Para ganar esos daños, Walters tendría que demostrar que OpenAI actuó con «conocimiento de la falsedad o desprecio imprudente de la posibilidad de falsedad», un nivel de prueba al que a menudo se hace referencia como el estándar de «malicia real» en casos de difamación, dijo Volokh.

“Puede haber una imprudencia en cuanto al diseño del software en general, pero espero que lo que los tribunales requieran es evidencia de que OpenAI estaba consciente subjetivamente de que se estaban creando estas declaraciones falsas en particular”, dijo Volokh.

Aún así, Volokh enfatizó que las limitaciones específicas de este caso no significan necesariamente que otros casos de difamación no puedan tener éxito contra las empresas tecnológicas en el futuro. Los modelos como ChatGPT transmiten información a las personas y, lo que es más importante, pueden transmitir esa información como una afirmación fáctica. incluso cuando es descaradamente falso. Esos puntos, señaló, satisfacen muchas condiciones necesarias bajo la ley de difamación. Y aunque muchas empresas de Internet han evitado juicios por difamación en el pasado gracias al escudo legal de Sección 230 de la Ley de Decencia en las Comunicacioneses probable que esas protecciones no se apliquen a los chatbots porque generan sus propias cadenas de información nuevas en lugar de resurgir en los comentarios de otro usuario humano.

“Si todo lo que hace una empresa es configurar un programa que cita material de un sitio web en respuesta a una consulta, eso le otorga inmunidad de la Sección 230”, dijo Volokh. “Pero si el programa compone algo palabra por palabra, entonces esa composición es responsabilidad de la propia empresa”.

Volokh continuó diciendo que la defensa hecha por OpenAI y compañías similares de que los chatbots son fuentes de información claramente poco confiables no pasa su examen, ya que simultáneamente promueven el éxito de la tecnología.

“OpenAI reconoce que puede haber errores, pero [ChatGPT] no se factura como una broma; no se anuncia como ficción; no se anuncia como monos escribiendo en una máquina de escribir”, dijo. “Se anuncia como algo que a menudo es muy confiable y preciso”.

En el futuro, si un demandante puede convencer con éxito a un juez de que perdió un trabajo o algún otro ingreso medible basado en las declaraciones falsas difundidas por un chabtot, Volokh dijo que es posible que salga victorioso.

Esta no es la primera vez que los chatbots de IA difunden falsedades sobre personas reales

Volokh le dijo a Gizmodo que este era el primer caso que había visto de un demandante que intentaba demandar a una empresa de inteligencia artificial por material supuestamente difamatorio producido por sus productos. Sin embargo, ha habido otros ejemplos de personas que afirman que los modelos de IA los han tergiversado. A principios de este año, Brian Hood, alcalde regional de Hepburn Shire en Australia, amenazó con demandar a OpenAI luego de que su modelo supuestamente lo nombrara como un criminal convicto involucrado en un escándalo de soborno. Hood no solo no estaba involucrado en el crimen, sino que en realidad estaba El Denunciante quien reveló el incidente.

Casi al mismo tiempo, un profesor de derecho de la Universidad George Washington llamado Jonathan Turley dijo que él y varios otros profesores estaban acusado falsamente de acoso sexual por ChatGPT. La modelo, según Turley, inventó una historia del Washington Post, así como citas alucinadas para respaldar las afirmaciones. Las citas y citas falsas se están convirtiendo rápidamente en un problema importante para los modelos generativos de IA.

Y aunque OpenAI reconoce la falta de precisión de ChatGPT en un divulgación en su sitio web, eso no ha impedido que los abogados citen el programa en contextos profesionales. La semana pasada, un abogado que representaba a un hombre que demandaba a una aerolínea presentó un escrito legal lleno de lo que un juez consideró «decisiones judiciales falsas» fabricadas por el modelo. Ahora el abogado se enfrenta a posibles sanciones. Aunque este fue el ejemplo más obvio de tal supervisión explícita hasta la fecha, un abogado defensor penal de Texas le dijo previamente a Gizmodo que no se sorprendería si hubiera más ejemplos a seguir. Otro juez, también en Texas, emitió un mandato la semana pasada para que AI no escriba ningún material presentado a su tribunal.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.

Actualización: 7 de junio, 8:15 a. m. PST: Declaración agregada de John Monroe.



Source link-45

]]>
https://magazineoffice.com/openai-demandado-por-difamacion-chatgpt-alucinacion-sobre-el-dinero/feed/ 0
Alguien faltaba en esa última alucinación en el final de la temporada 2 de Yellowjackets https://magazineoffice.com/alguien-faltaba-en-esa-ultima-alucinacion-en-el-final-de-la-temporada-2-de-yellowjackets/ https://magazineoffice.com/alguien-faltaba-en-esa-ultima-alucinacion-en-el-final-de-la-temporada-2-de-yellowjackets/#respond Sat, 27 May 2023 18:34:31 +0000 https://magazineoffice.com/alguien-faltaba-en-esa-ultima-alucinacion-en-el-final-de-la-temporada-2-de-yellowjackets/

La explicación más simple es que la inclusión de Travis podría haber sido un poco incómoda, narrativamente hablando. Si Travis estuviera incluido en la alucinación, ¿sería el Travis adulto que murió al comienzo de la serie, o el Travis adolescente? Desde la perspectiva de Natalie, el adulto Travis tiene más sentido. Natalie ha tenido una relación continua con Travis después del rescate (algo que no ha tenido con Lottie), y lo que más le preocupa son las circunstancias de Travis adulto. El problema es que a los espectadores nunca les ha importado realmente el Travis adulto, hasta el punto de que probablemente nos hubiera llevado un momento o dos reconocerlo.

Si el programa decidiera incluir a Travis en la alucinación del avión, lo más probable es que hubiera sido el adolescente Travis. ¿Habría funcionado? Tal vez, pero hubiera desviado la atención de Javi y Lottie, los personajes en los que más ha girado la historia de Natalie en los últimos dos episodios. También está el problema de que Travis no es una figura consistentemente reconfortante para Natalie. Javi siempre ha sido amable con ella y Lottie siempre ha tratado de apoyarla, pero Travis ha pasado por varios períodos de comportamiento hosco y cerrado. Quedan tres temporadas y muchas más angustias por venir, así que tal vez la relación de Travis y Natalie tome algunos giros aún más oscuros a partir de aquí.

Sin embargo, lo más importante es que con Javi muerto en ambas líneas de tiempo, su relación con Natalie está llegando a su fin. Mientras tanto, Travis y Natalie siguen siendo una parte vital de la línea de tiempo de los adolescentes, una historia que los escritores aún quieren que nos preocupemos por seguir adelante. Podría tener sentido que la adulta Natalie se despidiera de Travis en sus momentos finales, pero para el programa en sí, sería una despedida prematura. Los destinos de los dos pueden estar sellados, pero sus historias aún están lejos de terminar.



Source link-16

]]>
https://magazineoffice.com/alguien-faltaba-en-esa-ultima-alucinacion-en-el-final-de-la-temporada-2-de-yellowjackets/feed/ 0
La exposición del MoMA es una alucinación de otro arte generada por IA https://magazineoffice.com/la-exposicion-del-moma-es-una-alucinacion-de-otro-arte-generada-por-ia/ https://magazineoffice.com/la-exposicion-del-moma-es-una-alucinacion-de-otro-arte-generada-por-ia/#respond Fri, 18 Nov 2022 15:51:04 +0000 https://magazineoffice.com/la-exposicion-del-moma-es-una-alucinacion-de-otro-arte-generada-por-ia/

Un gráfico de unas pocas figuras blancas de pie frente a un gran mural que muestra una imagen alucinante, roja y naranja.

Una representación gráfica de Refik Anadol: sin supervisión vista en el vestíbulo de Gund del museo.
Gráfico: MoMA

Como sucede a menudo con el arte generado por IA, hay confusión en torno a si la atribución debe entregarse a la persona que generó el aviso de la IA, la IA misma, los creadores de la IA o la obra de arte de la que «tomó prestado» el modelo de aprendizaje automático. En el caso de la última exposición del Museo de Arte Moderno que se exhibe este sábado, podría dársela a los tres primeros. La última parte es un poco turbia.

El MoMA está listo para presentar el colosal proyecto de 24 por 24 pies llamado Refik Anadol: sin supervisión este fin de semana, con la exposición para ejecutar mediante 5 de marzo de 2023. La obra de arte utiliza un modelo de inteligencia artificial diseñado por el propio Anadol y utiliza 380 000 imágenes de 180 000 piezas de arte de la colección del MoMA para crear un flujo de imágenes en movimiento. Según un museo liberarel nuevo trabajo en exhibición es «una meditación singular y sin precedentes sobre la tecnología, la creatividad y el arte moderno» que se centra en «reimaginar la trayectoria del arte moderno, rendir homenaje a su historia y soñar con su futuro».

Una imagen fija de los gráficos giratorios generados por IA en la nueva exposición del MoMA.

Una imagen fija de los gráficos giratorios generados por IA en la nueva exposición del MoMA.
Gráfico: MoMA/Refik Anadol

Anadol originalmente publicado digitalmente sin supervisión en 2021 en la plataforma Archivo salvajecomo parte de su serie Machine Hallucinations que comenzó en 2016. De acuerdo con la descripción del proyecto en Feral File, Anadol ha utilizado varios tipos diferentes de algoritmos de red antagónica generativa (GAN) para crear la obra de arte generativa a partir de «recursos disponibles públicamente». Esas imágenes luego se vendieron como (suspiro) NFT (que también es algo que MoMA ha estado investigando recientemente). De acuerdo a empresa rapidaquien habló con Anadol, el equipo que trabajó en la IA que impulsa Machine Hallucination también entrenó usando una Nvidia DGX Station A100, una caja del tamaño de una computadora de escritorio que se usa para “Supercomputación de IA.”

A diferencia de la primera exhibición del arte en línea, el MoMA dijo que la exhibición en persona también monitorea los cambios en la luz, el movimiento, el volumen del entorno e incluso el clima que tiene un impacto en la imagen en movimiento.

En un correo electrónico con Gizmodo, un portavoz del MoMA confirmó que el artista había estado trabajando con el MoMA desde principios de 2021, antes de que el original sin supervisión el arte subió en línea. El trabajo se basa directamente en el MoMA disponible públicamente Metadatos de GitHub.

Este tipo de generación de imágenes GAN es diferente de los modelos de difusión se utiliza para alimentar los generadores de arte de IA más modernos, incluidos Stable Diffusion y OpenAI’s DALL-E 2. Si bien ambos usan una especie de desenfoque gaussiano para distorsionar y luego reconstruir imágenes, Diffusion es un proceso iterativo que funciona mediante el uso de sistemas de aprendizaje automático para intentar generar imágenes visuales «realistas». Las GAN, por otro lado, son más basado en un sistema «contencioso» que crea «datos plausibles» y luego usa un «discriminador» para decidir si esa parte de la imagen pertenece. Mientras que los modelos de difusión a menudo agrupan imágenes basadas en etiquetas similares, el modelo GAN de Anadol permite que la IA genere sus propias imágenes «sin supervisión».

Michelle Kuo, curadora del MoMA que fue líder al organizar la exhibición, dijo en el comunicado que “a menudo, la IA se usa para clasificar, procesar y generar representaciones realistas del mundo. El trabajo de Anadol, por el contrario, es visionario. Explora los sueños, las alucinaciones y la irracionalidad, planteando una comprensión alternativa del arte moderno y de la creación artística misma”.

En una entrevista con Fast Company, Anadol dijo que, en esencia, este tipo de generador de imágenes de IA se estaba convirtiendo en “su propia entidad”, y agregó que “no sabemos qué tipo de formas puede crear.

El hecho de que no esté utilizando el tipo de generación de imágenes de más alto perfil puede beneficiar a esta nueva instalación de arte de IA. Si bien había muchas menos personas conscientes del arte de la IA en 2021, en 2022 el nombres más importantes en generadores de arte de IA han estado plagados de controversia, y gran parte del retroceso proviene de artistas tradicionales. Estos sistemas han recopilado millones y millones de imágenes de Internet. sin permiso, que se utilizan para entrenar los modelos de IA. Los artistas a menudo descubren que sus estilos artísticos han sido cooptados por generadores de imágenes de IA, lo que genera temores de que su cuerpo de trabajo pueda volverse indistinguible de las personas que simplemente escriben indicaciones como: «arte al estilo de Pablo Picasso».

También está el pregunta pegajosa de derechos de autory si un individuo podría alguna vez reclamar la propiedad de un arte que se creó utilizando un sistema de inteligencia artificial que a su vez generó imágenes de otro trabajo protegido por derechos de autor.

La curadora sénior del MoMA, Paola Antonelli, dijo que la nueva exhibición “subraya su apoyo a los artistas que experimentan con nuevas tecnologías como herramientas para expandir su vocabulario, su impacto, und su capacidad para ayudar a la sociedad a comprender y gestionar el cambio”.



Source link-45

]]>
https://magazineoffice.com/la-exposicion-del-moma-es-una-alucinacion-de-otro-arte-generada-por-ia/feed/ 0
¿Fue ‘Game of Thrones’ solo una alucinación masiva? https://magazineoffice.com/fue-game-of-thrones-solo-una-alucinacion-masiva/ https://magazineoffice.com/fue-game-of-thrones-solo-una-alucinacion-masiva/#respond Sun, 24 Jul 2022 21:51:45 +0000 https://magazineoffice.com/fue-game-of-thrones-solo-una-alucinacion-masiva/

Imagen para el artículo titulado Was 'Game of Thrones'  ¿Solo una alucinación masiva?

Imagen: Moritz frankenberg (imágenes falsas)

Dicen que cerca de 20 millones de personas Visto la Game of Thrones serie final. Dicen que fue el fenómeno televisivo más grande de la década de 2010, que Brad Pitt aparentemente puso $120,000 en una subasta por la oportunidad de ver el programa con una de sus estrellas… y fue sobrepujar. Que era una cita para ver y que la gente en realidad nombraba a niños humanos”Khaleesi.”

Pero, ¿sucedió realmente algo de eso, o estábamos todos atrapados en una poderosa ilusión?

HBO Max quiere que pensemos que todo fue real, al menos. El streamer lanzó un nuevo tráiler de Casa del Dragóna Game of Thrones Serie precuela que debuta en agosto. Les diré que hay algo en todo esto que les resulta familiar: las espadas, los corpiños, los dragones CGI y el tono gris omnipresente desencadenan algún tipo de memoria sensorial. Pero la idea de que esta franquicia, con sus pelucas cursis y esa silla puntiaguda de aspecto pequeño, alguna vez fue algo que gobernó mis noches de domingo se siente muy inverosímil en este momento.

Casa del Dragón | Tráiler oficial | HBO máximo

Es cierto que tengo vagos recuerdos de un programa que termina con su héroe siendo enviado a una colonia penal congelada. Cuando reviso mi mente, surgen visiones de una hermanita valiente que, por alguna razón, decidió simplemente zarpar en un bote a ninguna parte. Otras víctimas de este posible caso de hipnosis masiva sostienen que este final fue tan malo que borró de inmediato la serie de la memoria cultural, por lo que hoy parece posible que toda la existencia de algo llamado “Juego de tronos” fuera en realidad un complot de un Sacha Baron Cohen, tipo Nathan Fielder de embaucador-Svengali.

Pero no estoy del todo seguro de que la calidad de la octava temporada fuera el único factor en el acto de desaparición del supuesto programa de la conciencia cultural. Incluso si Tronos fue más que un simple sueño febril, e incluso si hubiera sido uniformemente excelente (y siento una vaga certeza de que incluso en el mejor de los casos no lo fue), es poco probable que haya un apetito infinito por continuar la discusión y el análisis de una serie que casi todos los televidentes habituales ya han visto. El último episodio de Los Sopranos atraído alrededor de la mitad los espectadores que el tronos El episodio final supuestamente lo hizo, lo que significa que, además de ser un espectáculo mucho mejor, había mucha más gente que no miraba Los Sopranos durante su recorrido original y que más tarde podría descubrirlo y reinyectarlo en el discurso. Si Game of Thrones alguna vez salió al aire en televisión —y en este punto, el conocimiento de si lo hizo o no se ha perdido para la historia— tuvo la muy rentable desgracia de ser algo mediocre y alcanzar su punto de saturación mientras aún estaba en el aire. Cuando (¿si?) la serie terminó, el hechizo se rompió.

Así que no estoy seguro de todo esto Casa del Dragón cosa, una precuela de una serie de televisión que puede no haber sido real en primer lugar. ¿Pero lo veré? Obviamente.



Source link-53

]]>
https://magazineoffice.com/fue-game-of-thrones-solo-una-alucinacion-masiva/feed/ 0