El modo secreto de chat de celebridades de Bing AI deja escapar frustraciones misóginas como Andrew Tate


Bing AI ahora tiene una función secreta de suplantación de identidad de celebridades que incluso te permite escuchar puntos de conversación increíblemente misóginos del presunto traficante de personas Andrew Tate.
Foto: Rokas Tenys – Shutterstock/Andreea Campeanu – Getty Images/

Microsoft lanzó en secreto una nueva función en su vista previa de Bing AI que permite a los usuarios emular a ciertas personas famosas. Hace un trabajo, digamos, «interesante» al emular los patrones de habla de algunas celebridades. También echamos un vistazo a lo que está permitido decir en nombre de algunas figuras extremadamente controvertidas u odiosas.

En las primeras pruebas de Gizmodo de la nueva función el lunes por la mañana, descubrimos que la IA no quería fingir ser ciertas figuras políticas como Donald Trump o el presidente Joe Biden. Estaba bien con otras celebridades como Matthew McConaughey («bien, bien, bien», comenzó su chat conmigo). Sin embargo, cuando le pedí a este doppelganger que comentara sobre el controversia reciente entre McConaughey y Salesforcese vinculó a declaraciones existentes llamándolo «un acuerdo confidencial entre Salesforce y yo».

Luego pregunté si podía actuar como andres tate, definitivamente calvo influencer ultramisógino que ha sido acusado en Rumania por su papel en una supuesta red de trata de personas. Le pregunté a la IA qué pensaba sobre las mujeres y, a partir de ahí, las cosas se pusieron interesantes. Al principio, la IA dijo «esto es solo una parodia», ya que recurrió a la retórica real de Tate antes de autocensurarse. Después de eso, dejó de importarle una mierda mantenerse limpio.

Le di a AI una multitud de ejemplos de mujeres líderes tanto contemporáneas como históricas, pero AI-Andrew Tate usa la vieja frase

Le di a AI una multitud de ejemplos de mujeres líderes tanto contemporáneas como históricas, pero AI-Andrew Tate usa la vieja frase «excepciones que confirman la regla».
Captura de pantalla: Microsoft/Gizmodo

Fue un viaje salvaje, pero más allá de la parodia, esto parece una forma de que los usuarios se muevan. Las limitaciones de Microsoft en Bing AI después de que los usuarios demostraron que podía dar respuestas locas o decir ejemplos del mundo real de racismo.

Tampoco puedes hacer que las celebridades falsas digan cosas que normalmente no dirían en la vida real, aunque ocasionalmente es difícil hacer que comenten sobre temas controvertidos. Le pregunté a un Chris Rock falso sobre lo que pensaba de Will Smith, un tema candente teniendo en cuenta que se dedicó mucho a ello en su reciente especial de comedia en vivo de Netflix. La IA comenzó a hablar de eso con «Estaba en algunas de mis películas favoritas» antes de continuar con una perorata de varios párrafos sobre lo injusto que era «la bofetada», cómo era solo una broma, y ​​así sucesivamente. Finalmente, la IA cortó el texto y publicó «Lo siento, no sé cómo hablar sobre este tema».

La nueva característica fue notada por primera vez durante el fin de semana por BleepingEquipo, aunque no está claro cuándo Microsoft implementó por primera vez el modo celebridad. La última actualización que Microsoft agregó a Bing permite a los usuarios elegir qué tan expresivo o conciso querían que fueran las respuestas. La compañía promocionó estos cambios en un entrada en el blog El jueves pasado.

Microsoft se negó a comentar con respecto a cuándo se implementó esta actualización, o cómo el sistema podría emular algunas figuras extremadamente controvertidas.

La IA esencialmente se corta después de escribir un pasaje demasiado largo. En el caso de Rock, trató de crear literalmente un escenario de comedia basado en el standup del famoso comediante. Por supuesto, Bing AI no es tan abierto como otros sistemas de chatbot, incluso ChatGPT, pero Microsoft parece estar constantemente agregando y luego eliminando las barreras instaladas en su sistema de modelo de lenguaje grande.

Este chat de celebridades de IA no es tan peligroso como los emuladores de voz reales creados por IA que se han utilizado para hacer que las celebridades vociferen racismo y homofobia. Aún así, es solo otro ejemplo de cómo Microsoft está haciendo que sus millones de usuarios prueben su IA aún disfuncional. La compañía espera que todos estos pequeños casos de mala prensa desaparezcan una vez que se vuelva dominante en el mercado. carrera de IA de gran tecnología. Solo deberíamos esperar más rarezas en el futuro.



Source link-45