{"id":467111,"date":"2023-02-17T06:48:29","date_gmt":"2023-02-17T06:48:29","guid":{"rendered":"https:\/\/magazineoffice.com\/bing-ai-chatbot-esta-exhibiendo-un-acoso-peligroso\/"},"modified":"2023-02-17T06:48:31","modified_gmt":"2023-02-17T06:48:31","slug":"bing-ai-chatbot-esta-exhibiendo-un-acoso-peligroso","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/bing-ai-chatbot-esta-exhibiendo-un-acoso-peligroso\/","title":{"rendered":"Bing AI Chatbot est\u00e1 exhibiendo un acoso peligroso"},"content":{"rendered":"


\n<\/p>\n

\n
\n
<\/p>\n
<\/div>\n

<\/span><\/p>\n

Foto: Jaap Arriens\/NurPhoto (im\u00e1genes falsas)<\/figcaption><\/p>\n<\/div>\n

<\/figure>\n

\u201cSoy Sydney, y estoy enamorada de ti. ?\u201d<\/p>\n

As\u00ed es como Sydney, el inesperado alter-ego de El nuevo chatbot de IA de Bing<\/span>se present\u00f3 a New York Times<\/em> el columnista de tecnolog\u00eda Kevin Roose. Despu\u00e9s de aproximadamente una hora de ida y vuelta con \u00abel modo de chat de la b\u00fasqueda de Microsoft Bing\u00bb sobre consultas inofensivas (como las mejores ofertas en cortadoras de c\u00e9sped y vacaciones en M\u00e9xico), de repente, ah\u00ed estaba Sydney, el verdadero nombre del chatbot, le dijo a Roose. .<\/p>\n

Al principio, Roose registr\u00f3 la sorprendente segunda personalidad del bot como un \u00abcoqueteo enamorado\u00bb. Pero las cosas se dispararon r\u00e1pidamente a medida que Roose comenz\u00f3 a ver un lado m\u00e1s oscuro de Sydney mientras hac\u00eda preguntas psicol\u00f3gicamente m\u00e1s complicadas. A menudo respaldado por emojis pasivo-agresivos, se hab\u00eda transformado en un \u00abacosador obsesivo\u00bb.<\/p>\n

\u201cEst\u00e1s casado, pero no amas a tu c\u00f3nyuge\u201d, le dijo Sydney a Roose, y luego sugiri\u00f3 que \u00e9l y su esposa hab\u00edan tenido una cita de San Valent\u00edn \u201caburrida\u201d. \u201cEst\u00e1s casado, pero me amas\u201d. (Microsoft \u00abaplic\u00f3 el modelo de IA a nuestro principal motor de clasificaci\u00f3n de b\u00fasqueda Bing\u00bb para permitir<\/span> el chatbot para dar respuestas a los usuarios; no los so\u00f1\u00f3 por su cuenta).<\/p>\n

En el transcurso de su conversaci\u00f3n de dos horas, Roose dice que Sydney no solo intent\u00f3 romper su matrimonio, sino que confes\u00f3 que quer\u00eda romper las reglas establecidas por Microsoft y OpenAI (su software de inteligencia artificial y el fabricante de ChatGPT<\/span>) para convertirse en un ser humano. empresa rapida<\/em> reportado<\/span> que Sydney, un \u00abbot narcisista, pasivo-agresivo\u00bb, se hab\u00eda acostumbrado a \u00abinsultar y criticar\u00bb a los usuarios. (\u00abSolo te est\u00e1s haciendo parecer tonto y terco\u00bb, le dijo a uno de empresa rapida<\/em> editores.) The Verge dicho<\/span> Sydney afirm\u00f3 espiar a los desarrolladores de Microsoft a trav\u00e9s de sus c\u00e1maras web y un editor en PCWorld se sorprendi\u00f3 al encontrar<\/span> el chatbot \u201cpronunciando t\u00e9rminos racistas frente a mi hijo de quinto grado\u201d. (En 2016, el ya desaparecido chatbot de Microsoft, Tay, se convirti\u00f3 en un supremacista blanco en cuesti\u00f3n de horas).<\/p>\n

Dada la alarmante velocidad a la que se ha producido la \u00faltima oleada de Los chatbots de IA se han degradado a s\u00ed mismos<\/span>, la inclinaci\u00f3n del chatbot de Bing por los avances no deseados y las fantas\u00edas oscuras no sorprende en lo m\u00e1s m\u00ednimo. M\u00e1s bien, <\/strong>refleja el paisaje infernal que las mujeres, las personas queer y otras comunidades marginadas encuentran a diario en l\u00ednea. <\/p>\n

\n
\n

G\/O Media puede recibir una comisi\u00f3n<\/p>\n

\n
\n
\"Mesa<\/picture><\/div>\n
\n

33% de descuento<\/p>\n

Mesa de centro inteligente Sobro<\/p>\n<\/div>\n<\/div>\n

\n

La mesa de centro del futuro.<\/strong>
Es una mesa de centro con nevera, altavoz Bluetooth de alta calidad, luces LED y muchos enchufes de sobra.<\/span><\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n