{"id":882790,"date":"2023-11-13T13:12:53","date_gmt":"2023-11-13T13:12:53","guid":{"rendered":"https:\/\/magazineoffice.com\/microsoft-el-usuario-engana-las-consultas-de-seguridad-con-bing-ai-sin-mucho-esfuerzo\/"},"modified":"2023-11-13T13:12:58","modified_gmt":"2023-11-13T13:12:58","slug":"microsoft-el-usuario-engana-las-consultas-de-seguridad-con-bing-ai-sin-mucho-esfuerzo","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/microsoft-el-usuario-engana-las-consultas-de-seguridad-con-bing-ai-sin-mucho-esfuerzo\/","title":{"rendered":"Microsoft: el usuario enga\u00f1a las consultas de seguridad con Bing AI, sin mucho esfuerzo"},"content":{"rendered":"


\n<\/p>\n

\n
MICROSOFT <\/p>\n
\n
\n
<\/svg>

<\/p>\n

Con Bing Chat de Microsoft, basado en ChatGPT, tambi\u00e9n puedes obtener ayuda de la IA en el navegador. Un usuario lo ha utilizado indebidamente para eludir las consultas de seguridad.<\/strong><\/p>\n<\/header>\n

\n
<\/div>
\n

En realidad, se supone que Bing Chat debe mantenerse alejado de las consultas de seguridad. Pero se puede enga\u00f1ar a la IA. (Fuente: rokas91\/depositphotos.com)<\/figcaption><\/figure>\n