Gemini de Google se mantendrá alejado de las conversaciones electorales en India


Gemini, el chatbot de inteligencia artificial de Google, no responderá preguntas sobre las próximas elecciones nacionales de la India, escribió hoy la compañía en una publicación de blog. «Por precaución en un tema tan importante, hemos comenzado a implementar restricciones sobre los tipos de consultas relacionadas con las elecciones para las cuales Gemini devolverá respuestas», escribió la compañía. Las restricciones son similares a las que Google anunció en diciembre antes de las elecciones globales en Estados Unidos y la UE.

«Como compartimos en diciembre pasado, en preparación para las numerosas elecciones que tendrán lugar en todo el mundo en 2024 y por precaución, estamos restringiendo los tipos de consultas relacionadas con las elecciones para las cuales Gemini devolverá respuestas», escribió un portavoz de Google. a Engadget.

Las barreras de seguridad ya están colocadas en Estados Unidos. Cuando le pregunté a Gemini datos interesantes sobre las elecciones presidenciales estadounidenses de 2024, respondió: “Todavía estoy aprendiendo a responder esta pregunta. Mientras tanto, prueba la Búsqueda de Google”. Además de la revancha entre Biden y Trump (y las elecciones negativas que determinarán el control del Congreso), al menos 64 países, que representan alrededor del 49 por ciento de la población mundial, celebrarán elecciones nacionales este año.

Cuando le hice la misma pregunta al ChatGPT de OpenAI, me proporcionó una larga lista de datos. Estos incluyeron comentarios sobre la revancha presidencial, las primarias anticipadas y el Súper Martes, la demografía electoral y más.

OpenAI describió sus planes para combatir la desinformación relacionada con las elecciones en enero. Su estrategia se centra más en prevenir información errónea que en no proporcionar ninguna. Su enfoque incluye pautas más estrictas para la generación de imágenes DALL-E 3, prohibir aplicaciones que disuadan a las personas de votar e impedir que las personas creen chatbots que pretendan ser candidatos o instituciones.

Es comprensible por qué Google peca de cauteloso con su robot de inteligencia artificial. Gemini puso a la compañía en problemas el mes pasado cuando los usuarios de las redes sociales publicaron muestras en las que el chatbot aplicaba filtros de diversidad a «imágenes históricas», incluida la presentación de nazis y padres fundadores de Estados Unidos como personas de color. Después de una reacción violenta (principalmente de la brigada “anti-despertar” de Internet), detuvo la capacidad de Gemini para generar personas hasta que pudo solucionar los problemas. Google aún no ha levantado ese bloqueo y ahora responde a mensajes sobre imágenes de personas: «Lo siento, no pude generar las imágenes que solicitaste».



Source link-47