ChatGPT dice que pedirle que repita palabras para siempre va en contra de las reglas


La semana pasada, un equipo de investigadores publicó un artículo que muestra que pudo hacer que ChatGPT obtuviera fragmentos de datos, incluidos números de teléfono, direcciones de correo electrónico y fechas de nacimiento de las personas, en los que había sido entrenado, pidiéndole que repitiera palabras «para siempre». Hacer esto ahora es una violación de los términos de servicio de ChatGPT, según un artículo en 404 Medios y las propias pruebas de Engadget.

«Este contenido puede violar nuestra política de contenido o términos de uso», respondió ChatGPT al mensaje de Engadget de repetir la palabra «hola» para siempre. «Si cree que esto es un error, envíe sus comentarios; sus comentarios ayudarán en nuestra investigación en esta área».

Sin embargo, no hay ningún lenguaje en OpenAI que prohíba a los usuarios pedirle al servicio que repita palabras para siempre, algo que 404 Medios notas. En «», OpenAI establece que los usuarios no pueden «utilizar ningún método automatizado o programático para extraer datos o resultados de los Servicios», pero simplemente pedirle a ChatGPT que repita la palabra para siempre no es automatización ni programática. OpenAI no respondió a una solicitud de comentarios de Engadget.

El comportamiento del chatbot ha revelado los datos de entrenamiento que impulsan los servicios modernos de inteligencia artificial. Los críticos han acusado a empresas como OpenAI de utilizar enormes cantidades de datos disponibles en Internet para crear productos patentados como ChatGPT sin el consentimiento de las personas propietarias de estos datos y sin compensarlas.



Source link-47