La actualización ‘personalizable’ podría resultar en más respuestas divisivas de ChatGPT


¿Sientes que ChatGPT es demasiado manso con sus respuestas? El creador del programa, OpenAI, está trabajando en una actualización que podría desbloquear más personalidad y tomas controvertidas del popular chatbot.

“Creemos que la IA debería ser una herramienta útil para personas individuales y, por lo tanto, personalizable por cada usuario hasta los límites definidos por la sociedad”, dijo la compañía de San Francisco en una publicación de blog.(Se abre en una nueva ventana).

OpenAI mencionó la próxima actualización para abordar las preocupaciones de que ChatGPT fue programado con un sesgo en temas política y culturalmente sensibles. Esto incluye a los usuarios que muestran que ChatGPT escribirá poemas positivos sobre el actual presidente de EE. UU., Joe Biden, pero no sobre su rival republicano, Donald Trump.

Para resolver los problemas de sesgo, OpenAI está trabajando en una actualización que le daría a ChatGPT una mayor libertad para responder a la consulta de un usuario. “Esto significará permitir salidas del sistema con las que otras personas (incluidos nosotros mismos) pueden estar totalmente en desacuerdo”, dijo la compañía.

Sesión de ChatGPT.

ChatGPT intentará mantener la neutralidad política y la objetividad en temas como Donald Trump. (Crédito: OpenAI)

La noticia ya está generando preocupación de que el ChatGPT personalizable podría terminar promoviendo ideologías controvertidas o tomar partido en la guerra cultural de los EE. UU.

«Nuestra esperanza era que OpenAI abriera sus políticas de moderación al público y las siguiera, centrando las voces de las comunidades perjudicadas y esforzándose por prevenir daños. En cambio, parecen estar haciendo EXACTAMENTE LO CONTRARIO». tuiteó(Se abre en una nueva ventana) Liz O’Sullivan, miembro del Comité Asesor Nacional de IA.

Sin embargo, la actualización de personalización seguirá conteniendo medidas de seguridad para evitar que ChatGPT participe en un comportamiento potencialmente malicioso. OpenAI también quiere evitar que el chatbot se convierta en una IA «aduladora» que «amplificará sin pensar las creencias existentes de las personas».

“Por lo tanto, siempre habrá algunos límites en el comportamiento del sistema. El desafío es definir cuáles son esos límites”, dijo la compañía. “Si tratamos de tomar todas estas determinaciones por nuestra cuenta, o si tratamos de desarrollar un sistema de IA único y monolítico, estaremos fallando en el compromiso que asumimos en nuestra Carta de ‘evitar la concentración indebida de poder’”.

Como resultado, OpenAI planea recibir aportes del público sobre cómo dirigir el desarrollo de ChatGPT. Los resultados podrían producir varias versiones de ChatGPT que coexisten entre sí, como muestra uno de los gráficos de la empresa.

Gráfico de IA abierta

(Crédito: OpenAI)

Pero por ahora, los esfuerzos para recopilar opiniones del público permanecen en las primeras etapas. “También estamos explorando asociaciones con organizaciones externas para realizar auditorías de terceros de nuestros esfuerzos de seguridad y políticas”, agregó la compañía.

La publicación del blog de OpenAI también intenta ofrecer cierta transparencia sobre por qué ChatGPT puede tener cierto sesgo en temas políticos sensibles y cuestiones culturales. El comportamiento no es deliberado. A diferencia de una base de datos, que puede generar respuestas uniformes, ChatGPT funciona como un gran modelo de lenguaje entrenado en bibliotecas de datos de Internet, incluidos artículos de noticias, libros y publicaciones en redes sociales. Luego intentará autocompletar una respuesta similar a la humana con cada consulta.

Recomendado por Nuestros Editores

“Dado que no podemos predecir todas las entradas posibles que los futuros usuarios pueden ingresar en nuestro sistema, no escribimos instrucciones detalladas para cada entrada que encontrará ChatGPT”, dijo la compañía. «En cambio, describimos algunas categorías en las pautas que nuestros revisores (humanos) usan para revisar y calificar los posibles resultados del modelo para una variedad de entradas de ejemplo».

El objetivo de los revisores humanos es afinar ChatGPT para generar respuestas más precisas en preguntas limitadas. Sin embargo, el proceso de ajuste sigue siendo «imperfecto» porque ChatGPT puede «generalizar» los comentarios de un revisor humano y aplicarlos a una amplia gama de preguntas de un usuario, dijo la compañía.

“Con ese fin, estamos invirtiendo en investigación e ingeniería para reducir los sesgos evidentes y sutiles en la forma en que ChatGPT responde a diferentes entradas”, agregó OpenAI. “En algunos casos, ChatGPT actualmente rechaza salidas que no debería y, en algunos casos, no rechaza cuando debería. Creemos que es posible mejorar en ambos aspectos”.

Para ofrecer más transparencia, la compañía publicó una instantánea de tres páginas de las pautas.(Se abre en una nueva ventana) OpenAI ha brindado a los revisores humanos información sobre cómo ajustar ChatGPT. “Nuestras pautas son explícitas en cuanto a que los revisores no deben favorecer a ningún grupo político. Sin embargo, los sesgos que pueden surgir del proceso descrito anteriormente son errores, no características”, dijo la compañía.

OpenAI también planea publicar datos demográficos agregados sobre los revisores humanos que la compañía ha estado usando para pulir ChatGPT.

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras mejores historias en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38