Cómo evitar que ChatGPT se descarrile


Cuando WIRED preguntó para cubrir el boletín de esta semana, mi primer instinto fue preguntarle a ChatGPT, el chatbot viral de OpenAI, para ver qué se le ocurría. Es lo que he estado haciendo con correos electrónicos, recetas y publicaciones de LinkedIn toda la semana. La productividad ha bajado mucho, pero los chistes atrevidos sobre Elon Musk han subido un 1000 por ciento.

Le pedí al bot que escribiera una columna sobre sí mismo al estilo de Steven Levy, pero los resultados no fueron muy buenos. ChatGPT ofreció comentarios genéricos sobre la promesa y las trampas de la IA, pero en realidad no captó la voz de Steven ni dijo nada nuevo. Como escribí la semana pasada, era fluido, pero no del todo convincente. Pero me hizo pensar: ¿Me habría salido con la mía? ¿Y qué sistemas podrían atrapar a las personas que usan IA para cosas que realmente no deberían, ya sean correos electrónicos de trabajo o ensayos universitarios?

Para averiguarlo, hablé con Sandra Wachter, profesora de tecnología y regulación en el Instituto de Internet de Oxford, quien habla elocuentemente sobre cómo incorporar transparencia y responsabilidad en los algoritmos. Le pregunté cómo sería eso para un sistema como ChatGPT.

Amit Katwala: ChatGPT puede escribir de todo, desde poesía clásica hasta textos publicitarios insípidos, pero un gran tema de conversación esta semana ha sido si podría ayudar a los estudiantes a hacer trampa. ¿Crees que podrías decir si uno de tus estudiantes lo había usado para escribir un artículo?

Sandra Wachter: Esto comenzará a ser un juego del gato y el ratón. Tal vez la tecnología aún no sea lo suficientemente buena como para engañarme como una persona que enseña derecho, pero puede ser lo suficientemente buena para convencer a alguien que no está en esa área. Me pregunto si la tecnología mejorará con el tiempo hasta el punto de poder engañarme a mí también. Es posible que necesitemos herramientas técnicas para asegurarnos de que lo que estamos viendo sea creado por un ser humano, de la misma manera que tenemos herramientas para falsificaciones profundas y detección de fotos editadas.

Eso parece intrínsecamente más difícil de hacer para el texto que para las imágenes falsificadas, porque hay menos artefactos y signos reveladores. Quizás cualquier solución confiable deba ser construida por la empresa que genera el texto en primer lugar.

Necesita tener la aceptación de quien esté creando esa herramienta. Pero si ofrezco servicios a los estudiantes, puede que no sea el tipo de empresa que se va a someter a eso. Y puede haber una situación en la que incluso si pone marcas de agua, son removibles. Los grupos muy expertos en tecnología probablemente encontrarán la manera. Pero hay una herramienta tecnológica real [built with OpenAI’s input] que le permite detectar si la salida se crea artificialmente.

¿Cómo sería una versión de ChatGPT diseñada pensando en la reducción de daños?

Un par de cosas. Primero, realmente diría que quienquiera que esté creando esas herramientas puso marcas de agua en su lugar. Y tal vez la Ley de IA propuesta por la UE pueda ayudar, porque trata con la transparencia en torno a los bots y dice que siempre debe estar atento cuando algo no es real. Pero es posible que las empresas no quieran hacer eso, y tal vez se puedan eliminar las marcas de agua. Entonces, se trata de fomentar la investigación de herramientas independientes que analicen los resultados de la IA. Y en educación, tenemos que ser más creativos sobre cómo evaluamos a los estudiantes y cómo escribimos trabajos: ¿Qué tipo de preguntas podemos hacer que sean menos fáciles de falsificar? Tiene que ser una combinación de tecnología y supervisión humana que nos ayude a frenar la interrupción.



Source link-46