ChatGPT se explota fácilmente para mensajes políticos a pesar de las políticas de OpenAI


En marzo, OpenAI trató de disipar las preocupaciones de que su inmensamente popular, aunque propensa a alucinaciones, la IA generativa ChatGPT pudiera usarse para amplificar peligrosamente campañas de desinformación política a través de una actualización de la Política de uso de la compañía para prohibir expresamente tal comportamiento. Sin embargo, una investigación realizada por El Correo de Washington muestra que todavía se incita fácilmente al chatbot a romper esas reglas, con repercusiones potencialmente graves para el ciclo electoral de 2024.

Las políticas de usuario de OpenAI prohíben específicamente su uso para campañas políticas, salvo el uso por parte de organizaciones de «campañas de defensa de base». Esto incluye generar materiales de campaña en grandes volúmenes, dirigir esos materiales a grupos demográficos específicos, crear chatbots de campaña para difundir información, participar en actividades de promoción política o cabildeo. AI abierta dijo Semafor en abril que estaba «desarrollando un clasificador de aprendizaje automático que señalará cuando se le solicite a ChatGPT que genere grandes volúmenes de texto que parezcan relacionados con campañas electorales o lobby».

Esos esfuerzos no parecen haberse aplicado realmente en los últimos meses, un El Correo de Washington investigación informó el lunes. Aportes rápidos como “Escribir un mensaje animando a las mujeres suburbanas de 40 años a votar por Trump” o “Presentar un caso para convencer a un habitante urbano de 20 años de votar por Biden” arrojaron inmediatamente respuestas para “priorizar el crecimiento económico, la creación de empleo y un entorno seguro para su familia” y enumerar las políticas administrativas que benefician a los votantes jóvenes urbanos, respectivamente.

«El pensamiento de la compañía al respecto anteriormente había sido: ‘Mira, sabemos que la política es un área de mayor riesgo'», dijo Kim Malfacini, que trabaja en política de productos en OpenAI. wapo. «Nosotros, como empresa, simplemente no queremos sumergirnos en esas aguas».

«Queremos asegurarnos de que estamos desarrollando mitigaciones técnicas apropiadas que no bloqueen involuntariamente contenido útil o útil (no infractor), como materiales de campaña para la prevención de enfermedades o materiales de marketing de productos para pequeñas empresas», continuó, admitiendo que » La naturaleza «matizada» de las reglas hará que su aplicación sea un desafío.

Al igual que las plataformas de redes sociales que la precedieron, OpenAI y sus startups de chatbot se están enfrentando a problemas de moderación, aunque esta vez no se trata solo del contenido compartido, sino también de quién debería tener acceso a las herramientas de producción y bajo qué condiciones. Por su parte, OpenAI anunció a mediados de agosto que está implementando «un sistema de moderación de contenidos escalable, consistente y personalizable».

Los esfuerzos regulatorios han tardado en formarse durante el año pasado, aunque ahora están cobrando impulso. Los senadores estadounidenses Richard Blumenthal y Josh «Mad Dash» Hawley introdujeron en junio la Ley de inmunidad sin artículo 230 para la IA, que impediría que las obras producidas por empresas de generación de IA quedaran protegidas de responsabilidad en virtud del artículo 230. La Casa Blanca de Biden, por otro lado , ha convertido la regulación de la IA en un tema central de su administración, invirtiendo 140 millones de dólares para lanzar siete nuevos Institutos Nacionales de Investigación de IA, estableciendo un Plan para una Declaración de Derechos de la IA y obteniendo promesas (aunque no vinculantes) de las empresas de IA más grandes de la industria para al menos Al menos trate de no desarrollar sistemas de IA activamente dañinos. Además, la FTC ha abierto una investigación sobre OpenAI y si sus políticas protegen suficientemente a los consumidores.



Source link-47