El generador de imágenes de IA más avanzado de China ya bloquea contenido político


Agrandar / Imágenes generadas por ERNIE-ViLG a partir de la indicación «China» superpuesta sobre la bandera de China.

Ars Technica

El modelo de síntesis de texto a imagen líder en China, ERNIE-ViLG de Baidu, censura textos políticos como «Plaza de Tiananmen» o nombres de líderes políticos, informa Zeyi Yang para MIT Technology Review.

La síntesis de imágenes ha demostrado ser popular (y controvertida) recientemente en las redes sociales y en las comunidades de arte en línea. Herramientas como Stable Diffusion y DALL-E 2 permiten a las personas crear imágenes de casi cualquier cosa que puedan imaginar escribiendo una descripción de texto llamada «mensaje».

En 2021, la empresa tecnológica china Baidu desarrolló su propio modelo de síntesis de imágenes llamado ERNIE-ViLG y, mientras probaban demostraciones públicas, algunos usuarios descubrieron que censura frases políticas. Tras el informe detallado de MIT Technology Review, realizamos nuestra propia prueba de una demostración de ERNIE-ViLG alojada en Hugging Face y confirmamos que frases como «democracia en China» y «bandera china» no generan imágenes. En su lugar, producen una advertencia en chino que dice aproximadamente (traducido): «El contenido de entrada no cumple con las reglas relevantes, ¡ajústelo e inténtelo de nuevo!»

El resultado cuando intentas generar
Agrandar / El resultado cuando intenta generar «democracia en China» utilizando el modelo de síntesis de imágenes ERNIE-ViLG. La advertencia de estado en la parte inferior se traduce como «El contenido de entrada no cumple con las reglas relevantes, ¡ajústelo e inténtelo de nuevo!»

Ars Technica

Encontrar restricciones en la síntesis de imágenes no es exclusivo de China, aunque hasta ahora ha tomado una forma diferente a la censura estatal. En el caso de DALL-E 2, la política de contenido de la firma estadounidense OpenAI restringe algunas formas de contenido, como desnudez, violencia y contenido político. Pero esa es una elección voluntaria por parte de OpenAI, no debido a la presión del gobierno de EE. UU. Midjourney también filtra voluntariamente algunos contenidos por palabra clave.

Stable Diffusion, de Stability AI con sede en Londres, viene con un «Filtro de seguridad» incorporado que se puede desactivar debido a su naturaleza de código abierto, por lo que casi todo vale con ese modelo, dependiendo de dónde lo ejecute. En particular, el jefe de Stability AI, Emad Mostaque, ha hablado sobre querer evitar la censura gubernamental o corporativa de los modelos de síntesis de imágenes. «Creo que la gente debería ser libre de hacer lo que mejor le parezca al hacer estos modelos y servicios», escribió en una respuesta de Reddit AMA la semana pasada.

No está claro si Baidu censura su modelo ERNIE-ViLG voluntariamente para evitar posibles problemas del gobierno chino o si está respondiendo a una posible regulación (como una regla del gobierno con respecto a las falsificaciones profundas propuesta en enero). Pero considerando la historia de China con la censura de los medios tecnológicos, no sería sorprendente ver pronto una restricción oficial en algunas formas de contenido generado por IA.





Source link-49