La herramienta de envenenamiento de datos Nightshade podría ayudar a los artistas a luchar contra la IA


Investigadores en informática han creado una nueva herramienta de datos de imágenes denominada Nightshade para «envenenar» los datos destinados a los modelos de texto a imagen. Nightshade agrega cambios imperceptibles a las imágenes de los creadores que se cargan en línea. Si un raspador de datos agrega posteriormente una de estas imágenes alteradas a su conjunto de datos, «introducirá comportamientos inesperados» en el modelo, envenenándolo.

Recientemente se publicó en arXiv una vista previa de un artículo llamado Ataques de envenenamiento específicos rápidos en modelos generativos de texto a imagen, que describe el alcance y la funcionalidad de Nightshade. Revisión de tecnología del MIT ha obtenido más información tras las conversaciones con el equipo detrás del proyecto.

(Crédito de la imagen: Universidad de Chicago, arXiv)

La cuestión de que los modelos de IA se entrenen con datos sin el permiso explícito del creador y luego «generan nuevos datos» en función de lo que han aprendido ha sido ampliamente cubierto en las noticias en los últimos meses. Lo que parece ser una extracción de datos gratuitamente seguida de una regurgitación de máquinas, con poca o ninguna atribución, ha provocado que creadores de muchas disciplinas desaprueben los proyectos actuales de IA generativa.



Source link-41