Una nueva herramienta anti-IA ‘envenena’ los modelos generativos para proteger las obras de arte de robo-Rembrandts no autorizados


Una nueva herramienta de investigadores de la Universidad de Chicago promete proteger el arte de ser aspirado por modelos de IA y utilizado para entrenamiento sin permiso «envenenando» datos de imágenes.

Conocida como Nightshade, la herramienta modifica los datos de imágenes digitales de maneras que se dice que son invisibles para el ojo humano pero que causan todo tipo de errores en los modelos de entrenamiento generativo, como DALL-E, Midjourney y Stable Diffusion.



Source link-8