¿Los generadores de imágenes de IA han asimilado tu arte? La nueva herramienta le permite verificar


Agrandar / Una imagen de «¿Me han capacitado?» sitio web que presenta una búsqueda de uno de sus creadores, Holly Herndon.

En respuesta a la controversia sobre los modelos de síntesis de imágenes que aprenden de las imágenes de los artistas extraídas de Internet sin consentimiento, y potencialmente replican sus estilos artísticos, un grupo de artistas ha lanzado un nuevo sitio web que permite a cualquier persona ver si su obra de arte se ha utilizado para entrenar la IA. .

El sitio web «¿He sido capacitado?» aprovecha los datos de entrenamiento LAION-5B utilizados para entrenar los modelos Stable Diffusion e Imagen AI de Google, entre otros. Para construir LAION-5B, los bots dirigidos por un grupo de investigadores de IA rastrearon miles de millones de sitios web, incluidos grandes repositorios de obras de arte en DeviantArt, ArtStation, Pinterest, Getty Images y más. En el camino, LAION recopiló millones de imágenes de artistas y titulares de derechos de autor sin consultar, lo que irritó a algunos artistas.

Al visitar la página ¿Me han capacitado? sitio web, que está a cargo de un grupo de artistas llamado Spawning, los usuarios pueden buscar el conjunto de datos por texto (como el nombre de un artista) o por una imagen que cargan. Verán los resultados de las imágenes junto con los datos de subtítulos vinculados a cada imagen. Es similar a una herramienta de búsqueda anterior LAION-5B creada por Romain Beaumont y un esfuerzo reciente de Andy Baio y Simon Willison, pero con una interfaz elegante y la capacidad de realizar una búsqueda inversa de imágenes.

Cualquier coincidencia en los resultados significa que la imagen podría haberse usado potencialmente para entrenar generadores de imágenes de IA y aún podría usarse para entrenar los modelos de síntesis de imágenes del mañana. Los artistas de IA también pueden usar los resultados para guiar indicaciones más precisas.

El sitio web de Spawning es parte del objetivo del grupo de establecer normas sobre cómo obtener el consentimiento de los artistas para usar sus imágenes en futuros esfuerzos de capacitación de IA, que incluyen herramientas de desarrollo que tienen como objetivo permitir que los artistas opten por participar o no en el entrenamiento de IA.

Una cornucopia de datos

Una variedad de retratos de robots generados por Stable Diffusion, cada uno de los cuales combina elementos aprendidos de diferentes artistas.
Agrandar / Una variedad de retratos de robots generados por Stable Diffusion, cada uno de los cuales combina elementos aprendidos de diferentes artistas.

Como se mencionó anteriormente, los modelos de síntesis de imágenes (ISM) como Stable Diffusion aprenden a generar imágenes mediante el análisis de millones de imágenes extraídas de Internet. Estas imágenes son valiosas para fines de capacitación porque tienen etiquetas (a menudo denominadas metadatos) adjuntas, como leyendas y texto alternativo. El vínculo entre estos metadatos y las imágenes permite que los ISM aprendan asociaciones entre palabras (como nombres de artistas) y estilos de imagen.

Cuando escribe un mensaje como «una pintura de un gato de Leonardo DaVinci», el ISM hace referencia a lo que sabe sobre cada palabra de esa frase, incluidas imágenes de gatos y pinturas de DaVinci, y cómo se organizan generalmente los píxeles en esas imágenes. en relación unos con otros. Luego compone un resultado que combina ese conocimiento en una nueva imagen. Si un modelo se entrena correctamente, nunca devolverá una copia exacta de una imagen utilizada para entrenarlo, pero algunas imágenes pueden ser similares en estilo o composición al material de origen.

Sería poco práctico pagar a los humanos para que escriban manualmente descripciones de miles de millones de imágenes para un conjunto de datos de imágenes (aunque se ha intentado a una escala mucho más pequeña), por lo que todos los datos de imágenes «gratuitos» en Internet son un objetivo tentador para la IA. investigadores No buscan el consentimiento porque la práctica parece ser legal debido a las decisiones judiciales de los EE. UU. sobre el raspado de datos de Internet. Pero un tema recurrente en las noticias de IA es que el aprendizaje profundo puede encontrar nuevas formas de usar datos públicos que no se habían anticipado anteriormente, y hacerlo de maneras que podrían violar la privacidad, las normas sociales o la ética de la comunidad, incluso si el método es técnicamente legal. .

Vale la pena señalar que las personas que usan generadores de imágenes de IA generalmente hacen referencia a artistas (generalmente más de uno a la vez) para combinar estilos artísticos en algo nuevo y no en una búsqueda para cometer una infracción de derechos de autor o imitar a los artistas de manera nefasta. Aun así, algunos grupos como Spawning sienten que el consentimiento siempre debe ser parte de la ecuación, especialmente cuando nos aventuramos en este territorio inexplorado y en rápido desarrollo.





Source link-49