Actualizar: El creador de la herramienta ha publicado un Hilo de Twitter (se abre en una pestaña nueva) explicando mejor cómo funciona y reiterando que no funciona según lo previsto con imágenes no generadas por IA. También señalan que «claramente hay mucho margen de mejora aquí», y que no todo está funcionando todavía en la herramienta de cara al público.
Stable Attribution parece una herramienta difícil en la práctica, pero todavía está en versión beta hoy. No es un proceso simple discernir dónde exactamente una IA ha aprendido a crear lo que crea, o cuánto influye una imagen entre miles de millones en la creación de otra. Quizás veamos esta herramienta materializarse en algo útil para la atribución con el tiempo, o las compañías detrás de estos generadores de imágenes de IA encontrarán otra forma de calmar a los artistas que exigen algún token por su trabajo para hacer que todo suceda. Pero tal vez eso sea solo una ilusión mía en nombre de los artistas.
historia original: Las herramientas de arte de IA han disfrutado de un aumento meteórico en popularidad durante el último año. Millones ahora usan herramientas increíblemente impresionantes como DALL-E 2 y Stable Diffusion para generar imágenes aparentemente de la nada usando indicaciones de texto. Pero no vienen de la nada, y Stable Attribution (se abre en una pestaña nueva) espera que todos sean más conscientes del arte hecho por humanos del que en última instancia se deriva el arte de IA.
Stable Attribution es un algoritmo que le permite detectar las imágenes de origen que probablemente se utilicen en la creación de arte de IA. Es una especie de algoritmo de ingeniería inversa; encontrar la obra de arte hecha por humanos que ayudó a la IA a sobrevivir. Podría convertirse en algo muy importante para los artistas en una disputa en curso con las herramientas de generación de imágenes de IA. Stable Attribution podría ofrecer a los artistas una forma de recuperar el control sobre el uso de sus imágenes.
Aquí hay un ejemplo de cómo funciona. Entro en un aviso en el generador de imágenes de IA Stable Diffusion: «una PC gigante que deambula por el bosque en busca de piezas de PC nuevas para consumir». La IA escupe la siguiente imagen.
Luego descargo esta imagen, la coloco en Stable Attribution y escupe una colección de imágenes. (se abre en una pestaña nueva) que cree que se usaron en el entrenamiento de Stable Diffusion y probablemente se mencionaron en la creación de mi imagen solicitada. En este caso: un banner de producto, una imagen de una escuela de formación profesional en España, una foto de un estilo de vida del producto y muchos más.
Si alguna de las imágenes es suya o de alguien que conoce, puede enviar un enlace para obtener el crédito correspondiente.
Stable Attribution funciona al decodificar un modelo de IA en los ejemplos más similares que puede encontrar en los conjuntos de datos disponibles. Algunas empresas utilizan conjuntos de datos disponibles públicamente, como Stable Diffusion y LAION, y eso significa que Stable Attribution también puede indexar una copia del conjunto de datos para hacer referencias cruzadas. Sin embargo, los datos de entrenamiento de OpenAI no están disponibles públicamente, lo que detiene en seco cualquier herramienta de este tipo para DALL-E 2.
Stable Attribution tampoco es un algoritmo perfecto para la atribución todavía.
«La versión 1 del algoritmo Stable Attribution no es perfecta, en parte porque el proceso de entrenamiento es ruidoso y los datos de entrenamiento contienen muchos errores y redundancia». Atribución estable dice.
La similitud de la imagen de salida con las que se usan en el entrenamiento no es una manera perfecta de discernir qué se hizo para crear una imagen en esa instancia exacta. Los algoritmos de IA se están volviendo cada vez más complejos en la forma en que hacen esto.
«Pero este no es un problema imposible», continúa Stable Attribution.
Para aquellos de ustedes que argumentan que https://t.co/RL2cP9fpgv es «defectuoso» por cualquier motivo de diseño o técnico: tenga en cuenta que este debería ser el valor predeterminado en todas las herramientas generativas, para informar a los artistas de IA si su producción infringe sobre datos de entrenamiento. ? (1/3)6 de febrero de 2023
Como señala el experto en IA Alex J. Champandard, podría ser una herramienta tan útil para los artistas de IA como para los artistas que sienten que se han infringido sus derechos de autor. Si está vendiendo arte generado por una IA, ¿existe un caso para un reclamo de derechos de autor en su contra? ¿Eres responsable de usar una herramienta de IA o más bien la empresa que crea la herramienta de IA? ¿La capacitación en un conjunto de datos que utiliza material protegido por derechos de autor es injusta y viola los derechos de autor? Estas son las preguntas para las que aún no tenemos un precedente legal claro, pero puede estar seguro de que este será un debate que continuará durante los próximos años.
En gran medida se reduce a la formación. Uso de herramientas de imagen de IA masas de datos para entrenamiento. El entrenamiento es el proceso de enseñar a una IA a hacer algo y, en el caso de Stable Diffusion y DALL-E 2, producir imágenes que coincidan con las descripciones que se les dieron. No hay nada intrínsecamente malo en entrenar una IA para hacer algo, a menos que sea algo moralmente ambiguo o maldito. En este caso, estas IA están siendo entrenadas en la generación de imágenes simples, en su mayoría inofensivas. No hay problema allí, ¿verdad?
Bueno, no, no necesariamente.
Los datos utilizados para esta capacitación generalmente se extraen de la web, lo que significa que una URL y una descripción de la imagen se almacenan en una base de datos y luego se alimentan al algoritmo. Estos conjuntos de datos pueden contener millones de URL y pares de etiquetas de descripción, y la mayoría de las veces son vendidos o regalados por empresas de recopilación de conjuntos de datos de terceros.
El problema que los artistas señalan con estas herramientas de arte de IA es que estos conjuntos de datos a menudo están llenos de imágenes con derechos de autor. El raspado es en gran medida indiscriminado; un conjunto de datos puede contener algún arte que subiste a un foro en 2008, o algún arte que participaste en una competencia en línea una vez. Podría contener imágenes ofensivas que deben ser eliminadas. (se abre en una pestaña nueva). Un conjunto de datos puede incluso tener una imagen tuya, y tendrás que pedirle a la empresa del conjunto de datos que la elimine si no te gusta la idea de que una IA se entrene a tu semejanza.
Es bastante desordenado. La ley no se ha puesto al día con las herramientas de IA, pero estamos comenzando a ver múltiples demandas presentadas en StabilityAI, OpenAI y muchas más empresas de IA como estas, por infracción de derechos de autor. (se abre en una pestaña nueva). Los artistas sienten que su estilo artístico está siendo copiado por una IA y utilizado para apuntalar empresas que ahora valen miles de millones de dólares. (se abre en una pestaña nueva). Mientras tanto, nunca dieron su consentimiento para que se usaran sus imágenes, independientemente de la situación de los derechos de autor de estas imágenes, y rara vez reciben un centavo por su contribución.
Sin embargo, hemos visto intentos de hacer que las herramientas de arte de IA sean más justas para los artistas. Shutterstock ahora ofrece arte de IA (se abre en una pestaña nueva) en asociación con OpenAI, pero pagará una tarifa a los artistas cuyo trabajo se utilizó en su creación. Una estrategia completamente diferente a la de Getty Images, que ha presentado una demanda contra Stability AI (se abre en una pestaña nueva) sobre el uso de imágenes de su biblioteca con fines formativos. Stable Diffusion también planea permitir a los artistas optar por no recibir versiones futuras de la herramienta. (se abre en una pestaña nueva), sin embargo, no puedes evitar sentir que esa debería haber sido una opción en primer lugar. Stable Diffusion realmente no tiene derecho a ninguna de estas imágenes en ningún sentido legal, incluso si el uso de ellas en el entrenamiento es un área un tanto gris, pero ¿por qué debería ser la responsabilidad de los individuos decirles que despidan?
Estos casos judiciales no arrojarán ninguna respuesta durante algún tiempo, e incluso entonces, es poco probable que una opinión sea el final del asunto. La legislación tiene mucho para ponerse al día con respecto a la IA, y la generación de imágenes es solo una pequeña parte del debate.