Lainey Wilson pide legislación sobre inteligencia artificial en la audiencia de campo de la Cámara de Representantes en Los Ángeles, pero el profesor de derecho advierte sobre consecuencias no deseadas


La cantautora Lainey Wilson pidió la aprobación de una legislación propuesta que frenaría el uso de deepfakes de IA y clones de voz no autorizados, y también dijo a los legisladores que “necesitamos mantener la humanidad en el arte. No podemos perder eso”.

Wilson estuvo entre los testigos que testificaron hoy en una audiencia de campo de un subcomité Judicial de la Cámara de Representantes en Los Ángeles, con algunos respaldos firmes al proyecto de ley propuesto, y también una severa advertencia contra una de sus disposiciones.

“Mi arte es única y literalmente yo, mi nombre, mi imagen, mi voz”, dijo Wilson. “No tengo que decirte lo doloroso que es que te arranquen tu imagen o tu voz y la utilicen de maneras que nunca podrías imaginar o que nunca permitirías. Está mal, simple y llanamente”.

Y añadió: «No hay muchas cosas que podamos controlar en la vida, pero tomar decisiones sobre el uso de nosotros mismos, nuestras cualidades únicas, esa debería ser una de ellas».

Como ejemplo, dijo que se vio en línea en anuncios no autorizados en los que vendía gomitas para bajar de peso. “Nunca en un millón de años haría algo así. Pero al final del día, la gente dice: ‘Tengo que verlo para creerlo’. Bueno, lo ven y lo creen, y la gente a la que estoy muy cerca también lo cree a veces. Y es realmente aterrador cuando se llega a ese punto”.

Wilson dijo que representaba a Human Artistry Campaign, que colocó un anuncio en USA Today firmado por más de 275 artistas y otros artistas pidiendo la aprobación del proyecto de ley.

La legislación daría a las personas más control sobre el uso de sus características de identificación en réplicas digitales. Afirma que cada persona tiene un “derecho de propiedad a su propia semejanza y voz” y no expira con la muerte de una persona. Los derechos pueden transferirse a los herederos o personas designadas por un período de 10 años después del fallecimiento del individuo. Fija una indemnización de 50.000 dólares por cada violación no autorizada por parte de un servicio de clonación personalizado, o los daños reales sufridos más las ganancias por el uso. Los daños se fijan en $5,000 por infracción por publicación, ejecución, distribución o transmisión no autorizada de una réplica de voz digital o representación digital, o los daños reales.

Christopher Mohr, presidente de la Asociación de la Industria de Software e Información, dijo al comité que “muchos daños basados ​​en la identidad ya están cubiertos por diferentes doctrinas creadas por estatutos federales y estatales, y estas doctrinas ya se aplican a los usos generativos de la IA”. Citó la Ley Lanham, que restringe el respaldo falso de celebridades.

También dijo que era “importante considerar los límites de la Primera Enmienda. Los tribunales revisarán los derechos legales que regulan la identidad como una forma de regulación del discurso. Para sobrevivir al mayor escrutinio que recibiría un estatuto de este tipo, es fundamental que se adapte para remediar un daño específico y que contenga suficiente espacio para respirar para obras expresivas y otros tipos de expresión protegida”.

El proyecto de ley de la Cámara incluye una disposición para la defensa de la Primera Enmienda, incluyendo si la semejanza es “necesaria y relevante para el propósito expresivo principal de la obra en la que aparece el uso”. Eso incluye si el trabajo es transformador y si es un “comentario protegido constitucionalmente sobre un asunto de interés público”. Esos son factores que los tribunales han considerado en una defensa de «uso justo» en el uso no autorizado de material protegido por derechos de autor.

La Motion Picture Association también ha expresado preocupaciones sobre la Primera Enmienda. Un portavoz dijo el mes pasado, cuando se presentó el proyecto de ley de la Cámara, que “cualquier legislación debe proteger la capacidad de los miembros de la AMP y otros creadores de utilizar réplicas digitales en contextos que estén totalmente protegidos por la Primera Enmienda”. La asociación comercial también señaló que el reciente contrato SAG-AFTRA incluye “derechos al consentimiento informado y compensación por el uso de sus réplicas digitales”.

Harvey Mason Jr., presidente y director ejecutivo de la Academia de la Grabación, dijo a los legisladores que la IA es «el último ejemplo de una herramienta que puede ampliar las oportunidades para que diferentes voces sigan su pasión y creen nueva música», así como usos fuera del proceso creativo. . En los premios Grammy del domingo, la Academia de la Grabación se asoció con IBM para crear contenido personalizado antes y durante la ceremonia de este fin de semana.

Pero enfatizó que la Academia de la Grabación participará en todo lo que se produzca para el programa, y ​​el equipo editorial utilizará la IA para “mejorar y ampliar el trabajo, no reemplazarlo”.

«Entendemos que la IA está aquí y no irá a ninguna parte», afirmó. “Pero nuestras pautas de premios se mantienen fieles a nuestra misión: honrar a las personas detrás de la música. Sólo los creadores humanos son elegibles para ganar un premio Grammy”.

Dicho esto, Mason dijo que existe un “mosaico de leyes estatales” que abordan el derecho de publicidad de los individuos, y algunas no tienen ninguna ley en absoluto.

La Ley de No Fraude en IA, dijo, “establece en la ley federal que un individuo tiene un derecho de propiedad personal en el uso de su imagen y voz. Eso es simplemente sentido común y hace mucho que debería haberse hecho”.

Los legisladores del Senado propusieron esta semana una legislación que establecería sanciones penales por la difusión de imágenes sexuales de individuos no consensuadas y generadas por IA. Esto siguió al furor por la difusión de imágenes explícitas de inteligencia artificial de Taylor Swift que se difundieron en las redes sociales. Algunos de los legisladores citaron las imágenes de Swift en la audiencia, que estuvo presidida por el representante Darrell Issa (R-CA).

Otro testigo en la audiencia, la profesora de la Facultad de Derecho de la Universidad de Pensilvania, Jennifer Rothman, advirtió que la propuesta Ley de No Fraude de IA, así como un proyecto de ley complementario en el Senado, pueden tener consecuencias no deseadas porque permiten la transferibilidad del derecho de una persona. de publicidad a otra persona o entidad. Esto sería especialmente atroz en situaciones en las que los artistas más jóvenes, al carecer de influencia en las negociaciones, renuncian a sus derechos.

«Imagínese un mundo en el que el primer sello discográfico de Taylor Swift obtuviera los derechos a perpetuidad sobre la voz y la imagen de la joven Swift», dijo. «El sello puede luego replicar la voz de Swift una y otra vez en nuevas canciones que ella nunca escribió, y hacer que interpretaciones de AI de ella actúen y respalden las canciones y videos, e incluso hacer que los hologramas los interpreten en la gira». Dijo que según la legislación propuesta, “el sello podría demandar a Swift por violar su propio derecho de publicidad si usara su voz y su imagen para escribir y grabar nuevas canciones e interpretarlas públicamente. Éste es el mundo revuelto que crearían los dos proyectos de ley”.



Source link-18