Cómo la serpenteante definición legal de «uso legítimo» nos costó Napster pero nos dio Spotify


La «enshittificación» de Internet, como dice el veterano periodista y defensor de la privacidad Cory Doctorow lo describe, comenzó décadas antes de que TikTok apareciera en escena. Los millennials mayores recuerdan los buenos tiempos de Napster, seguidos por los tiempos mucho peores en los que Napster fue demandado hasta el olvido junto con Grokster y el resto del ecosistema de intercambio P2P, hasta que nos quedamos con un puñado de productos aprobados por etiquetas y esterilizados por catálogo. plataformas de streaming como Pandora y Spotify. Tres hurras por los litigios corporativos por derechos de autor.

En su nuevo libro La estafa de Internet: cómo aprovechar los medios de computación, Doctorow examina el panorama moderno de las redes sociales, catalogando e ilustrando los innumerables fracasos y decisiones comerciales miopes de las grandes empresas tecnológicas que operan los servicios que nos prometieron el futuro pero que solo nos dieron más nazis. Tenemos tanto la obligación como la responsabilidad de desmantelar estos sistemas, sostiene Doctorow, y un medio para hacerlo con mayor interoperabilidad. En el extracto de Hitting the Books de esta semana, Doctorow examina las consecuencias de las demandas contra los servicios de intercambio P2P, así como el papel que desempeñan el sistema de informes de «notificación y eliminación» de la Ley de Derechos de Autor del Milenio Digital y el esquema «ContentID» de YouTube en el streaming moderno. sitios.

La portada de Internet Con

Editorial Verso

Extraído de por La estafa de Internet: cómo aprovechar los medios de computación por Cory Doctorow. Publicado por Verso. Copyright © 2023 por Cory Doctorow. Reservados todos los derechos.


Aprovechar los medios de computación

Los daños derivados de la notificación y eliminación en sí no afectan directamente a las grandes empresas de entretenimiento. Pero en 2007, la propia industria del entretenimiento diseñó una forma nueva y más potente de notificación y eliminación que logra infligir daño directo al Big Content, al tiempo que amplifica los daños al resto de nosotros.

Ese nuevo sistema es “aviso y permanencia abajo”, un sucesor del aviso y eliminación que monitorea todo lo que cada usuario sube o escribe y verifica si es similar a algo que ha sido marcado como trabajo protegido por derechos de autor. Este ha sido durante mucho tiempo un objetivo legal de la industria del entretenimiento, y en 2019 se convirtió en una característica de la legislación de la UE, pero en 2007, el aviso y suspensión hizo su debut como una modificación voluntaria de YouTube, llamada «Content ID».

Algunos antecedentes: en 2007, Viacom (parte de CBS) presentó una demanda por derechos de autor de miles de millones de dólares contra YouTube, alegando que la compañía había alentado a sus usuarios a infringir sus programas subiéndolos a YouTube. Google, que adquirió YouTube en 2006, se defendió invocando los principios detrás de Betamax y la notificación y eliminación, argumentando que había cumplido con sus obligaciones legales y que Betamax estableció que el «incentivo» a la infracción de derechos de autor no creaba responsabilidad por empresas de tecnología (recuerde que Sony había anunciado la videograbadora como un medio para violar la ley de derechos de autor al grabar películas de Hollywood y verlas en casa de sus amigos, y la Corte Suprema decidió que no importaba).

Pero con Grokster flotando sobre la cabeza de Google, había razones para creer que esta defensa podría no funcionar. Existía una posibilidad real de que Viacom pudiera demandar a YouTube para que dejara de existir; de hecho, las comunicaciones internas de Viacom llenas de malas palabras, que Google extrajo a través del proceso de descubrimiento legal, demostraron que los ejecutivos de Viacom habían estado debatiendo acaloradamente cuál de ellos agregaría YouTube a su negocio. imperio privado cuando Google se vio obligado a vender YouTube a la empresa.

Google logró una victoria, pero estaba decidido a no volver a terminar en un lío como el caso de Viacom. Creó Content ID, una herramienta de “huellas digitales de audio” que se presentó como una forma para que los titulares de derechos bloquearan o monetizaran el uso de sus obras protegidas por derechos de autor por parte de terceros. YouTube permitió (al principio) a los grandes titulares de derechos subir sus catálogos a una lista de bloqueo y luego escaneó todas las cargas de los usuarios para comprobar si alguno de sus audios coincidía con un clip «reclamado».

Una vez que Content ID determinó que un usuario estaba intentando publicar una obra protegida por derechos de autor sin el permiso de su titular de derechos, consultó una base de datos para determinar la preferencia del titular de los derechos. Algunos titulares de derechos bloquearon cualquier carga que contuviera audio que coincidiera con el suyo; otros optaron por quedarse con los ingresos publicitarios generados por ese vídeo.

Hay muchos problemas con esto. En particular, existe la incapacidad de Content ID para determinar si el uso por parte de un tercero de los derechos de autor de otra persona constituye un «uso justo». Como se analizó, el uso legítimo es el conjunto de usos que están permitidos incluso si el titular de los derechos se opone, como tomar extractos con fines críticos o transformadores. El uso legítimo es una doctrina “intensiva en hechos”, es decir, la respuesta a “¿Es esto un uso legítimo?” casi siempre es “Depende, preguntémosle a un juez”.

Las computadoras no pueden separar el uso legítimo de la infracción. No hay manera de que puedan hacerlo. Eso significa que los filtros bloquean todo tipo de trabajos creativos legítimos y otros discursos expresivos, especialmente trabajos que utilizan muestras o citas.

Pero no es sólo el préstamo creativo, la remezcla y la transformación con lo que luchan los filtros. Gran parte del trabajo creativo es similar a otro trabajo creativo. Por ejemplo, una frase de seis notas de la canción “Dark Horse” de Katy Perry de 2013 es efectivamente idéntica a una frase de seis notas de “Joyful Noise”, una canción de 2008 de un rapero cristiano mucho menos conocido llamado Flame. Flame y Perry pasaron varias rondas en los tribunales, y Flame acusó a Perry de violar sus derechos de autor. Perry finalmente prevaleció, lo cual es una buena noticia para ella.

Pero los filtros de YouTube luchan por distinguir la frase de seis notas de Perry de la de Flame (al igual que los ejecutivos de Warner Chappell, el editor de Perry, que periódicamente han acusado a las personas que publican fragmentos de “Joyful Noise” de Flame de infringir “Dark Horse” de Perry). Incluso cuando la similitud no es tan pronunciada como en Dark, Joyful, Noisy Horse, los filtros rutinariamente alucinan infracciones de derechos de autor donde no existen, y esto es intencionado.

Para entender por qué, primero tenemos que pensar en los filtros como una medida de seguridad, es decir, como una medida tomada por un grupo de personas (plataformas y grupos de titulares de derechos) que quieren impedir que otro grupo de personas (cargadores) haga algo que ellos quieren. hacer (subir material infractor).

Es bastante trivial escribir un filtro que bloquee coincidencias exactas: los sellos podrían cargar masters digitales prístinos codificados sin pérdidas de todo lo que hay en su catálogo, y cualquier usuario que subiera una pista que fuera digital o acústicamente idéntica a ese master sería bloqueado.

Pero sería fácil para quien subió un video sortear un filtro como este: podrían simplemente comprimir el audio ligeramente, por debajo del umbral de la percepción humana, y este nuevo archivo ya no coincidiría. O podrían recortar una centésima de segundo del principio o el final de la pista, u omitir un solo compás del puente, o cualquiera de un millón de otras modificaciones que los oyentes probablemente no notarán o de las que se quejarán.

Los filtros no funcionan con coincidencias exactas: en cambio, emplean coincidencias «difusas». No sólo bloquean las cosas que los titulares de derechos les han dicho que bloqueen: bloquean cosas que son similares a aquellas cosas que los titulares de derechos han reclamado. Esta confusión se puede ajustar: el sistema puede hacerse más o menos estricto sobre lo que considera una coincidencia.

Los grupos de propietarios de derechos quieren que las coincidencias sean lo más flexibles posible, porque en algún lugar podría haber alguien que estaría contento con una versión muy confusa y truncada de una canción, y quieren impedir que esa persona obtenga la canción de forma gratuita. . Cuanto más vaga sea la coincidencia, más falsos positivos. Este es un problema especial para los músicos clásicos: sus interpretaciones de Bach, Beethoven y Mozart inevitablemente se parecen muchísimo a las grabaciones que Sony Music (el sello de música clásica más grande del mundo) ha reclamado en Content ID. Como resultado, se ha vuelto casi imposible ganarse la vida con el rendimiento clásico en línea: sus videos son bloqueados o los ingresos publicitarios que generan se desvían a Sony. Incluso la enseñanza de interpretación de música clásica se ha convertido en un campo minado, ya que Content ID bloquea lecciones gratuitas en línea cuidadosamente producidas o, si el sello discográfico se siente generoso, las lecciones se dejan en línea pero los ingresos publicitarios que obtienen se desvían a una corporación gigante, robando el salario creativo de un profesor de música.

La ley de notificación y eliminación no les dio a los titulares de derechos la Internet que querían. ¿Qué tipo de Internet era ese? Bueno, aunque los gigantes del entretenimiento dijeron que lo único que querían era una Internet libre de infracciones de derechos de autor, sus acciones (y los memorandos sinceros publicados en el caso Viacom) dejan en claro que bloquear la infracción es un pretexto para una Internet en la que las compañías de entretenimiento puedan decidir quién. se puede crear una nueva tecnología y cómo funcionará.



Source link-47