Google advirtió que un fallo en su contra en un caso en curso de la Corte Suprema (SC) podría poner en riesgo a todo Internet al eliminar una protección clave contra demandas por decisiones de moderación de contenido que involucran inteligencia artificial (IA).
Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 (se abre en una pestaña nueva) actualmente ofrece un ‘escudo de responsabilidad’ general con respecto a cómo las empresas moderan el contenido en sus plataformas.
Sin embargo, según lo informado por CNN (se abre en una pestaña nueva)escribió Google en un presentación legal (se abre en una pestaña nueva) que, si el SC falla a favor del demandante en el caso de González v. Google, que gira en torno a los algoritmos de YouTube que recomiendan contenido pro-ISIS a los usuarios, Internet podría verse invadido por contenido peligroso, ofensivo y extremista.
Automatización con moderación
Formar parte de una ley de casi 27 años de antigüedad, ya objeto de reforma por parte del presidente estadounidense Joe Biden (se abre en una pestaña nueva)la Sección 230 no está equipada para legislar sobre desarrollos modernos como los algoritmos de inteligencia artificial, y ahí es donde comienzan los problemas.
El quid del argumento de Google es que Internet ha crecido tanto desde 1996 que incorporar inteligencia artificial en las soluciones de moderación de contenido se ha convertido en una necesidad. “Prácticamente ningún sitio web moderno funcionaría si los usuarios tuvieran que clasificar el contenido por sí mismos”, dijo en la presentación.
“Abundancia de contenido” significa que las empresas de tecnología tienen que usar algoritmos para presentarlo a los usuarios de una manera manejable, desde resultados de motores de búsqueda hasta ofertas de vuelos y recomendaciones laborales en sitios web de empleo.
Google también abordó que, según la ley existente, las empresas de tecnología simplemente se niegan a moderar sus plataformas es una ruta perfectamente legal para evitar la responsabilidad, pero esto pone a Internet en riesgo de convertirse en un «pozo negro virtual».
El gigante tecnológico también señaló que las pautas de la comunidad de YouTube desaprueban expresamente el terrorismo, el contenido para adultos, la violencia y “otro contenido peligroso u ofensivo” y que continuamente modifica sus algoritmos para bloquear de manera preventiva el contenido prohibido.
También afirmó que «aproximadamente» el 95% de los videos que violan la «política de extremismo violento» de YouTube se detectaron automáticamente en el segundo trimestre de 2022.
Sin embargo, los peticionarios en el caso sostienen que YouTube no ha eliminado todo el contenido relacionado con ISIS y, al hacerlo, ha ayudado a “el ascenso de ISIS” a la prominencia.
En un intento por distanciarse aún más de cualquier responsabilidad en este punto, Google respondió diciendo que los algoritmos de YouTube recomiendan contenido a los usuarios en función de las similitudes entre una parte del contenido y el contenido que ya le interesa al usuario.
Este es un caso complicado y, aunque es fácil suscribirse a la idea de que Internet se ha vuelto demasiado grande para la moderación manual, es igual de convincente sugerir que las empresas deben rendir cuentas cuando sus soluciones automatizadas se quedan cortas.
Después de todo, si ni siquiera los gigantes tecnológicos pueden garantizar lo que hay en su sitio web, los usuarios de filtros y controles parentales no puede estar seguro de que estén tomando medidas efectivas para bloquear el contenido ofensivo.