Al algoritmo de YouTube no le importa si rechazas los videos


Una foto de una pantalla en YouTube con el mouse sobre el botón No me gusta.

YouTube ya ha impedido que los videos muestren la cantidad de «no me gusta» que tiene recibido, pero aparentemente darle un pulgar hacia abajo a un video no cambia la cantidad de videos similares que la plataforma te recomienda.
Foto: wachiwit (Shutterstock)

Mis recomendaciones de YouTube están llenas de viejas reposiciones de Kitchen Nightmares de Gordon Ramsay. Puede que sea en parte mi error por emborracharme una noche y ver un episodio completo. Déjame decirte que si hay algo que ya no quiero en mi feed es al famoso británico fanfarrón derribando a otro chef mientras los efectos de sonido más desagradables del mundo (braaaa-reeeee) se mezclan en segundo plano. No me han gustado muchos de estos videos, pero ahora tengo Hell’s Kitchen apareciendo en mi página, y me siento cada vez más como un bistec «crudo» que Ramsay está pinchando y regañando.

Pero aparentemente no estoy solo con mis problemas de recomendación de YouTube. Un informe de la Fundación Mozilla lanzado el lunes afirma, con base en una encuesta y datos de colaboración colectiva, que el «disgustoLas herramientas de retroalimentación ” y “no recomendar canal” en realidad no cambian las recomendaciones de video.

Bueno, hay dos puntos aquí. Una es que los usuarios sienten constantemente que los controles que ofrece YouTube, propiedad de Google, no realmente marcar la diferencia. Dos, según los datos recopilados de los usuarios, que los controles ofrecen un impacto «insignificante» en las recomendaciones, lo que significa que «la mayoría de los videos no deseados aún se escapan».

La fundación se basó en datos de su propia Reportero de arrepentimientos herramienta de complemento del navegador que permite a los usuarios bloquear videos seleccionados de YouTube para que no aparezcan en su feed. El informe dice que basó su análisis en cerca de 2.757 encuestados y 22.722 personas que permitieron a Mozilla acceder a más de 567 millones de recomendaciones de video tomadas desde finales de 2021 hasta junio de 2022.

Aunque los investigadores admiten que los encuestados no son una muestra representativa de YouTube audiencia amplia y diversa, un tercio de los encuestados dijo que el uso de los controles de YouTube no parecía cambiar sus recomendaciones de videos en absoluto. Un usuario le dijo a Mozilla que reportarían videos como engañosos o spam y que volverían a estar en su feed más tarde. Los encuestados a menudo dijeron que bloquear un canal solo generaría recomendaciones de canales similares.

El algoritmo de YouTube recomienda a los usuarios videos que no quieren ver y, a menudo, es peor que el viejo cable de Ramsay. Un informe de 2021 de Mozilla, nuevamente basado en datos de usuarios de colaboración colectiva, afirmó que a las personas que navegan por la plataforma de video se les recomienda regularmente contenido violento, discurso de odio e información política errónea.

En este último informe, los investigadores de Mozilla encontraron que pares de videos que incluían a los usuarios rechazados, como un tucker carlson regla, solo daría como resultado que se recomiende otro video del canal de Fox News en YouTube. Basado en una revisión de 40,000 pares de videos, a menudo, cuando un canal está bloqueado, el algoritmo simplemente recomienda videos muy similares de canales similares. El uso de los botones «No me gusta» o «No me interesa» solo evitó el 12 % y el 11 % de las recomendaciones no deseadas, respectivamente, en comparación con un grupo de control. El uso de los botones «no recomendar el canal» y «eliminar del historial de reproducciones» fue más eficaz para corregir los feeds de los usuarios, pero solo en un 43 % y un 29 %, respectivamente.

“En nuestro análisis de los datos, determinamos que los mecanismos de control de usuarios de YouTube son herramientas inadecuadas para evitar recomendaciones no deseadas”, escribieron los investigadores de Mozilla en su estudio.

La portavoz de YouTube, Elena Hernández, le dijo a Gizmodo en un comunicado por correo electrónico que «Nuestros controles no filtran temas o puntos de vista completos, ya que esto podría tener efectos negativos para los espectadores, como crear cámaras de eco». La compañía ha dicho que no impiden que se recomiende todo el contenido de temas relacionados, pero también afirman impulsar contenido «autoritario» mientras suprimen videos «límite» que se acercan a violar las políticas de moderación de contenido.

en un publicación de blog 2021, Cristos Goodrow, vicepresidente de ingeniería de YouTube, escribió que su sistema está «en constante evolución», pero que proporcionar transparencia en su algoritmo «no es tan simple como enumerar una fórmula para las recomendaciones», ya que sus sistemas tienen en cuenta los clics, ver tiempo, respuestas a encuestas, uso compartido, gustos y disgustos.

Por supuesto, al igual que todas las plataformas de redes sociales, YouTube se ha esforzado por crear sistemas que puedan combatir toda la amplitud de contenido malo o incluso depredador siendo subido al sitio. Un libro próximo compartido exclusivamente con Gizmodo dijo que YouTube estuvo cerca de obtener miles de millones de dólares en ingresos publicitarios para lidiar con los videos extraños e inquietantes que se recomiendan a los niños.

Si bien Hernández afirmó que la empresa ha ampliado su API de datosel SPokesperson agregó: «El informe de Mozilla no tiene en cuenta cómo funcionan realmente nuestros sistemas y, por lo tanto, es difícil para nosotros obtener muchas ideas».

Pero esta es una crítica que Mozilla también pone a los pies de Google, diciendo que la compañía no brinda suficiente acceso para permitir que los investigadores evalúen qué afecta la salsa secreta de YouTube, también conocida como sus algoritmos.



Source link-45