El CEO de Bluesky se enfrenta a la moderación de contenidos en el fediverso


El panel en el escenario del evento Informed de la Fundación Knight es la rotación contundente de pesadilla de Elon Musk: el editor de Techdirt, Mike Masnick, el ex líder de seguridad de Twitter, Yoel Roth, y el director ejecutivo de Bluesky, Jay Graber, quienes se han reunido para discutir la moderación de contenido en el fediverso.

Ha pasado más de un año desde que Musk apareció en la sede de Twitter con un fregadero literal a cuestas, pero muchos usuarios de redes sociales todavía son un poco nómadas, flotando entre varias plataformas emergentes. Y si un usuario tomó la decisión de abandonar Twitter en la era Musk, probablemente esté buscando una plataforma con actual políticas de moderaciónlo que significa aún más presión para líderes como Graber para lograr el frágil equilibrio entre una tediosa moderación excesiva y un enfoque totalmente no intervencionista.

«Toda la filosofía ha sido que esto debe tener una buena experiencia de usuario y ser una buena experiencia», dijo Graber sobre su enfoque para ejecutar Bluesky. “La gente no está en esto sólo por la descentralización y las ideas abstractas. Están ahí para divertirse y pasar un buen rato aquí”.

Y al principio, los usuarios estaban teniendo una experiencia buena, realmente buena.

“Teníamos una proporción realmente alta de carteles y merodeadores. En muchas plataformas sociales, hay un porcentaje muy pequeño de personas que publican y un porcentaje muy grande de personas que acechan”, dijo Graber. «Ha sido una cultura de publicación muy activa, y continúa siéndolo, aunque el comienzo fue extremadamente alto, como si entre el 90% y el 95% de los usuarios estuvieran publicando».

Pero Bluesky se ha enfrentado a algunos dolores de crecimiento en su versión beta mientras descubre qué enfoque adoptar ante cuestiones delicadas de moderación de contenido. En un incidente, sobre el cual Roth preguntó a Graber en el panel, los usuarios descubrieron que Bluesky no tenía una lista de palabras cuya aparición estaba prohibida en los nombres de usuario. Como resultado, los usuarios comenzaron a registrar nombres de cuentas con insultos raciales.

“En aquel momento el verano pasado, éramos un equipo realmente pequeño, como menos de diez ingenieros. Todos podríamos caber alrededor de una mesa de conferencias”, dijo Graber. Cuando los moderadores de contenido descubrieron el problema con los insultos en los nombres de usuario, el equipo parchó el código, que es de código abierto, para que los usuarios pudieran ver la implementación de las listas de palabras en tiempo real, lo que provocó más debate. “Aprendimos mucho sobre la transparencia en la comunicación y sobre cómo ser realmente proactivos…. Una de las razones por las que hemos permanecido en la versión beta durante tanto tiempo es para darnos algo de espacio para hacerlo bien”.

Desde entonces, tanto la base de usuarios como su equipo de Bluesky han crecido. Bluesky contrató más ingenieros y moderadores de contenido, mientras que su número total de usuarios aumentó de unos 50.000 a finales de abril de 2023 a más de 3 millones este mes. Y la plataforma aún no está abierta al público.

«Es justo decir que aproximadamente la mitad de nuestro trabajo técnico con productos ha estado relacionado de alguna manera con la confianza y la seguridad, porque la moderación es fundamental para cómo funciona esto en un ecosistema abierto», dijo Graber.

Para plataformas como Bluesky, Mastodon y Threads, los desafíos de moderación de contenido se vuelven aún más complicados cuando agregas la variable fediverse.

Una vez que el protocolo AT esté completamente en funcionamiento, cualquiera podrá crear su propia red social sobre la infraestructura de Bluesky; Bluesky, como red social, es solo una aplicación construida sobre el protocolo. Pero esto significa que a medida que surjan nuevas redes en el Protocolo AT, la empresa tendrá que decidir cómo (o si) debe regular lo que hacen las personas en la plataforma. Por ahora, esto significa que Bluesky está construyendo lo que llama «moderación componible».

«Nuestra visión más amplia aquí es la moderación componible, y eso básicamente significa que en los servicios que ejecutamos, como la aplicación, establecemos una línea de base para la moderación», dijo Graber. “Pero queremos construir un ecosistema donde cualquiera pueda participar. [in moderation]y el tercero es realmente el primero”.

Graber explica con más detalle el complicado concepto en una publicación de blog:

Las plataformas sociales centralizadas delegan toda la moderación a un conjunto central de administradores cuyas políticas las establece una empresa. Esto es un poco como resolver todas las disputas a nivel del Tribunal Supremo. Las redes federadas delegan las decisiones de moderación a los administradores del servidor. Esto se parece más a resolver disputas a nivel de gobierno estatal, lo cual es mejor porque puedes mudarte a un nuevo estado si no te gustan las decisiones de tu estado, pero mudarte suele ser difícil y costoso en otras redes. Hemos mejorado esta situación al facilitar el cambio de servidores y al separar la moderación en servicios estructuralmente independientes.

Por lo tanto, Bluesky puede exigir que no se permitan la infracción de derechos de autor ni el spam, pero una aplicación individual creada sobre el protocolo puede establecer sus propias reglas, siempre que no contradigan la línea de base de Bluesky. Por ejemplo, Bluesky permite a los usuarios publicar contenido para adultos, pero si alguien construyera un servidor más apto para familias con el protocolo AT, tendría derecho a prohibir el contenido para adultos en su servidor específico, y si alguien en ese servidor no estuviera de acuerdo con Con esa decisión, podrían transferir fácilmente su cuenta a un servidor diferente y retener a todos sus seguidores.

«Uno de los problemas que tenemos ahora es que, cuando sólo tienes lo que te ofrece Twitter o Meta, y tal vez sólo unas pocas opciones o casillas de verificación, eso no es realmente una elección algorítmica», dijo Masnick. “Eso no es realmente moderación componible. Eso no te lleva al nivel de permitir que diferentes entidades prueben cosas diferentes y experimenten y vean qué funciona mejor”.

Los usuarios también pueden optar por utilizar feeds de terceros para ver el contenido, en lugar de simplemente elegir entre una pestaña «recomendado» y «siguiente».

“En lugar de decirle a la gente que la descentralización tiene todos estos beneficios en abstracto […] Es mucho más poderoso simplemente decir, aquí hay 25.000 feeds personalizados que han creado desarrolladores externos, y usted puede elegir entre ellos”, dijo Graber.

Pero como Bluesky está en sus inicios, esta filosofía de moderación componible aún no se ha probado. Mientras tanto, empresas desde Cloudflare hasta Substack y Mastodon han calculado qué hacer cuando comunidades peligrosas se organizan en su plataforma.

“Digamos que alguien toma todo el código que has estado publicando y el protocolo AT y construye una nueva red. Llamémoslo NaziSky”, dijo Roth a Graber. «¿A qué te dedicas?»

Mastodon enfrentó un problema de este tipo en 2019, cuando la red social de extrema derecha Gab, amiga de los nazis, migró a sus servidores después de ser expulsada de GoDaddy. El fundador de Mastodon condenó a Gab, pero dijo en ese momento que la descentralización le impedía tomar medidas, por lo que los usuarios tuvieron que tomar el asunto en sus propias manos. Los servidores individuales de Mastodon bloquearon el servidor de Gab en masa, haciendo imposible que los miembros de Gab interactúen con otros en el sitio web. Pero aún así, Mastodon tiene que tener en cuenta que su código fuente abierto se utiliza para impulsar lo que llama una “plataforma supremacista blanca apenas velada (si es que lo hace).

«Esta es una de las ventajas y desventajas del código abierto, y es que hay muchos beneficios: todo es abierto, cualquiera puede colaborar, cualquiera puede contribuir, cualquiera puede usar el código», dijo Graber. «Eso también significa que las personas cuyos valores difieren drásticamente de los suyos pueden usar el código, tomarlo y ejecutarlo».

Al igual que lo que sucedió en Mastodon, Graber cree que la base de usuarios finalmente marcará la pauta de lo que se considera un comportamiento aceptable en la plataforma.

“Es un ecosistema pluralista. Hay muchos partidos por ahí, y cuando deciden unánimemente que algo está fuera de la ventana de Overton de las normas de comunicación, entonces eso se convierte en una especie de consenso social”, dijo Graber. «Si surge todo un universo paralelo, eso es posible con el software de código abierto, pero esas comunidades no necesariamente hablan si las normas son tan drásticamente divergentes».

Por otra parte, las plataformas sociales dominantes y centralizadas como Facebook y X han demostrado los peligros que pueden surgir cuando unas pocas personas están a cargo de estas decisiones de moderación, en lugar de comunidades enteras.

“Desafortunadamente, no se puede convertir a un nazi en no nazi. Pero podemos limitar el impacto de los nazis”, afirmó Masnick. “Limitamos su capacidad de causar estragos. Creo que eso conduce a un lugar mejor a largo plazo”.



Source link-48