Meta compartirá datos con investigadores que estudian el bienestar en línea


Antes de una importante audiencia en el Congreso sobre la seguridad de los niños en línea, Meta anunció una colaboración con el Centro de Ciencia Abierta, una organización sin fines de lucro dedicada a la transparencia en la investigación académica. Como parte de este programa piloto, Meta dice que compartirá “datos de redes sociales que preservan la privacidad” con investigadores académicos selectos que estudian el bienestar.

“En Meta queremos hacer nuestra parte para contribuir a que la comunidad científica comprenda cómo diferentes factores pueden o no relacionarse con el bienestar de las personas. Estamos comprometidos a hacer esto de una manera que respete la privacidad de las personas que usan nuestra aplicación”, dijo Curtiss Cobb, vicepresidente de investigación de Meta, en un comunicado de prensa.

Los académicos han presionado durante años para que las plataformas compartan más datos con ellos para sus investigaciones, pero a medida que el impacto de las redes sociales en la salud mental se convierte en una preocupación cada vez más urgente en el Congreso, estos esfuerzos se han acelerado. En noviembre, Meta amplió el acceso de los investigadores a los datos a través de un producto de transparencia llamado Meta Content Library, que hizo que los datos ya disponibles, como publicaciones públicas, comentarios y reacciones, fueran más fáciles de analizar a escala.

El miércoles, el fundador y director ejecutivo de Meta, Mark Zuckerberg, testificará ante el Congreso junto con los directores ejecutivos de Discord, Snap, TikTok y X como parte de una audiencia sobre la seguridad de los niños en línea. Además de molestar a los académicos antes de la audiencia, Meta también anunció la semana pasada que está implementando nuevas restricciones de mensajería en Facebook e Instagram, que impedirán que los usuarios menores de 16 años reciban mensajes de adultos a quienes no siguen. Los tutores también podrán aprobar o rechazar los cambios de los adolescentes en la configuración de privacidad predeterminada. Meta también ha tomado algunas medidas para limitar el acceso de los adolescentes a contenidos sobre autolesiones, suicidio y trastornos alimentarios.

Pero estos cambios se producen en medio de un escrutinio cada vez mayor. A principios de este mes, documentos no redactados que forman parte de una demanda en curso mostraban la “renuencia histórica” de Meta a proteger a los niños en sus plataformas.

Otras plataformas sociales también han estado adoptando nuevas iniciativas de seguridad en el período previo a la audiencia del miércoles. X anunció que contratará 100 moderadores en Austin, Texas, para un centro de “Confianza y Seguridad”; Según Axios, la directora ejecutiva Linda Yaccarino también se ha reunido con miembros bipartidistas del Congreso para discutir cómo X está manejando la explotación sexual infantil en la plataforma. Mientras tanto, la semana pasada, X enfrentó un problema de moderación de contenido de alto perfil cuando imágenes pornográficas deepfake no consensuadas de Taylor Swift se volvieron virales. La preocupación pública por las imágenes abusivas llegó incluso a la Casa Blanca, donde la secretaria de prensa Karine Jean-Pierre pidió al Congreso que tomara medidas legislativas.



Source link-48