Meta y Snap son los últimos en recibir una solicitud de la UE de información sobre seguridad infantil, mientras el bloque busca una transparencia «sin precedentes»


Meta y Snap son las últimas empresas tecnológicas en recibir solicitudes formales de información (RFI) de la Comisión Europea sobre las medidas que están tomando para proteger a los menores en sus plataformas de acuerdo con los requisitos establecidos en la Ley de Servicios Digitales (DSA) del bloque.

Ayer, la Comisión envió solicitudes de información similares a TikTok y YouTube, también centradas en la protección infantil. La seguridad de los menores se ha convertido rápidamente en un área prioritaria para la supervisión de la DSA de la UE.

La Comisión designó en abril 19 de las llamadas plataformas en línea muy grandes (VLOP) y motores de búsqueda en línea muy grandes (VLOSE), entre ellas las redes sociales de Meta, Facebook e Instagram, y la aplicación de mensajería Snapchat de Snap.

Si bien el régimen completo no estará en funcionamiento hasta febrero del próximo año, cuando comience el cumplimiento para servicios más pequeños, ya se espera que las plataformas más grandes cumplan con DSA a partir de finales de agosto.

El último RFI solicita más detalles a Meta y Snap sobre cómo están cumpliendo con las obligaciones relacionadas con las evaluaciones de riesgos y las medidas de mitigación para proteger a los menores en línea, con especial referencia a los riesgos para la salud física y mental de los niños.

Las dos empresas tienen hasta el 1 de diciembre para responder a la última RFI.

Al ser contactado para comentar, un portavoz de Snap dijo:

Hemos recibido la RFI y responderemos a la Comisión a su debido tiempo. Compartimos los objetivos de la UE y DSA para ayudar a garantizar que las plataformas digitales proporcionen a sus usuarios una experiencia apropiada, segura y positiva para su edad.

Meta también nos envió un comunicado:

Estamos firmemente comprometidos a brindar a los adolescentes experiencias en línea seguras y positivas y ya hemos introducido más de 30 herramientas para apoyar a los adolescentes y sus familias. Estas incluyen herramientas de supervisión para que los padres decidan cuándo y durante cuánto tiempo sus hijos adolescentes usan Instagram, tecnología de verificación de edad que ayuda a garantizar que los adolescentes tengan experiencias apropiadas para su edad y herramientas como Quiet Mode y Take A Break que ayudan a los adolescentes a administrar su tiempo frente a la pantalla. Esperamos poder proporcionar más detalles sobre este trabajo a la Comisión Europea.

No es el primer DSA RFI Meta que recibe; la Comisión también le pidió recientemente más detalles sobre lo que está haciendo para mitigar el contenido ilegal y los riesgos de desinformación relacionados con la guerra entre Israel y Hamas; y para obtener más detalles sobre las medidas que se están tomando para garantizar la seguridad electoral.

La guerra en Medio Oriente y la seguridad electoral rápidamente surgieron como otras áreas prioritarias para la aplicación de la DSA por parte de la Comisión, junto con la protección de los niños.

En los últimos días, la UE también ha emitido una solicitud de información sobre el gigante chino del comercio electrónico AliExpress, buscando más información sobre medidas para cumplir con las obligaciones relacionadas con la protección del consumidor, especialmente en áreas como productos ilegales como medicamentos falsos. Por lo tanto, los riesgos relacionados con la venta de mercancías peligrosas en línea parecen ser otro de los primeros focos de atención.

Áreas prioritarias

La Comisión dice que su enfoque inicial para hacer cumplir la DSA en los VLOP/VLOSE se “explica por sí mismo”, centrándose en áreas donde ve un imperativo para que el marco emblemático de transparencia y rendición de cuentas entregue resultados y rápidamente.

“Cuando eres un nuevo regulador digital, como lo somos nosotros, debes comenzar tu trabajo identificando áreas prioritarias”, dijo un funcionario de la Comisión durante una sesión informativa con periodistas. “Obviamente, en el contexto del conflicto Hamás-Israel (contenido ilegal, antisemitismo, racismo), esa es un área importante. Teníamos que estar presentes para recordarles a las plataformas su deber de estar preparados con sus sistemas para poder eliminar rápidamente el contenido ilegal.

“Imagínese, ya sabe, posibles filmaciones en vivo de lo que podría suceder o podría haber sucedido con los rehenes, por lo que realmente tuvimos que involucrarnos con ellos desde el principio. También ser un socio para abordar la desinformación allí”.

Mientras que otra “área importante”, en la que la Comisión ha estado actuando particularmente esta semana, es la protección infantil, dada la “gran promesa” de la regulación de mejorar la experiencia en línea de los menores. Las primeras plataformas de evaluación de riesgos que han producido en relación con la seguridad infantil muestran margen de mejora, según la Comisión.

Las divulgaciones en el primer conjunto de informes de transparencia que la DSA exige a los VLOP y VLOSE, que se han publicado en las últimas semanas antes de la fecha límite a principios de este mes, son «una mezcla», dijo también un funcionario de la UE.

La Comisión no ha creado un depósito centralizado donde la gente pueda acceder fácilmente a todos los informes. Pero están disponibles en los sitios propios de las plataformas. (Los informes de transparencia DSA de Meta para Facebook e Instagram se pueden descargar desde aquí, por ejemplo; mientras que el informe de Snap está aquí).

Las divulgaciones incluyen métricas clave como usuarios activos por Estado miembro de la UE. Los informes también contienen información sobre los recursos de moderación de contenido de las plataformas, incluidos detalles de las capacidades lingüísticas del personal de moderación de contenido.

Las plataformas que no cuentan con un número adecuado de moderadores de contenido que dominen todos los idiomas hablados en la UE han sido una manzana de la discordia durante mucho tiempo para el bloque. Y durante la sesión informativa de hoy, un funcionario de la Comisión lo describió como una “lucha constante” con las plataformas, incluidas las firmadas en el Código de prácticas sobre desinformación de la UE, que es anterior a la DSA en unos cinco años.

El funcionario continuó diciendo que es poco probable que la UE termine exigiendo que los VLOP/VLOSE contraten un número determinado de moderadores por idioma de Estado miembro. Pero sugirieron que los informes de transparencia deberían funcionar para aplicar “presión de grupo”, por ejemplo, mostrando algunas diferencias “enormes” en los recursos relativos.

Durante la sesión informativa, la Comisión destacó algunas comparaciones que ya ha extraído de los primeros conjuntos de informes, incluido un gráfico que muestra el número de plataformas de moderadores de contenido de la UE que han informado, lo que coloca a YouTube a la cabeza (con 16.974); seguido de Google Play (7.319); y TikTok (6.125).

Mientras que Meta informó sólo 1.362 moderadores de contenido de la UE, lo que es menos que Snap (1.545); o Elon Musk era propietario de X/Twitter (2.294).

Aun así, los funcionarios de la Comisión advirtieron que los informes iniciales no están estandarizados. (El informe de Snap, por ejemplo, señala que su equipo de moderación de contenido «opera en todo el mundo», y su desglose de los recursos de moderación humana indica «las especialidades lingüísticas de los moderadores». Pero advierte que al señalar que algunos moderadores se especializan en varios idiomas. , presumiblemente, algunos de sus “moderadores de la UE” podrían no moderar exclusivamente contenido relacionado con los usuarios de la UE).

«A pesar de la transparencia, aún queda trabajo técnico por hacer, porque queremos estar seguros de que todos tengan el mismo concepto de lo que es un moderador de contenidos», señaló un funcionario de la Comisión. “No es necesariamente lo mismo para todas las plataformas. ¿Qué significa hablar un idioma? Suena estúpido, pero en realidad es algo que tenemos que investigar con un poco más de detalle”.

Otro elemento que dijeron que están interesados ​​en comprender es «cuál es el estado estable de los moderadores de contenido», es decir, si hay un nivel permanente o si, por ejemplo, se asignan recursos para una elección o un evento de crisis, y agregaron que esto es algo que la Comisión está investigando en estos momentos.

Sobre X, la Comisión también dijo que es demasiado pronto para hacer cualquier declaración sobre la efectividad (o no) del enfoque colaborativo de la plataforma para la moderación de contenido (también conocido como la función de Notas de la comunidad de X).

Pero los funcionarios de la UE dijeron que X todavía tiene algunos equipos de integridad electoral con los que están interactuando para aprender más sobre su enfoque para defender sus políticas en esta área.

Transparencia sin precedentes

Lo que está claro es que el primer conjunto de informes de transparencia de DSA de las plataformas ha abierto nuevas preguntas que, a su vez, han desencadenado una ola de RFI a medida que la UE busca lograr la resolución de las divulgaciones que recibe de las grandes empresas tecnológicas. De modo que la avalancha de solicitudes de información refleja lagunas en las primeras revelaciones a medida que el régimen despega.

Esto puede deberse, en parte, a que los informes de transparencia aún no están armonizados. Pero eso va a cambiar ya que la Comisión confirmó que, probablemente a principios del próximo año, presentará una ley de implementación (también conocida como legislación secundaria) que incluirá plantillas de informes para estas divulgaciones.

Eso sugiere que, en última instancia, podríamos esperar que se envíen menos RFI a las plataformas en el futuro, a medida que la información que están obligadas a proporcionar se vuelva más estandarizada y los datos fluyan de manera más constante y predecible.

Pero, claramente, hará falta tiempo para que el régimen se asiente y tenga el impacto que la UE desea: obligar a las grandes tecnologías a tener una relación más responsable con los usuarios y la sociedad en general.

Mientras tanto, las RFI son una señal de que las ruedas del DSA están girando.

La Comisión desea que la vean ejerciendo activamente sus poderes para obtener datos que, según afirma, las plataformas nunca antes habían divulgado públicamente, como los recursos de moderación de contenido por mercado; o datos sobre la precisión de las herramientas de moderación de IA. Por lo tanto, las plataformas deberían esperar recibir muchas más solicitudes de este tipo en los próximos meses (y años) a medida que los reguladores profundicen su supervisión y traten de verificar si los sistemas VLOP/VLOSE creados en respuesta al nuevo riesgo regulatorio son realmente “eficaces” o no.

La esperanza de la Comisión para la DSA es que, con el tiempo, abra una ventana “sin precedentes” sobre cómo operan los gigantes tecnológicos. O marcar el comienzo de una “dimensión completamente nueva de transparencia”, como lo expresó hoy uno de los funcionarios. Y ese reinicio reconfigurará para mejor el funcionamiento de las plataformas, les guste o no.

«IEs importante señalar que ya se están produciendo cambios”, sugirió hoy un funcionario de la Comisión. “Si nos fijamos en toda el área de moderación de contenidos, ahora la tenemos en blanco y negro, con los informes de transparencia… y esa es una presión de grupo que, por supuesto, seguiremos aplicando. Pero también el público puede seguir ejerciendo presión y preguntarse, espere un momento, ¿por qué X no tiene la misma cantidad de moderadores de contenido que otros, por ejemplo?

También hoy, funcionarios de la UE confirmaron que aún no ha abierto ninguna investigación formal de la DSA. (Nuevamente, las RFI también son un paso previo secuencial y necesario a cualquier posible investigación futura que se abra en las próximas semanas y meses).

Si bien la aplicación de la ley (en términos de multas u otras sanciones por infracciones confirmadas) no puede entrar en vigor hasta la próxima primavera, ya que todo el régimen debe estar operativo antes de que puedan llevarse a cabo procedimientos formales de aplicación de la ley. Así pues, los próximos meses de la DSA estarán dominados por la recopilación de información; y (espera la UE) comenzar a mostrar el poder de la transparencia para dar forma a una narrativa nueva y más cuantificada sobre las grandes tecnologías.

Una vez más, esto sugiere que ya se están viendo cambios positivos en este frente. Entonces, en lugar de las habituales “respuestas genéricas y números absolutos” que los gigantes tecnológicos suelen sacar a relucir en los informes voluntarios (como el Código de Desinformación antes mencionado), las RFI, en virtud de la DSA legalmente vinculante, están extrayendo “datos e información mucho más utilizables”. según un funcionario de la Comisión.

“Si vemos que no estamos obteniendo las respuestas correctas, [we might] abrir una investigación, una investigación formal; podríamos llegar a medidas provisionales; podríamos llegar a acuerdos de cumplimiento”, señaló otro funcionario, describiendo el proceso como “toda una avalancha de pasos individuales, y sólo al final estaría la posible decisión sobre sanciones”. Pero también enfatizaron que la transparencia en sí misma puede ser un detonante del cambio, señalando el poder de la “presión de grupo” y la amenaza del “riesgo reputacional” para impulsar la reforma.



Source link-48