Un informe de Ofcom encuentra que 1 de cada 5 resultados de búsqueda de contenido dañino fueron ‘puertas de entrada con un solo clic’ hacia una mayor toxicidad


Hazte a un lado, TikTok, Ofcom, el regulador del Reino Unido que aplica la ahora oficial Ley de Seguridad en Línea, se está preparando para evaluar un objetivo aún mayor: motores de búsqueda como Google y Bing y el papel que desempeñan al presentar las autolesiones, el suicidio y otros contenido dañino con solo hacer clic en un botón, particularmente para usuarios menores de edad.

Un informe encargado por Ofcom y elaborado por el Network Contagion Research Institute encontró que los principales motores de búsqueda, incluidos Google, Bing de Microsoft, DuckDuckGo, Yahoo y AOL, se convierten en «puertas de entrada con un solo clic» a dicho contenido al facilitar un acceso fácil y rápido a las páginas web. imágenes y videos, con uno de cada cinco resultados de búsqueda relacionados con términos básicos de autolesión que enlazan con más contenido dañino.

La investigación es oportuna y significativa porque gran parte de la atención en torno al contenido dañino en línea en los últimos tiempos se ha centrado en la influencia y el uso de sitios de redes sociales amurallados como Instagram y TikTok. Esta nueva investigación es, significativamente, un primer paso para ayudar a Ofcom a comprender y recopilar evidencia de si existe una amenaza potencial mucho mayor, con sitios abiertos como Google.com que atraen más de 80 mil millones de visitas por mes, en comparación con los activos mensuales de TikTok. usuarios de alrededor de 1.700 millones.

«Los motores de búsqueda son a menudo el punto de partida de la experiencia en línea de las personas, y nos preocupa que puedan actuar como puertas de entrada con un solo clic a contenidos de autolesión gravemente dañinos», dijo Almudena Lara, directora de Desarrollo de Políticas de Seguridad en Línea de Ofcom, en un comunicado. . «Los servicios de búsqueda deben comprender sus riesgos potenciales y la eficacia de sus medidas de protección, en particular para mantener a los niños seguros en línea, antes de nuestra amplia consulta prevista para la primavera».

Los investigadores analizaron unos 37.000 enlaces de resultados en esos cinco motores de búsqueda para el informe, dijo Ofcom. Utilizando términos de búsqueda tanto comunes como más crípticos (crípticos para tratar de evadir el control básico), realizaron búsquedas intencionalmente desactivando las herramientas de control parental de “búsqueda segura”, para imitar las formas más básicas en que las personas podrían interactuar con los motores de búsqueda, así como las peores. -escenarios de casos.

Los resultados fueron, en muchos sentidos, tan malos y condenatorios como se podría imaginar.

No sólo el 22% de los resultados de búsqueda produjo enlaces de un solo clic a contenido dañino (incluidas instrucciones para diversas formas de autolesión), sino que ese contenido representó un total del 19% de los enlaces principales en los resultados (y 22 % de enlaces en las primeras páginas de resultados).

Los investigadores encontraron que las búsquedas de imágenes fueron particularmente atroces, ya que un 50% de ellas arrojaban contenido dañino para las búsquedas, seguido de páginas web con un 28% y videos con un 22%. El informe concluye que una de las razones por las que es posible que los motores de búsqueda no detecten mejor algunas de estas imágenes es porque los algoritmos pueden confundir las imágenes de autolesión con medios médicos y otros medios legítimos.

Los términos de búsqueda crípticos también fueron mejores para evadir los algoritmos de detección: esto hizo que fuera seis veces más probable que un usuario pudiera llegar a contenido dañino.

Una cosa que no se aborda en el informe, pero que probablemente se convierta en un problema mayor con el tiempo, es el papel que podrían desempeñar las búsquedas generativas de IA en este espacio. Hasta ahora, parece que se están implementando más controles para evitar que plataformas como ChatGPT sean utilizadas indebidamente con fines tóxicos. La pregunta será si los usuarios descubrirán cómo jugar con eso y a qué podría conducir eso.

“Ya estamos trabajando para construir una comprensión profunda de las oportunidades y riesgos de las tecnologías nuevas y emergentes, para que la innovación pueda prosperar, mientras se protege la seguridad de los usuarios. Es probable que algunas aplicaciones de IA generativa estén dentro del alcance de la Ley de Seguridad en Línea y esperaríamos que los servicios evalúen los riesgos relacionados con su uso al llevar a cabo su evaluación de riesgos”, dijo un portavoz de Ofcom a TechCrunch.

No todo es una pesadilla: alrededor del 22% de los resultados de búsqueda también fueron calificados como útiles de manera positiva.

Es posible que Ofcom esté utilizando el informe para tener una mejor idea del problema en cuestión, pero también es una señal temprana para los proveedores de motores de búsqueda de en qué deberán estar preparados para trabajar. Ofcom ya ha sido claro al decir que los niños serán su primer objetivo a la hora de hacer cumplir el proyecto de ley de seguridad en línea. En la primavera, Ofcom planea abrir una consulta sobre sus Códigos de Prácticas de Protección de Niños, cuyo objetivo es establecer «las medidas prácticas que los servicios de búsqueda pueden tomar para proteger adecuadamente a los niños».

Eso incluirá tomar medidas para minimizar las posibilidades de que los niños encuentren contenido dañino sobre temas delicados como el suicidio o los trastornos alimentarios en todo Internet, incluidos los motores de búsqueda.

«Las empresas tecnológicas que no se tomen esto en serio pueden esperar que Ofcom tome las medidas adecuadas contra ellas en el futuro», dijo el portavoz de Ofcom. Eso incluirá multas (que Ofcom dijo que usaría sólo como último recurso) y, en los peores escenarios, órdenes judiciales que exijan a los ISP bloquear el acceso a servicios que no cumplan con las reglas. Potencialmente, también podría haber responsabilidad penal para los ejecutivos que supervisan servicios que violan las reglas.

Hasta ahora, Google ha discrepado con algunos de los hallazgos del informe y con la forma en que caracteriza sus esfuerzos, afirmando que sus controles parentales hacen gran parte del trabajo importante que invalida algunos de estos hallazgos.

«Estamos totalmente comprometidos a mantener a las personas seguras en línea», dijo un portavoz en un comunicado a TechCrunch. “El estudio de Ofcom no refleja las salvaguardas que tenemos implementadas en la Búsqueda de Google y hace referencia a términos que rara vez se utilizan en la Búsqueda. Nuestra función SafeSearch, que filtra resultados de búsqueda dañinos e impactantes, está activada de forma predeterminada para usuarios menores de 18 años, mientras que la configuración de desenfoque de SafeSearch (una función que difumina imágenes explícitas, como contenido de autolesión) está activada de forma predeterminada para todas las cuentas. También trabajamos estrechamente con organizaciones expertas y organizaciones benéficas para garantizar que cuando las personas accedan a la Búsqueda de Google en busca de información sobre suicidio, autolesiones o trastornos alimentarios, aparezcan paneles de recursos de apoyo en crisis en la parte superior de la página”.

Microsoft y DuckDuckGo hasta ahora no han respondido a una solicitud de comentarios.



Source link-48