Así es como los extremistas violentos están explotando las herramientas de IA generativa


«Vamos a asociarnos con Microsoft para descubrir si hay formas de utilizar nuestro archivo de material para crear una especie de sistema de detección de IA gen. para contrarrestar la amenaza emergente de que la IA gen. se utilice para contenido terrorista a escala». dice Hadley. «Confiamos en que la IA gen. se puede utilizar para defenderse contra usos hostiles de la IA gen.».

La asociación se anunció hoy, en vísperas de la Cumbre de Líderes del Llamado de Christchurch, un movimiento diseñado para erradicar el terrorismo y el contenido extremista de Internet, que se celebrará en París.

«El uso de plataformas digitales para difundir contenido extremista violento es un tema urgente con consecuencias en el mundo real», dijo Brad Smith, vicepresidente y presidente de Microsoft en un comunicado. «Al combinar las capacidades de Tech Against Terrorism con la IA, esperamos ayudar a crear un mundo más seguro tanto en línea como fuera de línea».

Si bien empresas como Microsoft, Google y Facebook tienen sus propias divisiones de investigación de IA y probablemente ya estén desplegando sus propios recursos para combatir este problema, la nueva iniciativa en última instancia ayudará a aquellas empresas que no pueden combatir estos esfuerzos por sí solas.

«Esto será particularmente importante para las plataformas más pequeñas que no tienen sus propios centros de investigación de IA», afirma Hadley. «Incluso ahora, con las bases de datos hash, las plataformas más pequeñas pueden verse abrumadas por este contenido».

La amenaza del contenido generativo de IA no se limita a los grupos extremistas. El mes pasado, Internet Watch Foundation, una organización sin fines de lucro con sede en el Reino Unido que trabaja para erradicar el contenido de explotación infantil de Internet, publicó un informe que detalla la creciente presencia de material de abuso sexual infantil (CSAM) creado por herramientas de inteligencia artificial en la web oscura.

Los investigadores encontraron más de 20.000 imágenes generadas por IA publicadas en un foro CSAM de la web oscura en el transcurso de solo un mes, y los investigadores de la IWF consideraron que 11.108 de estas imágenes tenían más probabilidades de ser criminales. Como escribieron los investigadores de la IWF en su informe, «Estas imágenes de IA pueden ser tan convincentes que son indistinguibles de las imágenes reales».



Source link-46