Google amplía su programa de recompensas por errores para atacar ataques generativos de IA


Dado que las preocupaciones en torno a la IA generativa están siempre presentes, Google ha anunciado una expansión de su Programa de Recompensas por Vulnerabilidad (VRP) centrado en ataques específicos de IA y oportunidades de malicia. Como tal, la compañía publicó pautas actualizadas que detallan qué descubrimientos califican para recompensas y cuáles quedan fuera de alcance. Por ejemplo, descubrir una extracción de datos de entrenamiento que filtre información privada y sensible está dentro de su alcance, pero si solo muestra datos públicos y no sensibles, entonces no calificaría para una recompensa. El año pasado, Google dio a los investigadores de seguridad 12 millones de dólares para el descubrimiento de errores.

Google explicó que la IA presenta problemas de seguridad diferentes a los de otras tecnologías, como manipulación de modelos y sesgos injustos, lo que requiere nuevas orientaciones para reflejar esto. «Creemos que ampliar el VRP incentivará la investigación sobre la seguridad de la IA y sacará a la luz problemas potenciales que, en última instancia, harán que la IA sea más segura para todos», dijo la compañía en un comunicado. «También estamos ampliando nuestro trabajo de seguridad de código abierto para que la información sobre la seguridad de la cadena de suministro de IA sea universalmente detectable y verificable».

Las empresas de IA, incluida Google, se reunieron en la Casa Blanca a principios de este año, comprometiéndose a un mayor descubrimiento y conciencia de las vulnerabilidades de la IA. La expansión del VRP de la compañía también se produce antes de una orden ejecutiva «amplia» del presidente Biden, supuestamente programada para el lunes 30 de octubre, que crearía evaluaciones y requisitos estrictos para los modelos de IA antes de cualquier uso por parte de agencias gubernamentales.



Source link-47