Google amplía el programa Bug Bounty para incluir ataques generativos de IA


En medio del rápido crecimiento de la inteligencia artificial, Google está ampliando su programa de recompensas por errores para incluir problemas de seguridad generativos específicos de la IA.

El Programa de recompensas por vulnerabilidad (VRP) de la compañía ofrece recompensas monetarias para quienes encuentren e informen errores en sus productos. Ampliarse para incluir amenazas de IA «incentivará la investigación sobre la seguridad de la IA y sacará a la luz problemas potenciales que, en última instancia, harán que la IA sea más segura para todos», afirman Laurie Richardson, vicepresidenta de Confianza y Seguridad de Google, y Royal Hansen, vicepresidente de Privacidad. , Ingeniería de Seguridad y Vigilancia.

El equipo de ingeniería de Google publicó una lista de escenarios de ataque que son elegibles para recibir recompensas de VRP. En los ataques relacionados con avisos, por ejemplo, Google considerará un ataque que sería «invisible para las víctimas y cambiaría el estado de la cuenta de la víctima o cualquiera de sus activos». Pero utilizar un producto para generar respuestas incorrectas (como hacer que «alucine») está fuera de alcance.

Otras opciones de categoría incluyen extracción de datos de entrenamiento, manipulación de modelos, perturbación adversaria y robo/exfiltración de modelos. El año pasado, Google pagó 12 millones de dólares en recompensas a sus investigadores de seguridad que buscaban errores. Los detalles sobre cuánto paga y por qué están disponibles en su sitio web de cazadores de errores, que es donde los investigadores pueden enviar sus hallazgos.

Como señalan Richardson y Hansen, Google se encuentra entre varias empresas tecnológicas importantes que firmaron un compromiso este verano para que expertos independientes prueben la seguridad de sus programas de inteligencia artificial antes de su lanzamiento público. También desarrollarán formas de marcar esencialmente el contenido generado por IA para evitar que el público caiga en deepfakes y otra información errónea creada por IA.

Recomendado por nuestros editores

Se espera que el lunes la administración Biden publique una orden ejecutiva que imponga estándares a las empresas que buscan vender sistemas de inteligencia artificial a clientes gubernamentales.

¿Te gusta lo que estás leyendo?

Matricularse en Vigilancia de seguridad boletín informativo con nuestras principales historias de privacidad y seguridad enviado directamente a su bandeja de entrada.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. La suscripción a un boletín indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38