{"id":860082,"date":"2023-10-28T10:41:17","date_gmt":"2023-10-28T10:41:17","guid":{"rendered":"https:\/\/magazineoffice.com\/google-amplia-el-programa-bug-bounty-para-incluir-ataques-generativos-de-ia\/"},"modified":"2023-10-28T10:41:21","modified_gmt":"2023-10-28T10:41:21","slug":"google-amplia-el-programa-bug-bounty-para-incluir-ataques-generativos-de-ia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/google-amplia-el-programa-bug-bounty-para-incluir-ataques-generativos-de-ia\/","title":{"rendered":"Google ampl\u00eda el programa Bug Bounty para incluir ataques generativos de IA"},"content":{"rendered":"


\n<\/p>\n

\n

En medio del r\u00e1pido crecimiento de la inteligencia artificial, Google est\u00e1 ampliando su programa de recompensas por errores para incluir problemas de seguridad generativos espec\u00edficos de la IA.<\/p>\n

El Programa de recompensas por vulnerabilidad (VRP) de la compa\u00f1\u00eda ofrece recompensas monetarias para quienes encuentren e informen errores en sus productos. Ampliarse para incluir amenazas de IA \u00abincentivar\u00e1 la investigaci\u00f3n sobre la seguridad de la IA y sacar\u00e1 a la luz problemas potenciales que, en \u00faltima instancia, har\u00e1n que la IA sea m\u00e1s segura para todos\u00bb, afirman Laurie Richardson, vicepresidenta de Confianza y Seguridad de Google, y Royal Hansen, vicepresidente de Privacidad. , Ingenier\u00eda de Seguridad y Vigilancia.<\/p>\n

El equipo de ingenier\u00eda de Google public\u00f3 una lista de escenarios de ataque que son elegibles para recibir recompensas de VRP. En los ataques relacionados con avisos, por ejemplo, Google considerar\u00e1 un ataque que ser\u00eda \u00abinvisible para las v\u00edctimas y cambiar\u00eda el estado de la cuenta de la v\u00edctima o cualquiera de sus activos\u00bb. Pero utilizar un producto para generar respuestas incorrectas (como hacer que \u00abalucine\u00bb) est\u00e1 fuera de alcance.<\/p>\n

Otras opciones de categor\u00eda incluyen extracci\u00f3n de datos de entrenamiento, manipulaci\u00f3n de modelos, perturbaci\u00f3n adversaria y robo\/exfiltraci\u00f3n de modelos. El a\u00f1o pasado, Google pag\u00f3 12 millones de d\u00f3lares en recompensas a sus investigadores de seguridad que buscaban errores. Los detalles sobre cu\u00e1nto paga y por qu\u00e9 est\u00e1n disponibles en su sitio web de cazadores de errores, que es donde los investigadores pueden enviar sus hallazgos.<\/p>\n

Como se\u00f1alan Richardson y Hansen, Google se encuentra entre varias empresas tecnol\u00f3gicas importantes que firmaron un compromiso este verano para que expertos independientes prueben la seguridad de sus programas de inteligencia artificial antes de su lanzamiento p\u00fablico. Tambi\u00e9n desarrollar\u00e1n formas de marcar esencialmente el contenido generado por IA para evitar que el p\u00fablico caiga en deepfakes y otra informaci\u00f3n err\u00f3nea creada por IA.<\/p>\n

\n
\n

Recomendado por nuestros editores<\/h3>\n<\/div>\n<\/div>\n

Se espera que el lunes la administraci\u00f3n Biden publique una orden ejecutiva que imponga est\u00e1ndares a las empresas que buscan vender sistemas de inteligencia artificial a clientes gubernamentales. <\/p>\n

\n
\n

\u00bfTe gusta lo que est\u00e1s leyendo?<\/h4>\n

Matricularse en Vigilancia de seguridad<\/strong> bolet\u00edn informativo con nuestras principales historias de privacidad y seguridad enviado directamente a su bandeja de entrada.<\/p>\n

Este bolet\u00edn puede contener publicidad, ofertas o enlaces de afiliados. La suscripci\u00f3n a un bolet\u00edn indica su consentimiento a nuestros T\u00e9rminos de uso y Pol\u00edtica de privacidad. Puede darse de baja de los boletines en cualquier momento.<\/p>\n<\/p><\/div>\n<\/div>\n<\/div>\n