Los planes de IA de Google ahora incluyen la ciberseguridad


A medida que la gente intenta encontrar más usos para la IA generativa que tengan menos que ver con hacer una foto falsa y más bien sean realmente útiles, Google planea dirigir la IA a la ciberseguridad y hacer que los informes de amenazas sean más fáciles de leer.

En una publicación de blogGoogle escribe que su nuevo producto de ciberseguridad, Google Threat Intelligence, combinará el trabajo de su unidad de ciberseguridad Mandiant y la inteligencia de amenazas VirusTotal con el modelo Gemini AI.

El nuevo producto utiliza el modelo de lenguaje grande Gemini 1.5 Pro, que según Google reduce el tiempo necesario para aplicar ingeniería inversa a los ataques de malware. La compañía afirma que Gemini 1.5 Pro, lanzado en febrero, tardó sólo 34 segundos en analizar el código de el virus WannaCry (el ataque de ransomware de 2017 que paralizó a hospitales, empresas y otras organizaciones en todo el mundo) e identificar un interruptor de apagado. Eso es impresionante, pero no sorprendente, dada la habilidad de los LLM para leer y escribir código.

Pero otro posible uso de Gemini en el espacio de amenazas es resumir los informes de amenazas en lenguaje natural dentro de Threat Intelligence para que las empresas puedan evaluar cómo los ataques potenciales pueden afectarlas o, en otras palabras, para que las empresas no reaccionen de forma exagerada o insuficiente ante las amenazas.

Google dice que Threat Intelligence también tiene una vasta red de información para monitorear amenazas potenciales antes de que ocurra un ataque. Permite a los usuarios ver una imagen más amplia del panorama de la ciberseguridad y priorizar en qué centrarse. Mandiant proporciona expertos humanos que monitorean grupos potencialmente maliciosos y consultores que trabajan con empresas para bloquear ataques. La comunidad de VirusTotal también publica periódicamente indicadores de amenazas.

La compañía también planea utilizar los expertos de Mandiant para evaluar las vulnerabilidades de seguridad en torno a los proyectos de IA. A través de Marco seguro de IA de Google, Mandiant probará las defensas de los modelos de IA y ayudará en los esfuerzos de formación de equipos rojos. Si bien los modelos de IA pueden ayudar a resumir las amenazas y aplicar ingeniería inversa a los ataques de malware, los propios modelos a veces pueden convertirse en presa de actores maliciosos. Estas amenazas a veces incluyen “intoxicación de datos” lo que agrega código incorrecto a los datos que los modelos de IA raspan para que los modelos no puedan responder a indicaciones específicas.

Google, por supuesto, no es la única empresa que combina la IA con la ciberseguridad. Microsoft lanzó Copilot para la seguridad , impulsado por GPT-4 y el modelo de inteligencia artificial específico de ciberseguridad de Microsoft, y permite a los profesionales de la ciberseguridad hacer preguntas sobre las amenazas. Queda por ver si alguno de ellos es realmente un buen caso de uso para la IA generativa, pero es bueno ver que se usa para algo más. fotos de un papa arrogante.



Source link-37