La nueva función de seguridad de GitLab utiliza IA para explicar las vulnerabilidades a los desarrolladores


La plataforma de desarrolladores GitLab anunció hoy una nueva función de seguridad impulsada por IA que utiliza un modelo de lenguaje extenso para explicar las posibles vulnerabilidades a los desarrolladores, con planes de expandir esto para resolver automáticamente estas vulnerabilidades utilizando IA en el futuro.

A principios de este mes, la compañía anunció una nueva herramienta experimental que explica el código a un desarrollador, similar a la nueva función de seguridad que anunció GitLab, y una nueva función experimental que resume automáticamente los comentarios de los problemas. En este contexto, también vale la pena señalar que GitLab ya lanzó una herramienta de finalización de código, que ahora está disponible para los usuarios de GitLab Ultimate y Premium, y su función de revisores sugeridos basados ​​en ML el año pasado.

Créditos de imagen: GitLab

La nueva función «explicar esta vulnerabilidad» intentará ayudar a los equipos a encontrar la mejor manera de corregir una vulnerabilidad dentro del contexto de la base de código. Es este contexto el que marca la diferencia aquí, ya que la herramienta puede combinar la información básica sobre la vulnerabilidad con información específica del código del usuario. Esto debería hacer que sea más fácil y rápido remediar estos problemas.

La compañía llama a su filosofía general detrás de agregar funciones de IA «velocidad con barandillas», es decir, la combinación de código de IA y generación de pruebas respaldada por la plataforma DevSecOps de pila completa de la compañía para garantizar que todo lo que genera la IA se pueda implementar de manera segura.

GitLab también enfatizó que todas sus funciones de IA están diseñadas teniendo en cuenta la privacidad. «Si nosotros son conmovedor ynuestro intelectual propiedad, cual es códigowmi son solo yendo a ser enviando eso a a modelo eso es GitLabs o es dentro del GitLab nube arquitectura”, me dijo David DeSanto, CPO de GitLab. “Tél razón por la que eso es importante para nosotros, y esto se remonta a empresa DevSecOps – es eso nuestro clientes son fuertemente regulado. Nuestro clientes son generalmente muy seguridad y cumplimiento consciente, y nosotros sabía nosotros podría no construir a código sugerencias solución eso requerido a nosotros enviando él a a tercero-fiesta AI.» También señaló que GitLab no usará los datos privados de sus clientes para entrenar sus modelos.

DeSanto enfatizó que el objetivo general de GitLab para su iniciativa de IA es multiplicar por 10 la eficiencia, y no solo la eficiencia del desarrollador individual sino el ciclo de vida general del desarrollo. Como señaló acertadamente, incluso si pudiera multiplicar por 100 la productividad de un desarrollador, las ineficiencias posteriores al revisar ese código y ponerlo en producción podrían anularlo fácilmente.

Si desarrollo es 20% de el vida ciclo, incluso si nosotros hacer eso 50% más efectivo, eres no en realidad yendo a sentir eso”, dijo DeSanto.Ahora, si nosotros hacer el seguridad equipos, el operaciones equipos, el equipos de cumplimiento también más eficiente, entonces como un organización, estás yendo a ver él.»

La función «explicar este código», por ejemplo, ha resultado ser muy útil no solo para los desarrolladores, sino también para los equipos de control de calidad y seguridad, que ahora comprenden mejor lo que deben probar. Esa, seguramente, también fue la razón por la que GitLab lo amplió para explicar también las vulnerabilidades. A largo plazo, la idea aquí es crear funciones para ayudar a estos equipos a generar automáticamente pruebas unitarias y revisiones de seguridad, que luego se integrarían en la plataforma general de GitLab.

Según el reciente informe DevSecOps de GitLab, el 65 % de los desarrolladores ya utilizan IA y ML en sus esfuerzos de prueba o planean hacerlo en los próximos tres años. El 36 % de los equipos ya utilizan una herramienta de IA/ML para comprobar su código antes de que los revisores de código lo vean.

“Dadas las limitaciones de recursos que enfrentan los equipos de DevSecOps, la automatización y la inteligencia artificial se convierten en un recurso estratégico”, escribe Dave Steer de GitLab en el anuncio de hoy. “Nuestra plataforma DevSecOps ayuda a los equipos a llenar brechas críticas mientras aplica políticas automáticamente, aplica marcos de cumplimiento, realiza pruebas de seguridad utilizando las capacidades de automatización de GitLab y proporciona recomendaciones asistidas por IA, lo que libera recursos”.



Source link-48