El Pentágono utilizó la IA desarrollada por el Proyecto Maven para identificar objetivos de ataques aéreos


El ejército estadounidense ha intensificado su uso de herramientas de inteligencia artificial después de los ataques de Hamás contra Israel el 7 de octubre, según un nuevo informe de Bloomberg. Schuyler Moore, director de tecnología del Comando Central de EE. UU., dijo a la organización de noticias que los algoritmos de aprendizaje automático ayudaron al Pentágono a identificar objetivos para más de 85 ataques aéreos en el Medio Oriente este mes.

Bombarderos y aviones de combate estadounidenses llevaron a cabo esos ataques aéreos contra siete instalaciones en Irak y Siria el 2 de febrero, destruyendo completamente o al menos dañando cohetes, misiles, instalaciones de almacenamiento de drones y centros de operaciones de la milicia. El Pentágono también había utilizado sistemas de inteligencia artificial para encontrar lanzadores de cohetes en Yemen y combatientes de superficie en el Mar Rojo, que luego había destruido mediante múltiples ataques aéreos en el mismo mes.

Los algoritmos de aprendizaje automático utilizados para limitar los objetivos se desarrollaron en el marco del Proyecto Maven, la ya desaparecida asociación de Google con el Pentágono. Para ser precisos, el proyecto implicó el uso de la tecnología de inteligencia artificial de Google por parte del ejército estadounidense para analizar imágenes de drones y marcar imágenes para su posterior revisión humana. Causó un gran revuelo entre los empleados de Google: miles habían solicitado a la empresa que pusiera fin a su asociación con el Pentágono, y algunos incluso renunciaron por completo a su participación. Unos meses después de aquella protesta de los empleados, Google decidió no renovar su contrato, que había finalizado en 2019.

Moore dijo Bloomberg que las fuerzas estadounidenses en Medio Oriente no han dejado de experimentar con el uso de algoritmos para identificar objetivos potenciales utilizando imágenes de satélite o drones, incluso después de que Google puso fin a su participación. El ejército ha estado probando su uso durante el año pasado en ejercicios digitales, dijo, pero comenzó a utilizar algoritmos de focalización en operaciones reales después de los ataques de Hamás del 7 de octubre. Sin embargo, aclaró que los trabajadores humanos verificaban y verificaban constantemente las recomendaciones de objetivos de los sistemas de IA. El personal humano también fue quien propuso cómo escenificar los ataques y qué armas utilizar. «Nunca hay un algoritmo que simplemente se ejecuta, llega a una conclusión y luego pasa al siguiente paso», dijo. «Cada paso que involucra a la IA tiene un control humano al final».



Source link-47