El Departamento de Seguridad Nacional quiere usar inteligencia artificial para controlar la carga y encontrar drogas


El auge de ChatGPT está haciendo que todos exploren el uso de IA, incluido el Departamento de Seguridad Nacional.

El viernes, el secretario del DHS, Alejandro Mayorkas, anunció(Se abre en una nueva ventana) está creando un grupo de trabajo que se centrará en el uso de programas de inteligencia artificial para reforzar la seguridad nacional y, al mismo tiempo, buscará formas de defender a los EE. UU. contra tales tecnologías.

“Debemos abordar las muchas formas en que la inteligencia artificial alterará drásticamente el panorama de amenazas y aumentará el arsenal de herramientas que poseemos para tener éxito frente a estas amenazas”, dijo en un discurso.(Se abre en una nueva ventana) en el Consejo de Relaciones Exteriores.

Mayorkas señaló que la agencia se enfrenta a “un entorno drásticamente cambiado” en comparación con 2003, cuando se formó el departamento por primera vez. En particular, las tecnologías de inteligencia artificial se están acelerando en la vida de las personas de una «manera desconocida y básicamente no administrada», dijo.

Mayorkas ve oportunidades y amenazas potenciales de la tecnología en crecimiento, que incluye chatbots impulsados ​​por IA capaces de desarrollar malware y otros programas de IA que pueden crear videos e imágenes ultrafalsos. “¿Qué significará este crecimiento para nuestra seguridad y protección en los próximos 20 años?” preguntó.

En respuesta, el primer grupo de trabajo de IA del DHS explorará el uso de las mismas tecnologías de IA, pero para ayudar a asegurar la cadena de suministro de EE. UU. “Buscaremos implementar IA para filtrar la carga de manera más hábil, identificar la importación de bienes producidos con trabajo forzado y gestionar el riesgo”, dijo la agencia en un comunicado.(Se abre en una nueva ventana).

Curiosamente, la agencia ve potencial en el uso de programas de inteligencia artificial para detectar envíos ilegales de fentanilo a los EE. UU. con la esperanza de interrumpir las redes criminales de drogas, aunque el DHS no dio muchos detalles. La otra área en la que el departamento quiere aplicar los programas de inteligencia artificial consiste en identificar y ubicar a las víctimas de explotación y abuso sexual infantil en línea. Esto probablemente implique el uso de algoritmos de inteligencia artificial para escanear imágenes de abuso sexual infantil que pueden circular en las redes sociales y sitios web oscuros.

Recomendado por Nuestros Editores

El enfoque final del grupo de trabajo cubrirá la investigación de cómo la inteligencia artificial podría afectar los esfuerzos del DHS para proteger la infraestructura crítica de los EE. UU. Esto sugiere que la agencia examinará si los programas de inteligencia artificial podrían ayudar a los piratas informáticos patrocinados por el estado a infiltrarse en las redes estadounidenses.

El grupo de trabajo llega cuando los gobiernos están comenzando a explorar la regulación de los programas de IA en medio de temores de que las mismas tecnologías puedan perturbar a la sociedad. A principios de este mes, EE. UU. emitió una solicitud pública de comentarios para ayudarlo a comenzar a elaborar políticas sobre la auditoría de los programas de IA, un primer paso en la regulación potencial.

¿Te gusta lo que estás leyendo?

Matricularse en Vigilancia de la seguridad boletín de noticias para nuestras principales historias de privacidad y seguridad directamente en su bandeja de entrada.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38