La próxima frontera de la IA militar: su computadora de trabajo


probablemente sea dificil imaginar que usted es el objetivo del espionaje, pero espiar a los empleados es la próxima frontera de la IA militar. Las técnicas de vigilancia familiares a las dictaduras autoritarias ahora se han reutilizado para apuntar a los trabajadores estadounidenses.

Durante la última década, surgieron unas pocas docenas de empresas para vender suscripciones de su empleador para servicios como «inteligencia de fuente abierta», «gestión de la reputación» y «evaluación de amenazas internas», herramientas que a menudo fueron desarrolladas originalmente por contratistas de defensa para usos de inteligencia. A medida que el aprendizaje profundo y las nuevas fuentes de datos han estado disponibles en los últimos años, estas herramientas se han vuelto dramáticamente más sofisticadas. Con ellos, su jefe puede utilizar análisis de datos avanzados para identificar la organización laboral, las filtraciones internas y los críticos de la empresa.

No es ningún secreto que la sindicalización ya es monitoreada por grandes empresas como Amazon. Pero la expansión y normalización de las herramientas para rastrear a los trabajadores ha suscitado pocos comentarios, a pesar de sus orígenes ominosos. Si son tan poderosos como dicen ser, o incluso se dirigen en esa dirección, necesitamos una conversación pública sobre la conveniencia de transferir estas municiones informativas a manos privadas. La IA de grado militar estaba destinada a apuntar a nuestros enemigos nacionales, nominalmente bajo el control de gobiernos democráticos electos, con salvaguardas para evitar su uso contra los ciudadanos. Todos deberíamos estar preocupados por la idea de que los mismos sistemas ahora pueden ser ampliamente implementados por cualquiera que pueda pagar.

FiveCast, por ejemplo, comenzó como una startup antiterrorista que vendía a los militares, pero entregó sus herramientas a las corporaciones y las fuerzas del orden, que pueden usarlas para recopilar y analizar todo tipo de datos disponibles públicamente, incluidas sus publicaciones en las redes sociales. . En lugar de solo contar palabras clave, FiveCast se jacta de que su «seguridad comercial» y otras ofertas pueden identificar redes de personas, leer texto dentro de imágenes e incluso detectar objetos, imágenes, logotipos, emociones y conceptos dentro de contenido multimedia. Su herramienta de «gestión de riesgos de la cadena de suministro» tiene como objetivo pronosticar futuras interrupciones, como huelgas, para las corporaciones.

Las herramientas de análisis de redes desarrolladas para identificar células terroristas pueden usarse para identificar a organizadores laborales clave para que los empleadores puedan despedirlos ilegalmente antes de que se forme un sindicato. El uso estándar de estas herramientas durante el reclutamiento puede incitar a los empleadores a evitar contratar a tales organizadores en primer lugar. Y las estrategias de evaluación de riesgos cuantitativos concebidas para advertir a la nación contra ataques inminentes ahora pueden informar decisiones de inversión, como si se debe desinvertir en áreas y proveedores que se estima que tienen una alta capacidad para la organización laboral.

No está claro que estas herramientas puedan estar a la altura de sus expectativas. Por ejemplo, los métodos de análisis de red asignan el riesgo por asociación, lo que significa que podría ser marcado simplemente por seguir una página o cuenta en particular. Estos sistemas también pueden ser engañados por contenido falso, que se produce fácilmente a escala con la nueva IA generativa. Y algunas empresas ofrecen técnicas sofisticadas de aprendizaje automático, como el aprendizaje profundo, para identificar el contenido que parece enojado, lo que se supone que señala quejas que podrían dar lugar a la sindicalización, aunque se ha demostrado que la detección de emociones está sesgada y se basa en suposiciones erróneas.

Pero las capacidades de estos sistemas están creciendo rápidamente. Las empresas anuncian que pronto incluirán tecnologías de IA de próxima generación en sus herramientas de vigilancia. Las nuevas características prometen facilitar la exploración de fuentes de datos variadas a través de indicaciones, pero el objetivo final parece ser un sistema de vigilancia rutinario, semiautomático y antisindical.

Además, estos servicios de suscripción funcionan incluso si no funcionan. Puede que no importe si un empleado catalogado como alborotador está realmente descontento; los ejecutivos y la seguridad corporativa aún podrían actuar sobre la acusación y tomar represalias injustas contra ellos. Los vagos juicios agregados de las «emociones» de una fuerza laboral o la imagen pública de una empresa son actualmente imposibles de verificar como precisos. Y la mera presencia de estos sistemas probablemente tiene un efecto paralizante en los comportamientos legalmente protegidos, incluida la organización laboral.



Source link-46