Un empleado de finanzas de una importante corporación multinacional no identificada ha sido engañado para que transfiera 200 millones de dólares de Hong Kong (alrededor de 25,6 millones de dólares) a estafadores que utilizan tecnología deepfake para hacerse pasar por sus colegas. Los simulacros creados por IA de los compañeros de trabajo del hombre incluían un deepfake del director financiero (CFO) de la empresa, y la policía de Hong Kong dice que la estafa se llevó a cabo a través de una videoconferencia (según lo informado por CNN).
Los estafadores «invitaron al trabajador a una videoconferencia en la que habría muchos participantes», dijo el superintendente principal Baron Chan Shun-ching. a la emisora RTHK. «Como las personas en la videoconferencia parecían personas reales, el trabajador realizó 15 transacciones según las instrucciones en cinco cuentas bancarias locales, lo que ascendió a un total de 200 millones de dólares de Hong Kong. Resulta que todos [the worker saw] era falso.»
Chan es de la división de seguridad cibernética de la policía de Hong Kong y en cuanto a la técnica de deepfake utilizada dice: «Creo que el estafador descargó videos con anticipación y luego usó inteligencia artificial para agregar voces falsas dentro de la videoconferencia». Dijo que el incidente comenzó en enero cuando el trabajador recibió un mensaje que supuestamente provenía del director financiero de la empresa con sede en el Reino Unido. El mensaje lo invitaba a una videollamada para discutir una transacción confidencial que debía realizar la empresa.
Si estás pensando «bueno, ahí está tu primera señal de alerta», aquí también lo pensó la víctima. El trabajador sospechaba del mensaje y pensó que el secreto de la transacción indicaba que podría tratarse de un ataque de phishing. Lamentablemente, el trabajador permitió que se disiparan sus dudas y, una vez en la videollamada, se convenció de que los deepfakes de vídeo y audio de varios compañeros eran auténticos.
El trabajador realizó las transacciones solicitadas. El oficial Chan dice que después de la conferencia telefónica, el trabajador se comunicó con la oficina central de la empresa y se dio cuenta de que había sido una estafa.
«Queremos alertar al público sobre estas nuevas tácticas de engaño», afirma Chan. «En el pasado, asumimos que estas estafas solo involucraban a dos personas en situaciones uno a uno, pero podemos ver en este caso que los estafadores pueden usar tecnología de inteligencia artificial en reuniones en línea, por lo que las personas deben estar alerta incluso en las reuniones. con muchos participantes.»
La policía de Hong Kong tiene una lista de recomendaciones que resultarán familiares para cualquiera que haya tenido que pasar por una capacitación en seguridad de la información corporativa, pero con respecto específicamente a este caso recomienda que cualquier empleado invitado a una reunión sospechosa intente confirmar los detalles a través de la comunicación regular de su empresa. canales. También sugieren que hagas preguntas durante las reuniones para comprobar si los otros participantes son reales y quiénes dicen ser… lo que hará que las próximas reuniones de personal de PC Gamer sean mucho más divertidas.
En la conferencia de prensa del viernes, la policía de Hong Kong dijo que había realizado seis arrestos en relación con estafas como esta, pero no dijo si alguno estaba relacionado con este crimen en particular.
Chan también ofreció un ejemplo interesante, aunque de menor nivel, de cómo se utiliza la tecnología deepfake en la región, al hablar de tarjetas de identidad robadas. Si vives en Hong Kong tienes un documento de identidad obligatorio (HKID) a partir de los 11 años, y este documento gubernamental es necesario para hacer prácticamente cualquier cosa. Chan dijo que ocho tarjetas HKID robadas (todas las cuales habían sido reportadas como perdidas por sus propietarios) se utilizaron para realizar 90 solicitudes de préstamos y registrarse en 54 cuentas bancarias durante un período de tres meses el año pasado. Durante al menos 20 de estos procesos de solicitud, se utilizaron deepfakes de los propietarios de las tarjetas HKID para engañar a los programas de reconocimiento facial.
Hace años que existen ejemplos de tecnología deepfake, algunos ciertamente mejores que otros, pero parece que 2024 se está preparando para ser el año de los deepfake. Comenzó con un escándalo en torno a imágenes sexuales falsas de la estrella del pop Taylor Swift, parte del cual fue la rapidez con la que varias plataformas permitieron que el contenido se volviera viral, pero la prueba de fuego llegará más adelante este año en las elecciones presidenciales de Estados Unidos. Ya sea en audio o video, hay muchos ejemplos de figuras notables como el presidente Biden a las que se les hace deepfake diciendo o haciendo cosas que no han hecho y, en medio de esta confusión, no parece que empresas como Facebook Tengo mucha idea de qué hacer al respecto.