Cuando se trata de deepfakes, lo que hemos visto hasta ahora es solo la punta del iceberg. En un futuro cercano, no estaremos seguros de si la persona con la que estamos hablando en una videollamada es real o un impostor, y los delincuentes no tendrán problemas para crear una cronología completa de videos falsos para respaldar sus afirmaciones, o engañar a la gente para que crea en la legitimidad de una oferta o campaña.
Estas desgarradoras predicciones provienen de Eric Horvitz, director científico de Microsoft, en un nuevo artículo de investigación, titulado «En el horizonte: falsificaciones profundas interactivas y de composición».
Los deepfakes son videos “modificados con Photoshop”, esencialmente. Mediante el uso de inteligencia artificial (IA) y aprendizaje automático (ML), un actor de amenazas puede crear un video de una persona que dice cosas que nunca dijo. Ahora, según Horvitz, los ladrones están listos para llevarlo al siguiente nivel. Los deepfakes interactivos son tal como cabría esperar: vídeos en tiempo real con los que los usuarios pueden interactuar y que, en realidad, son completamente falsos.
historia sintética
Los deepfakes de composición, por otro lado, se describen como «conjuntos de deepfakes» diseñados para integrarse con el tiempo con «eventos mundiales observados, esperados y diseñados para crear historias sintéticas persuasivas».
«Las historias sintéticas se pueden construir manualmente, pero algún día pueden guiarse por técnicas de explicación generativa contradictoria (AGE)», agrega Horvitz.
También dice que en un futuro cercano, será casi imposible distinguir los videos falsos y el contenido falso de los auténticos: “En ausencia de mitigaciones, los deepfakes interactivos y compositivos amenazan con acercarnos a un mundo posepistémico, donde el hecho no se puede distinguir de la ficción.”
Esta ausencia de mitigaciones se debe al hecho de que los actores de amenazas pueden enfrentar la inteligencia artificial con las herramientas de análisis y desarrollar contenido falso que puede engañar incluso a los sistemas de detección más avanzados.
“Con este proceso en la base de las falsificaciones profundas, ni las técnicas de reconocimiento de patrones ni los humanos podrán reconocerlas de manera confiable”, señala Horvitz.
Así que, la próxima vez que un familiar llame desde el extranjero para pedir dinero para pagar el alquiler, asegúrese de que no sea un estafador haciéndose pasar por (se abre en una pestaña nueva) tus seres queridos.
Vía: VentureBeat (se abre en una pestaña nueva)