¿Necesita detectar un Deepfake en tiempo real? Dígale a la persona que se ponga de lado


El potencial de los deepfakes para estafar a los usuarios durante las videollamadas está aumentando. Pero una empresa señala que la tecnología impulsada por IA tiene un defecto fácil de detectar: ​​se esfuerza por representar caras falsas en ángulos laterales.

Los hallazgos provienen de Metaphysic(Se abre en una nueva ventana), una empresa de generación de contenido de IA que recientemente examinó algunas de las limitaciones de las falsificaciones profundas en tiempo real. A través de una serie de pruebas, el informe de la empresa(Se abre en una nueva ventana) muestra que la tecnología deepfake puede representar fielmente el rostro de una celebridad sobre el rostro de otra persona durante una videollamada, pero solo cuando están mirando hacia adelante.

(Crédito: metafísica)

La falsificación colapsa inmediatamente una vez que el usuario gira la cara en un ángulo de 90 grados. La tecnología también tendrá problemas si el usuario se tapa la cara con la mano.

imagen metafísica

Metaphysic publicó el informe semanas después de que el FBI advirtiera que los estafadores han estado explotando la tecnología deepfake para hacerse pasar por candidatos de trabajo durante las entrevistas. Los estafadores lo han estado haciendo al solicitar trabajos remotos que podrían haberles dado acceso a datos corporativos financieros y confidenciales.

Metaphysic ofrece una manera fácil para que los entrevistadores de trabajo detecten un deepfake en tiempo real durante una videollamada. La empresa ejecutó la demostración usando DeepFaceLab(Se abre en una nueva ventana), el software gratuito detrás de muchos videos deepfake populares que circulan en YouTube. El software también tiene una versión en tiempo real llamada DeepFaceLive(Se abre en una nueva ventana)que puede cambiar la cara de una celebridad por la tuya.

Aunque la tecnología puede llevar a cabo la falsificación profunda con resultados impresionantes, el software no fue diseñado para ejecutar el intercambio de rostros en tiempo real en ángulos agudos. Por ejemplo, los procesos de mapeo facial generarán accidentalmente un ojo o una ceja adicional para las caras que aparecen de lado.

Dicho esto, aún es posible expandir fielmente las tecnologías de falsificación profunda para representar rostros en ángulos de 90 grados, como lo demuestra el video anterior. Pero aun así, solo se puede lograr una falsificación profunda si tiene suficientes datos faciales sobre el sujeto que está tratando de suplantar. Metaphysic dice que fuera de las celebridades, la mayoría de las personas no tienen fotos de perfil de ellos mismos circulando en Internet.

Recomendado por Nuestros Editores

“A menos que haya sido arrestado en algún momento, es probable que no tenga ni una de esas imágenes, ya sea en las redes sociales o en una colección fuera de línea”, agregó la compañía.

Sin embargo, puede que solo sea cuestión de tiempo antes de que las tecnologías deepfake superen estos defectos simulando los datos faciales faltantes. Por ejemplo, los propios Neural Radiance Fields de Nvidia(Se abre en una nueva ventana) (NeRF) puede convertir imágenes 2D en escenas 3D usando solo una colección de fotos fijas. Como resultado, la industria de la seguridad puede enfrentar un juego del gato y el ratón al tratar de detectar falsificaciones profundas en tiempo real en el futuro.

¿Te gusta lo que estás leyendo?

Matricularse en Vigilancia de la seguridad boletín de noticias para nuestras principales historias de privacidad y seguridad directamente en su bandeja de entrada.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un boletín informativo indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38