{"id":84731,"date":"2022-08-10T04:40:03","date_gmt":"2022-08-10T04:40:03","guid":{"rendered":"https:\/\/magazineoffice.com\/necesita-detectar-un-deepfake-en-tiempo-real-digale-a-la-persona-que-se-ponga-de-lado\/"},"modified":"2022-08-10T04:40:04","modified_gmt":"2022-08-10T04:40:04","slug":"necesita-detectar-un-deepfake-en-tiempo-real-digale-a-la-persona-que-se-ponga-de-lado","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/necesita-detectar-un-deepfake-en-tiempo-real-digale-a-la-persona-que-se-ponga-de-lado\/","title":{"rendered":"\u00bfNecesita detectar un Deepfake en tiempo real? D\u00edgale a la persona que se ponga de lado"},"content":{"rendered":"


\n<\/p>\n

\n

El potencial de los deepfakes para estafar a los usuarios durante las videollamadas est\u00e1 aumentando. Pero una empresa se\u00f1ala que la tecnolog\u00eda impulsada por IA tiene un defecto f\u00e1cil de detectar: \u200b\u200bse esfuerza por representar caras falsas en \u00e1ngulos laterales. <\/p>\n

Los hallazgos provienen de Metaphysic(Se abre en una nueva ventana)<\/span>, una empresa de generaci\u00f3n de contenido de IA que recientemente examin\u00f3 algunas de las limitaciones de las falsificaciones profundas en tiempo real. A trav\u00e9s de una serie de pruebas, el informe de la empresa(Se abre en una nueva ventana)<\/span> muestra que la tecnolog\u00eda deepfake puede representar fielmente el rostro de una celebridad sobre el rostro de otra persona durante una videollamada, pero solo cuando est\u00e1n mirando hacia adelante. <\/p>\n

\n<\/p>\n

(Cr\u00e9dito: metaf\u00edsica)
\n<\/small>\n<\/p>\n

La falsificaci\u00f3n colapsa inmediatamente una vez que el usuario gira la cara en un \u00e1ngulo de 90 grados. La tecnolog\u00eda tambi\u00e9n tendr\u00e1 problemas si el usuario se tapa la cara con la mano. <\/p>\n

\"imagen<\/p>\n

Metaphysic public\u00f3 el informe semanas despu\u00e9s de que el FBI advirtiera que los estafadores han estado explotando la tecnolog\u00eda deepfake para hacerse pasar por candidatos de trabajo durante las entrevistas. Los estafadores lo han estado haciendo al solicitar trabajos remotos que podr\u00edan haberles dado acceso a datos corporativos financieros y confidenciales. <\/p>\n

Metaphysic ofrece una manera f\u00e1cil para que los entrevistadores de trabajo detecten un deepfake en tiempo real durante una videollamada. La empresa ejecut\u00f3 la demostraci\u00f3n usando DeepFaceLab(Se abre en una nueva ventana)<\/span>, el software gratuito detr\u00e1s de muchos videos deepfake populares que circulan en YouTube. El software tambi\u00e9n tiene una versi\u00f3n en tiempo real llamada DeepFaceLive(Se abre en una nueva ventana)<\/span>que puede cambiar la cara de una celebridad por la tuya.<\/p>\n

Aunque la tecnolog\u00eda puede llevar a cabo la falsificaci\u00f3n profunda con resultados impresionantes, el software no fue dise\u00f1ado para ejecutar el intercambio de rostros en tiempo real en \u00e1ngulos agudos. Por ejemplo, los procesos de mapeo facial generar\u00e1n accidentalmente un ojo o una ceja adicional para las caras que aparecen de lado. <\/p>\n

Dicho esto, a\u00fan es posible expandir fielmente las tecnolog\u00edas de falsificaci\u00f3n profunda para representar rostros en \u00e1ngulos de 90 grados, como lo demuestra el video anterior. Pero aun as\u00ed, solo se puede lograr una falsificaci\u00f3n profunda si tiene suficientes datos faciales sobre el sujeto que est\u00e1 tratando de suplantar. Metaphysic dice que fuera de las celebridades, la mayor\u00eda de las personas no tienen fotos de perfil de ellos mismos circulando en Internet. <\/p>\n

\n
\n

Recomendado por Nuestros Editores<\/h3>\n<\/div>\n<\/div>\n

\u201cA menos que haya sido arrestado en alg\u00fan momento, es probable que no tenga ni una de esas im\u00e1genes, ya sea en las redes sociales o en una colecci\u00f3n fuera de l\u00ednea\u201d, agreg\u00f3 la compa\u00f1\u00eda. <\/p>\n

Sin embargo, puede que solo sea cuesti\u00f3n de tiempo antes de que las tecnolog\u00edas deepfake superen estos defectos simulando los datos faciales faltantes. Por ejemplo, los propios Neural Radiance Fields de Nvidia(Se abre en una nueva ventana)<\/span> (NeRF) puede convertir im\u00e1genes 2D en escenas 3D usando solo una colecci\u00f3n de fotos fijas. Como resultado, la industria de la seguridad puede enfrentar un juego del gato y el rat\u00f3n al tratar de detectar falsificaciones profundas en tiempo real en el futuro. <\/p>\n

\n
\n

\u00bfTe gusta lo que est\u00e1s leyendo?<\/h4>\n

Matricularse en Vigilancia de la seguridad<\/strong> bolet\u00edn de noticias para nuestras principales historias de privacidad y seguridad directamente en su bandeja de entrada.<\/p>\n

Este bolet\u00edn puede contener publicidad, ofertas o enlaces de afiliados. Suscribirse a un bolet\u00edn informativo indica su consentimiento a nuestros T\u00e9rminos de uso y Pol\u00edtica de privacidad. Puede darse de baja de los boletines en cualquier momento.<\/p>\n<\/p><\/div>\n<\/div>\n<\/div>\n