{"id":286892,"date":"2022-11-10T02:59:45","date_gmt":"2022-11-10T02:59:45","guid":{"rendered":"https:\/\/magazineoffice.com\/quien-esta-trabajando-para-acabar-con-la-amenaza-de-los-deepfakes-generados-por-ia\/"},"modified":"2022-11-10T02:59:46","modified_gmt":"2022-11-10T02:59:46","slug":"quien-esta-trabajando-para-acabar-con-la-amenaza-de-los-deepfakes-generados-por-ia","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/quien-esta-trabajando-para-acabar-con-la-amenaza-de-los-deepfakes-generados-por-ia\/","title":{"rendered":"Qui\u00e9n est\u00e1 trabajando para acabar con la amenaza de los deepfakes generados por IA"},"content":{"rendered":"


\n<\/p>\n

\n
\n
<\/p>\n
\n
\"Un<\/div>\n<\/div>\n

<\/span><\/p>\n

Las im\u00e1genes de arriba de Trevor Noah y Michael Kosta muestran lo que sucede cuando pasan por un generador de im\u00e1genes de IA con el mensaje \u00abdos hombres bailando en el sal\u00f3n\u00bb, as\u00ed como si la imagen se ha modificado o no para rechazar la manipulaci\u00f3n de im\u00e1genes de IA.<\/figcaption>
Imagen: Alejandro Madry<\/figcaption><\/p>\n<\/div>\n

<\/figure>\n

Al igual que muchas de las mejores y peores ideas del mundo, el plan de los investigadores del MIT para combatir las falsificaciones profundas generadas por IA naci\u00f3 cuando uno de ellos vio su programa de noticias favorito.<\/p>\n

\n
\n
\n
\n
\n
\n
\n

Tr\u00e1iler de anuncio de Star Wars: Shatterpoint<\/span><\/p>\n<\/div>\n<\/div>\n<\/div>\n

\n
\n
\n
\n
\n
\n
<\/div>\n

02:27<\/p>\n<\/div>\n<\/div>\n

\n

Las primeras cosas que hacer en realidad virtual, parte 3<\/p>\n

Hoy 9:39 a. m.<\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n

En el episodio del 25 de octubre de The Daily Show con Trevor Noah, la directora de tecnolog\u00eda de OpenAI, Mira Murati im\u00e1genes generadas por IA<\/span>. Aunque probablemente podr\u00eda hablar sobre el generador de im\u00e1genes de IA DALL-E 2 de OpenAI con gran detalle, no fue una entrevista muy profunda. Despu\u00e9s de todo, se puso a disposici\u00f3n de todas las personas que probablemente entiendan poco o nada sobre el arte de la IA. A\u00fan as\u00ed, ofreci\u00f3 algunas pepitas de pensamiento. Noah le pregunt\u00f3 a Murati si hab\u00eda una manera de asegurarse de que los programas de inteligencia artificial no nos lleven a un mundo \u00abdonde nada es real y todo lo que es real, \u00bfno lo es?\u00bb<\/p>\n

La semana pasada, los investigadores del Instituto Tecnol\u00f3gico de Massachusetts dijeron que quer\u00edan responder esa pregunta. Idearon un programa relativamente simple que puede usar t\u00e9cnicas de envenenamiento de datos para alterar esencialmente los p\u00edxeles dentro de una imagen para crear un ruido invisible, lo que hace que los generadores de arte de IA sean incapaces de generar im\u00e1genes realistas. falsificaciones profundas<\/span> basado en las fotos que est\u00e1n alimentados. Aleksander Madry, profesor de computaci\u00f3n en el MIT, trabaj\u00f3 con el equipo de investigadores para desarrollar el programa y public\u00f3 sus resultados en Twitter y su blog del laboratorio<\/span>.<\/p>\n