\n
Las primeras cosas que hacer en realidad virtual, parte 3<\/p>\n
Hoy 9:39 a. m.<\/p>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n<\/div>\n
En el episodio del 25 de octubre de The Daily Show con Trevor Noah, la directora de tecnolog\u00eda de OpenAI, Mira Murati im\u00e1genes generadas por IA<\/span>. Aunque probablemente podr\u00eda hablar sobre el generador de im\u00e1genes de IA DALL-E 2 de OpenAI con gran detalle, no fue una entrevista muy profunda. Despu\u00e9s de todo, se puso a disposici\u00f3n de todas las personas que probablemente entiendan poco o nada sobre el arte de la IA. A\u00fan as\u00ed, ofreci\u00f3 algunas pepitas de pensamiento. Noah le pregunt\u00f3 a Murati si hab\u00eda una manera de asegurarse de que los programas de inteligencia artificial no nos lleven a un mundo \u00abdonde nada es real y todo lo que es real, \u00bfno lo es?\u00bb<\/p>\nLa semana pasada, los investigadores del Instituto Tecnol\u00f3gico de Massachusetts dijeron que quer\u00edan responder esa pregunta. Idearon un programa relativamente simple que puede usar t\u00e9cnicas de envenenamiento de datos para alterar esencialmente los p\u00edxeles dentro de una imagen para crear un ruido invisible, lo que hace que los generadores de arte de IA sean incapaces de generar im\u00e1genes realistas. falsificaciones profundas<\/span> basado en las fotos que est\u00e1n alimentados. Aleksander Madry, profesor de computaci\u00f3n en el MIT, trabaj\u00f3 con el equipo de investigadores para desarrollar el programa y public\u00f3 sus resultados en Twitter y su blog del laboratorio<\/span>.<\/p>\n