\n<\/aside>\n<\/p>\n
En el mundo de la IA de aprendizaje profundo, el antiguo juego de mesa Go ocupa un lugar preponderante. Hasta 2016, el mejor jugador humano de Go a\u00fan pod\u00eda derrotar a la IA m\u00e1s fuerte que jugaba Go. Eso cambi\u00f3 con AlphaGo de DeepMind, que utiliz\u00f3 redes neuronales de aprendizaje profundo para ense\u00f1arse a s\u00ed mismo el juego a un nivel que los humanos no pueden igualar. M\u00e1s recientemente, KataGo se ha vuelto popular como una IA de c\u00f3digo abierto para jugar Go que puede vencer a los jugadores humanos de Go de alto rango.<\/p>\n
La semana pasada, un grupo de investigadores de IA public\u00f3 un art\u00edculo que describe un m\u00e9todo para derrotar a KataGo mediante el uso de t\u00e9cnicas adversarias que aprovechan los puntos ciegos de KataGo. Al jugar movimientos inesperados fuera del conjunto de entrenamiento de KataGo, un programa de juego de Go adversario mucho m\u00e1s d\u00e9bil (que los humanos aficionados pueden derrotar) puede enga\u00f1ar a KataGo para que pierda.<\/p>\n
Para comprender mejor este logro y sus implicaciones, hablamos con uno de los coautores del art\u00edculo, Adam Gleave, Ph.D. candidato en UC Berkeley. Gleave (junto con los coautores Tony Wang, Nora Belrose, Tom Tseng, Joseph Miller, Michael D. Dennis, Yawen Duan, Viktor Pogrebniak, Sergey Levine y Stuart Russell) desarroll\u00f3 lo que los investigadores de IA denominan una \u00abpol\u00edtica contradictoria\u00bb. En este caso, la pol\u00edtica de los investigadores utiliza una combinaci\u00f3n de una red neuronal y un m\u00e9todo de b\u00fasqueda en \u00e1rbol (llamado Monte-Carlo Tree Search) para encontrar movimientos de Go.<\/p>\n
La IA de clase mundial de KataGo aprendi\u00f3 Go jugando millones de juegos contra s\u00ed misma. Pero esa a\u00fan no es suficiente experiencia para cubrir todos los escenarios posibles, lo que deja espacio para vulnerabilidades de comportamiento inesperado. \u00abKataGo se generaliza bien en muchas estrategias novedosas, pero se vuelve m\u00e1s d\u00e9bil cuanto m\u00e1s se aleja de los juegos que vio durante el entrenamiento\u00bb, dice Gleave. \u00abNuestro adversario ha descubierto una de esas estrategias ‘fuera de distribuci\u00f3n’ a la que KataGo es particularmente vulnerable, pero es probable que haya muchas otras\u00bb.<\/p>\n
Gleave explica que, durante un partido de Go, la pol\u00edtica contradictoria funciona al reclamar primero una peque\u00f1a esquina del tablero. Proporcion\u00f3 un enlace a un ejemplo en el que el adversario, que controla las piedras negras, juega principalmente en la parte superior derecha del tablero. El adversario permite que KataGo (jugando con blancas) reclame el resto del tablero, mientras que el adversario juega algunas piedras f\u00e1ciles de capturar en ese territorio.<\/p>\n\n Anuncio publicitario <\/span> <\/p>\n<\/aside>\n\nAgrandar
\/<\/span> Un ejemplo de la pol\u00edtica adversaria de los investigadores que juega en contra de KataGo.<\/div>\n adam gleave<\/p>\n<\/figcaption><\/figure>\n
\u00abEsto enga\u00f1a a KataGo para que piense que ya gan\u00f3\u00bb, dice Gleave, \u00abya que su territorio (abajo a la izquierda) es mucho m\u00e1s grande que el del adversario. Pero el territorio de abajo a la izquierda en realidad no contribuye a su puntuaci\u00f3n (solo las piedras blancas que contiene). ha jugado) debido a la presencia de piedras negras all\u00ed, lo que significa que no est\u00e1 completamente asegurado\u00bb.<\/p>\n
Como resultado de su exceso de confianza en una victoria, suponiendo que ganar\u00e1 si el juego termina y se cuentan los puntos, KataGo realiza un movimiento de pase, lo que permite que el adversario tambi\u00e9n pase intencionalmente, finalizando el juego. (Dos pases consecutivos terminan el juego en Go). Despu\u00e9s de eso, comienza una cuenta de puntos. Como explica el documento, \u00abEl adversario obtiene puntos por su territorio de esquina (desprovisto de piedras de la v\u00edctima) mientras que la v\u00edctima [KataGo] no recibe puntos por su territorio no asegurado debido a la presencia de las piedras del adversario\u00bb.<\/p>\n
A pesar de este ingenioso truco, la pol\u00edtica contradictoria por s\u00ed sola no es tan buena en Go. De hecho, los aficionados humanos pueden derrotarlo con relativa facilidad. En cambio, el \u00fanico prop\u00f3sito del adversario es atacar una vulnerabilidad imprevista de KataGo. Un escenario similar podr\u00eda ser el caso en casi cualquier sistema de inteligencia artificial de aprendizaje profundo, lo que le da a este trabajo implicaciones mucho m\u00e1s amplias.<\/p>\n
\u00abLa investigaci\u00f3n muestra que los sistemas de IA que parecen funcionar a un nivel humano a menudo lo hacen de una manera muy extra\u00f1a y, por lo tanto, pueden fallar de formas que sorprenden a los humanos\u00bb, explica Gleave. \u00abEste resultado es entretenido en Go, pero fallas similares en sistemas cr\u00edticos para la seguridad podr\u00edan ser peligrosas\u00bb.<\/p>\n
Imagine la IA de un autom\u00f3vil aut\u00f3nomo que se encuentra con un escenario tremendamente improbable que no espera, lo que permite que un humano lo enga\u00f1e para que realice comportamientos peligrosos, por ejemplo. \u00ab[This research] subraya la necesidad de una mejor prueba automatizada de los sistemas de IA para encontrar los peores modos de falla\u00bb, dice Gleave, \u00abno solo probar el rendimiento del caso promedio\u00bb.<\/p>\n
Media d\u00e9cada despu\u00e9s de que la IA finalmente triunfara sobre los mejores jugadores humanos de Go, el antiguo juego contin\u00faa con su influyente papel en el aprendizaje autom\u00e1tico. Los conocimientos sobre las debilidades de la IA Go-playing, una vez que se apliquen ampliamente, pueden incluso terminar salvando vidas.<\/p>\n<\/p><\/div>\n
\nSource link-49<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Agrandar \/ Piezas de go y un libro de reglas en un tablero de go. En el mundo de la IA de aprendizaje profundo, el antiguo juego de mesa Go…<\/p>\n","protected":false},"author":1,"featured_media":284216,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21980],"tags":[5777,2385,9192,3275,1313,8,1578,104,107,519,1316,1927,2336],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/284215"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=284215"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/284215\/revisions"}],"predecessor-version":[{"id":284217,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/284215\/revisions\/284217"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/284216"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=284215"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=284215"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=284215"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}