MASAHIRO SUGIMOTO \/ AP<\/span> <\/figcaption><\/figure>\nUno de los pioneros de la investigaci\u00f3n sobre inteligencia artificial (IA) ha dimitido de Google para alertar sobre las posibles amenazas de esta tecnolog\u00eda. Geoffrey Hinton, de 75 a\u00f1os, anunci\u00f3 al New York Times<\/em> su salida de la firma Mountain View, donde trabajaba a tiempo parcial desde 2013. En un art\u00edculo publicado el lunes 1ejem<\/sup> May por el diario americano, argumenta que \u00abLas versiones futuras de esta tecnolog\u00eda podr\u00edan ser un riesgo para la humanidad\u00bb. <\/em>De aqu\u00ed en adelante, \u00abuna parte de \u00e9l lamenta el trabajo de su vida\u00bb<\/em>confiesa.<\/p>\nLa investigadora canadiense-brit\u00e1nica, formada en neurociencia y psicolog\u00eda, desempe\u00f1\u00f3 un papel destacado en el avance de la IA mediante redes neuronales. En 2012, apoyado por dos de sus alumnos de la Universidad de Toronto, demostr\u00f3 la superioridad de este enfoque, que imita el funcionamiento del cerebro, superando a los mejores algoritmos de reconocimiento de im\u00e1genes.<\/p>\n
Esto lo llev\u00f3 a recibir el Premio Turing en 2019, el galard\u00f3n m\u00e1s prestigioso para un investigador en ciencias de la computaci\u00f3n, que comparte con otros dos pioneros de la IA, el franc\u00e9s Yann Le Cun y un excolaborador, el canadiense Yoshua Bengio. Diez a\u00f1os despu\u00e9s, fue su trabajo lo que hizo posible desarrollar las IA conversacionales ChatGPT y Bard o la IA de creaci\u00f3n de im\u00e1genes Midjourney.<\/p>\n\nLea tambi\u00e9n:<\/span> Art\u00edculo reservado para nuestros suscriptores<\/span><\/span> El Premio Turing reconoce a tres pioneros en inteligencia artificial (IA) <\/span> <\/div>\n<\/section>\nAhora, las perspectivas futuras de la IA son \u00abbastante aterrador\u00bb <\/em>para los humanos, dijo tambi\u00e9n el cient\u00edfico a la BBC, el canal p\u00fablico brit\u00e1nico. \u201cPor el momento, no son m\u00e1s inteligentes que nosotros, que yo sepa. Pero creo que pronto lo ser\u00e1n\u00bb.<\/em>, \u00e9l contin\u00faa. Tal como est\u00e1n las cosas, sus temores se centran en la creaci\u00f3n masiva de videos, fotos y art\u00edculos falsos en Internet. el teme que \u00abLa gente normal ya no puede distinguir el bien del mal\u00bb<\/em>.<\/p>\nConcierto de cr\u00edticas a la IA<\/h2>\n
El cient\u00edfico tambi\u00e9n est\u00e1 preocupado por el desarrollo de estas tecnolog\u00edas y teme que caigan en manos equivocadas. Con el New York Times<\/em>, teme la devastadora llegada de armas aut\u00f3nomas, como los robots asesinos. En la BBC dice anticipar escenarios \u00abde pesadilla\u00bb<\/em> si una potencia conquistadora como la Rusia de Vladimir Putin tuviera acceso a versiones mejoradas de las tecnolog\u00edas actuales.<\/p>\nSus cr\u00edticas se suman a las de otros especialistas en IA. A principios de abril, una carta abierta firmada por un millar de expertos ped\u00eda una pausa de seis meses en la investigaci\u00f3n en curso para desarrollar regulaciones para este software, considerado \u00abpeligroso para la humanidad\u00bb<\/em>. En particular, fue firmado por Yoshua Bengio o Elon Musk, CEO de Tesla y cofundador de OpenAI.<\/p>\n