Vivimos en una era de exageración de la IA y todos tienen su opinión. Pero mientras la mayoría de nosotros estamos un poco preocupados por lo que significa el auge del texto ultrapredictivo para la creatividad y la crítica humana, algunos tipos de Silicon Valley se preocupan por la Inteligencia General Artificial, o AGI, que es básicamente un término que suena serio. para una IA autodidacta con sensibilidad y, potencialmente, una sed insaciable de sangre humana. O algo por el estilo.
Pero el fundador y director ejecutivo de Dell, Michael Dell, dice que no hay que preocuparse. En una reciente charla virtual con la firma de gestión patrimonial Bernstein (descubierta por The Register), Dell dijo que le preocupaba la llegada de AGI «un poco, pero no demasiado». ¿Por qué? Porque «desde que existe la tecnología, los humanos nos hemos preocupado por las cosas malas que podrían suceder con ella y nos hemos contado historias… sobre cosas horribles que podrían suceder».
Esa preocupación, continúa Dell, permite a la humanidad «crear contramedidas» para evitar que esos escenarios apocalípticos se desarrollen antes de que sucedan. «Si recuerdas la capa de ozono y todo eso», le dijo Dell a Tony Sacconaghi de Bernstein, «hay todo tipo de cosas que iban a suceder. No sucedieron porque los humanos tomaron contramedidas».
Dell (el hombre) continuó diciendo que el negocio de IA de Dell (la empresa) estaba en auge. «La demanda de los clientes casi se duplicó trimestre a trimestre para nosotros y la cartera de pedidos optimizada de IA se duplicó aproximadamente a alrededor de $1.6 mil millones al final de nuestro tercer trimestre», dijo Dell (el hombre nuevamente), que, y escribo esto como alguien para quien ‘literalmente GLaDOS’ ocupa un lugar bajo en la lista de prioridades de miedo; parece el tipo de cosas que diría un director ejecutivo de tecnología en el prólogo de una película sobre la IA matando a todos.
De todos modos, Dell considera que no debería preocuparse por el levantamiento de los robots en el corto plazo, porque los humanos son muy buenos para reconocer y evitar problemas antes de que ocurran. Excepto por eso del cambio climático y los nanoplásticos en nuestra sangre, supongo. Ah, y el hecho de que no comenzamos a arreglar la capa de ozono hasta que ya había un enorme agujero en ella (que no se arreglará hasta 2040, o 2066 si vives en la Antártida). Si me permiten editorializar un poco, lo cual supongo que ya he estado haciendo, parece como llegar a la conclusión correcta por razones equivocadas.
Por mi dinero, no deberías preocuparte por AGI porque es una historia espeluznante que los tipos tecnológicos acomodados idearon para exagerar las capacidades de sus actual La tecnología de la IA y porque es una historia mucho más clara y más fácil de afrontar que las cosas que realmente dan miedo de la IA: el potencial de diezmar industrias creativas enteras y su sustitución por lodos robóticos homogéneos. Además, la posibilidad de que Internet (a pesar de todos sus problemas, un depósito genuinamente útil de conocimiento humano) se convierta en una gran biblioteca de tonterías autocompletadas y completamente incorrectas que no sirven para nadie.
Después de todo, ya he llegado al punto en el que agrego «Reddit» a la mayoría de mis búsquedas en Google para asegurarme de recibir información humana sobre cualquier problema que esté enfrentando. Y ese es un problema mucho más complicado con soluciones que amenazan mucho más las ganancias que el hombre del saco de HAL 9000.