{"id":556281,"date":"2023-04-05T07:49:36","date_gmt":"2023-04-05T07:49:36","guid":{"rendered":"https:\/\/magazineoffice.com\/comentario-inteligencia-artificial-versus-humanidad-esta-lucha-no-existe-es-solo-una-estrategia-retorica\/"},"modified":"2023-04-05T07:49:41","modified_gmt":"2023-04-05T07:49:41","slug":"comentario-inteligencia-artificial-versus-humanidad-esta-lucha-no-existe-es-solo-una-estrategia-retorica","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/comentario-inteligencia-artificial-versus-humanidad-esta-lucha-no-existe-es-solo-una-estrategia-retorica\/","title":{"rendered":"COMENTARIO – Inteligencia artificial versus humanidad: Esta lucha no existe. Es solo una estrategia ret\u00f3rica."},"content":{"rendered":"


\n<\/p>\n

<\/p>\n
\n
\n

Sam Altman, jefe del proveedor de chat GPT Open AI, y el historiador Yuval Harari advierten que los sistemas inform\u00e1ticos est\u00e1n acabando con la humanidad. Estos escenarios de ciencia ficci\u00f3n distraen la atenci\u00f3n de los problemas reales de la IA.<\/p>\n<\/p><\/div>\n<\/div>\n

<\/p>\n

\n
<\/div>
\n
\n

\n

Ilustraci\u00f3n Simon Tanner \/ NZZ<\/span><\/p>\n<\/div>\n<\/figcaption><\/figure>\n

<\/p>\n

Es posible que haya visto la cifra antes: el 10 por ciento es la probabilidad de que los futuros sistemas de inteligencia artificial (IA) eliminen a la humanidad. Que piensa seg\u00fan un muy citado encuesta<\/a>edad<\/a> por el Instituto de Investigaci\u00f3n de Inteligencia de M\u00e1quinas la mitad de los desarrolladores de la IA actual.<\/p>\n

<\/p>\n

El historiador Harari y dos coautores usan el n\u00famero en un ensayo para el New York Times para una pregunta capciosa: \u00abImagina que te subes a un avi\u00f3n y la mitad de los ingenieros que lo construyeron te dicen que se estrellar\u00e1 con un diez por ciento de probabilidad. \u00bfSubir\u00e1s a bordo?\u00bb.<\/p>\n

<\/p>\n

Luego discuten los peligros de la inteligencia artificial, describiendo nuestro tiempo como una especie de guerra: por un lado \u00abla humanidad\u00bb, por el otro \u00abla IA\u00bb. Tendr\u00edamos que aprender a \u201cdominar la IA antes de que nos domine a nosotros\u201d, piden los autores al final. <\/p>\n

<\/p>\n

Eso suena razonable. Y, sin embargo, es un ejemplo de una gran confusi\u00f3n en el debate sobre inteligencia artificial. Una confusi\u00f3n que en realidad podr\u00eda tener consecuencias peligrosas.<\/p>\n

<\/p>\n

Dos ingredientes para el mito de Frankenstein<\/span><\/h2>\n

<\/p>\n

Comienza con el desafortunado nombre. \u00abInteligencia artificial\u00bb, que evoca el mito de Frankenstein. Nuestra semejanza en una m\u00e1quina. Tambi\u00e9n se podr\u00eda decir m\u00e1quinas de aprendizaje o modelos estad\u00edsticos para la producci\u00f3n del lenguaje. Pero eso no suena tan emocionante.<\/p>\n

<\/p>\n

Por lo tanto, las empresas de tecnolog\u00eda tienen inter\u00e9s en alimentar a\u00fan m\u00e1s el mito. Y lo hacen. Si escribe una pregunta en Chat-GPT, debe esperar un poco la respuesta porque los servidores est\u00e1n al l\u00edmite. Mientras tanto, no aparece un reloj de arena, sino un cursor parpadeante. La respuesta aparece palabra por palabra. Como si el programa estuviera pensando.<\/p>\n

<\/p>\n

Los asistentes de IA est\u00e1n humanizados deliberadamente. \u00ab\u00bfC\u00f3mo puede I<\/em> \u00bfTe ayud\u00f3?\u201d, pregunta Alexa, Bing y compa\u00f1\u00eda. No es de extra\u00f1ar que dif\u00edcilmente puedas escapar de la ilusi\u00f3n de que est\u00e1s tratando con una contraparte pensante.<\/p>\n

<\/p>\n

El segundo ingrediente del mito de Frankenstein es que nadie sabe lo que est\u00e1 haciendo la IA. Eso est\u00e1 mal.<\/p>\n

<\/p>\n

Es cierto que no es posible prever exactamente qu\u00e9 resultados producir\u00e1 tal modelo en casos individuales. Por lo tanto, a menudo se dice que la IA, que aprende de grandes cantidades de datos, es una caja negra.<\/p>\n

<\/p>\n

Pero eso no significa que los expertos no entiendan fundamentalmente c\u00f3mo funciona esta tecnolog\u00eda. Est\u00e1 bastante claro qu\u00e9 habilidades se pueden aprender de qu\u00e9 datos. Sin embargo, una advertencia reciente carta abierta<\/a> por Elon Musk, Harari y otras celebridades tecnol\u00f3gicas que incluso los desarrolladores no entend\u00edan la \u00abmente digital\u00bb que estaban creando.<\/p>\n

<\/p>\n

La mezcla de dise\u00f1o humanizador y el murmullo de que algo misterioso est\u00e1 pasando aqu\u00ed obviamente confunde, incluso a las personas que deber\u00edan saberlo mejor. El cient\u00edfico jefe de Open AI reclamos<\/a>, AI podr\u00eda ser \u00abun poco consciente\u00bb. Un ingeniero de Google requerido<\/a> un defensor del chatbot interno porque es consciente. un profesor de stanford escribe en twitter<\/a>Chat-GPT quiere salir de la computadora.<\/p>\n

<\/p>\n

Eso es absurdo. Chat-GPT es un programa que predice palabras, las entrena para simular conversaciones. Eso es exactamente lo que hace muy bien. Concluir de esto que tiene voluntad o est\u00e1 a punto de desarrollarla es estar cegado por el dise\u00f1o de estos programas. <\/p>\n

<\/p>\n

El efecto creep es un truco ret\u00f3rico.<\/span><\/h2>\n

<\/p>\n

Ahora se podr\u00eda decir: deber\u00edan hacerlo. Es normal que las empresas exageren sus propios productos. Es normal que la gente se enamore de la idea de haber creado algo muy especial y sobreestime su propio trabajo. Lo sabes por los padres. <\/p>\n

<\/p>\n

Y, de hecho, la IA conlleva peligros. Es una tecnolog\u00eda compleja y poderosa que debe revisarse cuidadosamente para ver qu\u00e9 da\u00f1o colateral es posible en el \u00e1rea de operaci\u00f3n. Al advertir al respecto, conf\u00ede un poco en el efecto de miedo, eso no puede doler, \u00bfverdad?<\/p>\n

<\/p>\n

Lamentablemente hace da\u00f1o. El creep es un truco ret\u00f3rico. A Sam Altman, el jefe de Open AI, le gusta hablar sobre un futuro con una inteligencia abrumadora similar a la humana. El efecto aterrador suele ir seguido de una promesa: con nosotros, en Open AI, el monstruo est\u00e1 en buenas manos. Pensamos en los peligros. Somos responsables.<\/p>\n

<\/p>\n

De lo que Altman no habla: aunque hizo que la IA de voz estuviera disponible para todos con Open AI, decidi\u00f3 proceder de una manera completamente opaca. Entonces, \u00bfc\u00f3mo lidia Open AI con el poder que ya reside en la empresa? En lugar de hablar de los problemas de una IA abrumadora inexistente, deber\u00edamos considerar c\u00f3mo abordar los problemas muy espec\u00edficos de las tecnolog\u00edas de IA actuales.<\/p>\n

<\/p>\n

Open AI sabe para qu\u00e9 se utiliza actualmente su IA<\/span><\/h2>\n

<\/p>\n

Si bien Altman advierte que la IA es una caja negra que nadie entiende, debemos instar a Open AI a que haga p\u00fablica cu\u00e1l es exactamente la tecnolog\u00eda detr\u00e1s de su modelo para que pueda ser estudiada por la ciencia. Esto es exactamente lo que Open AI niega en este momento.<\/p>\n

<\/p>\n

Mientras Harari advierte que una m\u00e1quina quiere manipularnos, una IA que puede \u00abhackear el sistema operativo de la civilizaci\u00f3n con el lenguaje\u00bb, debemos hablar del hecho de que son las personas las que difunden falsedades: pol\u00edticos, estafadores, gobiernos, agitadores. La tecnolog\u00eda es solo una herramienta en sus manos. La radio no tuvo la culpa de la propaganda nazi, Goebbels la utiliz\u00f3 para ello.<\/p>\n

<\/p>\n

Si observa c\u00f3mo las personas pueden hacer un mal uso de una tecnolog\u00eda, tambi\u00e9n se le ocurrir\u00e1n ideas para posibles regulaciones. Por ejemplo, Open AI conoce las consultas de sus usuarios. \u00bfPor qu\u00e9 no exigir a la empresa que publique un informe sobre qu\u00e9 textos est\u00e1n creando los clientes? \u00bfSe trata de recetas de cocina, trabajos acad\u00e9micos o campa\u00f1as de desinformaci\u00f3n?<\/p>\n

<\/p>\n

Se podr\u00eda dictar a los proveedores de chatbots que deben hacer que la base de datos de todos los textos creados sea accesible para consultas de plagio: un motor de b\u00fasqueda en el que puede ingresar secciones de texto y averiguar si fueron creados por una IA.<\/p>\n

<\/p>\n

Tal regla probablemente tambi\u00e9n tendr\u00eda sus debilidades, pero eso es exactamente lo que deber\u00edamos estar discutiendo, no si la IA leal<\/a> es suficiente. <\/p>\n

<\/p>\n

Los desarrolladores de tecnolog\u00eda pretenden ser los sumos sacerdotes del futuro<\/span><\/h2>\n

<\/p>\n

Por supuesto, Open AI y otras compa\u00f1\u00edas tecnol\u00f3gicas no est\u00e1n interesadas en una discusi\u00f3n sobre reglas espec\u00edficas. Prefieren hacerse pasar por sumos sacerdotes del futuro, entusiasmados con la IA sobrehumana que est\u00e1n creando. El p\u00fablico en general puede usar el software, pero darle una idea de c\u00f3mo funciona es peligroso. Esta actitud es arrogante.<\/p>\n

<\/p>\n

Y Lutero ya lo ten\u00eda claro: los que mantienen en secreto las Sagradas Escrituras se preocupan por el poder y el control.<\/p>\n

<\/p>\n

El ejemplo citado por el ensayo de Harari es involuntariamente revelador. Hubo una primera batalla contra la IA en la que la humanidad perdi\u00f3: las redes sociales. Los algoritmos de IA que pueblan nuestros feeds de redes sociales habr\u00edan polarizado a la sociedad y la habr\u00edan llevado al abismo. Ahora queda pendiente el segundo contacto con la IA: \u00abNo podemos permitirnos volver a perder\u00bb.<\/p>\n

<\/p>\n

Una vez m\u00e1s, AI no tiene agencia. Facebook, Twitter, Tiktok y Youtube utilizan algoritmos para mantener a la audiencia en la plataforma. No es la IA la que divide a las sociedades, sino los ciudadanos, los pol\u00edticos, las personas influyentes, con la ayuda de las empresas que se benefician de toda la indignaci\u00f3n.<\/p>\n

<\/p>\n

No son los algoritmos los que polarizan, sino quienes los usan<\/span><\/h2>\n

<\/p>\n

Cuando los empleados se hacen p\u00fablicos, como el ex empleado de Facebook francis haugen<\/a>el panorama siempre es el mismo: estas empresas no tienen ingenieros abrumados que no entienden sus algoritmos, al contrario. El grupo meta est\u00e1 observando muy de cerca.<\/a>cu\u00e1ndo comentan las personas, cu\u00e1ndo les gusta, cu\u00e1ndo hacen clic en un emoji de ira y qu\u00e9 campa\u00f1as de odio se est\u00e1n ejecutando actualmente.<\/p>\n

<\/p>\n

Aquellos que culpan a los \u00abalgoritmos\u00bb est\u00e1n siendo enga\u00f1ados por las empresas tecnol\u00f3gicas, que quieren distraer la atenci\u00f3n del hecho de que priorizan repetidamente los intereses comerciales.<\/p>\n

<\/p>\n

Harari y sus coautores tienen raz\u00f3n, no podemos darnos el lujo de perder otra batalla. Ser\u00eda \u00fatil no mirar al adversario imaginario \u00abIA\u00bb, sino a las formas en que las personas hacen mal uso de ella, y los m\u00e9todos con los que estos, fabricantes y usuarios, pueden rendir cuentas.<\/p>\n

<\/p>\n

<\/div>\n