Cómo iniciar un pánico de IA


la semana pasada el Center for Humane Technology convocó a más de 100 líderes en finanzas, filantropía, industria, gobierno y medios a la Sala Kissinger en el Paley Center for Media en la ciudad de Nueva York para escuchar cómo la inteligencia artificial podría acabar con la humanidad. Los dos oradores, Tristan Harris y Aza Raskin, comenzaron su presentación sobre la hora del juicio final con una diapositiva que lee:: “Lo que las armas nucleares son para el mundo físico… la IA lo es para todo lo demás”.

Nos dijeron que esta reunión era histórica, que recordaríamos en los próximos años ya que, presumiblemente, los cuatro jinetes del apocalipsis, disfrazados de chatbots de Bing, descenderían para reemplazar nuestra inteligencia con la suya. Evocó la escena de las viejas películas de ciencia ficción, o la farsa más reciente. no mires hacia arriba—donde los científicos descubren una amenaza e intentan sacudir a una población dormida por los hombros para explicar que esta amenaza mortal se dirige directamente hacia nosotros, y moriremos si no hace algo AHORA.

Al menos eso es lo que Harris y Raskin parecen haber concluido después de que, en su relato, algunas personas que trabajaban dentro de empresas que desarrollan IA se acercaron al Centro con la preocupación de que los productos que estaban creando eran fenomenalmente peligrosos, diciendo que se requería una fuerza externa para evitar una catástrofe. Los cofundadores del Centro citaron repetidamente una estadística de una encuesta que encontró que la mitad de los investigadores de IA creen que hay al menos un 10 por ciento de posibilidades de que la IA haga que los humanos se extingan.

En este momento de exageración e incertidumbre de la IA, Harris y Raskin están rompiendo el cristal y activando la alarma. No es la primera vez que activan sirenas. Diseñadores de tecnología convertidos en comunicadores expertos en medios, cofundaron el Centro para informar al mundo que las redes sociales eran una amenaza para la sociedad. La máxima expresión de sus preocupaciones se produjo en su participación en un popular documental de Netflix. semen película de terror llamada El dilema social. Si bien la película no tiene matices y es algo histérica, estoy de acuerdo con muchas de sus quejas sobre la captura de atención de las redes sociales, los incentivos para dividirnos y el uso de datos privados como armas. Estos fueron presentados a través de entrevistas, estadísticas y gráficos. Pero el documental torpedeó su propia credibilidad al pasar a una narración ficticia exagerada sacada directamente de Locura por el porroque muestra cómo una familia sana (inventada) del corazón se arruina (un niño radicalizado y encarcelado, otro deprimido) por las publicaciones de Facebook.

Esta unilateralidad también caracteriza la nueva campaña del Centro llamada, adivina qué, el dilema de la IA. (El Centro se muestra tímido acerca de si se está trabajando en otro documento de Netflix). Al igual que el dilema anterior, muchos puntos que señalan Harris y Raskin son válidos, como nuestra incapacidad actual para comprender completamente cómo los bots como ChatGPT producen su resultado. También dieron un buen resumen de cómo la IA se ha vuelto tan rápidamente lo suficientemente poderosa como para hacer la tarea, potenciar la búsqueda de Bing y expresar amor por New York Times columnista Kevin Roose, entre otras cosas.

No quiero descartar por completo el peor escenario que invocan Harris y Raskin. Esa estadística alarmante sobre los expertos en inteligencia artificial que creen que su tecnología tiene la posibilidad de matarnos a todos, en realidad se verifica, más o menos. En agosto de 2022, una organización llamada Impactos de la IA contactó a 4271 personas que fueron autores o coautores de artículos presentados en dos conferencias de AI y les pidió que completaran una encuesta. Solo respondieron alrededor de 738, y algunos de los resultados son un poco contradictorios, pero, efectivamente, el 48 por ciento de los encuestados vio al menos un 10 por ciento de posibilidades de un resultado extremadamente malo, a saber, la extinción humana. AI Impacts, debo mencionar, es apoyado en parte por el Centro para el Altruismo Efectivo y otras organizaciones que han mostrado interés en escenarios lejanos de IA. En cualquier caso, la encuesta no preguntó a los autores por qué, si pensaban que la catástrofe era posible, estaban escribiendo artículos para promover esta ciencia supuestamente destructiva.





Source link-46