Obtenga una pista, dice el panel sobre la tecnología de inteligencia artificial: está siendo «implementada como vigilancia»


Hoy temprano, en una conferencia de Bloomberg en San Francisco, aparecieron algunos de los nombres más importantes de la IA, incluidos, brevemente, Sam Altman de OpenAI, quien acaba de terminar su gira mundial de dos meses, y el fundador de Stability AI, Emad Mostaque. Aún así, una de las conversaciones más convincentes ocurrió más tarde en la tarde, en un panel de discusión sobre la ética de la IA.

Con Meredith Whittaker (en la foto de arriba), presidenta de la aplicación de mensajería segura Signal; la cofundadora y directora ejecutiva de Credo AI, Navrina Singh; y Alex Hanna, director de investigación del Distributed AI Research Institute, los tres tenían un mensaje unificado para la audiencia: no se distraiga tanto con la promesa y las amenazas asociadas con el futuro de la IA. No es magia, no está completamente automatizado y, según Whittaker, ya es intrusivo más allá de lo que la mayoría de los estadounidenses aparentemente comprenden.

Hanna, por ejemplo, señaló a las muchas personas en todo el mundo que están ayudando a entrenar los grandes modelos lingüísticos de la actualidad, sugiriendo que estas personas están recibiendo poca atención en parte de la cobertura sin aliento sobre la IA generativa, en parte porque el trabajo no tiene glamour y en parte porque no se ajusta a la narrativa actual sobre la IA.

Dijo Hanna: “Sabemos por los informes. . .que hay un ejército de trabajadores que están haciendo anotaciones detrás de escena para incluso hacer que esto funcione en cualquier grado: trabajadores que trabajan con Amazon Mechanical Turk, personas que trabajan con [the training data company] Sama: en Venezuela, Kenia, EE. UU., en realidad en todo el mundo. . . Ellos en realidad están haciendo el etiquetado, mientras que Sam [Altman] y Emad [Mostaque] y todas estas otras personas que van a decir que estas cosas son mágicas, no. Hay humanos. . . Estas cosas deben aparecer como autónomas y tienen esta apariencia, pero hay mucho trabajo humano debajo”.

Los comentarios hechos por separado por Whittaker, quien anteriormente trabajó en Google, cofundó el AI Now Institute de la NYU y fue asesor de la Comisión Federal de Comercio, fueron aún más directos (y también impactantes según la reacción entusiasta de la audiencia). Su mensaje fue que, por muy encantado que esté el mundo ahora con chatbots como ChatGPT y Bard, la tecnología que los sustenta es peligrosa, especialmente porque el poder se vuelve más concentrado en aquellos en la cima de la pirámide avanzada de IA.

Dijo Whittaker: “Yo diría que tal vez algunas de las personas en esta audiencia sean usuarios de IA, pero la mayoría de la población es la sujeto de IA . .Esto no es una cuestión de elección individual. La mayoría de las formas en que la IA interpola nuestra vida toma decisiones que dan forma a nuestro acceso a los recursos y las oportunidades se hacen detrás de escena de formas que probablemente ni siquiera conocemos”.

Whittaker dio un ejemplo de alguien que entra a un banco y pide un préstamo. Esa persona puede ser negada y “no tener idea de que hay un sistema en [the] probablemente impulsado por alguna API de Microsoft que determinó, en función de las redes sociales extraídas, que no era solvente. nunca voy a saber [because] no hay ningún mecanismo para que yo sepa esto”. Hay formas de cambiar esto, continuó, pero superar la actual jerarquía de poder para hacerlo es casi imposible, sugirió. “He estado en la mesa durante 15 años, 20 años. He estado en la mesa. Estar en la mesa sin poder no es nada”.

Ciertamente, muchas personas impotentes podrían estar de acuerdo con Whittaker, incluidos los empleados actuales y anteriores de OpenAI y Google que, según se informa, han desconfiado en ocasiones del enfoque de sus empresas para lanzar productos de IA.

De hecho, la moderadora de Bloomberg, Sarah Frier, preguntó al panel cómo los empleados preocupados pueden hablar sin temor a perder sus trabajos, a lo que Singh, cuya startup ayuda a las empresas con el gobierno de la IA, respondió: “Creo que mucho de eso depende del liderazgo y de la empresa. valores, para ser honesto. . . . Hemos visto instancia tras instancia en el último año de despidos de equipos de IA responsables”.

Mientras tanto, hay mucho más que la gente común no entiende sobre lo que está sucediendo, sugirió Whittaker, llamando a la IA «una tecnología de vigilancia». Frente a la multitud, explicó, y señaló que la IA “requiere vigilancia en la forma de estos conjuntos de datos masivos que afianzan y amplían la necesidad de más y más datos, y una recopilación cada vez más íntima. La solución a todo es más datos, más conocimiento puesto en común en manos de estas empresas. Pero estos sistemas también se implementan como dispositivos de vigilancia. Y creo que es muy importante reconocer que no importa si la salida de un sistema de IA se produce a través de una estimación estadística probabilística o si son datos de una torre de telefonía móvil los que triangulan mi ubicación. Esos datos se convierten en datos sobre mí. No necesita ser correcto. No necesita ser un reflejo de quién soy o dónde estoy. Pero tiene un poder sobre mi vida que es significativo, y ese poder se está poniendo en manos de estas empresas”.

Agregó Whittaker, el «diagrama de Venn de preocupaciones de IA y preocupaciones de privacidad es un círculo».

Whittaker obviamente tiene su propia agenda hasta cierto punto. Como ella misma dijo en el evento, «hay un mundo en el que Signal y otras tecnologías legítimas de preservación de la privacidad perseveran» porque las personas se sienten cada vez menos cómodas con esta concentración de poder.

Pero también, si no hay suficiente retroceso y pronto, a medida que se acelera el progreso en la IA, los impactos sociales también se aceleran, continuaremos dirigiéndonos por un «camino lleno de exageraciones hacia la IA», dijo, «donde ese poder está arraigado». y naturalizados bajo la apariencia de inteligencia y somos vigilados hasta el punto [of having] muy, muy poca agencia sobre nuestras vidas individuales y colectivas”.

Esta «preocupación es existencial, y es mucho más grande que el marco de IA que a menudo se da».

Encontramos la discusión cautivadora; si desea verlo completo, desde entonces Bloomberg lo ha publicado aquí.


Meredith Whittaker y más de las mentes más agudas y profesionales en ciberseguridad se unirán a nosotros en TechCrunch Disrupt para discutir los mayores desafíos de la industria actual. Únase a nosotros para escuchar a los piratas informáticos, los defensores de primera línea y los investigadores de seguridad que aprovechan su conocimiento y experiencia de primera mano sobre las amenazas más críticas y qué se puede hacer al respecto. Además, descubrirá cómo trabaja un gigante tecnológico para mantener seguros a miles de millones de usuarios, y conocerá a las nuevas empresas que trabajan para proteger las criptomonedas, el hardware y la mensajería para las masas. Únase a nosotros allí y obtenga un 25 % de descuento en su pase Disrupt 2023 con el código de promoción secure25: compre aquí.



Source link-48