Golpeando los libros: por qué la IA necesita regulación y cómo podemos hacerlo


La floreciente industria de la IA ha superado la parte de su desarrollo de «actuar rápido» y ha llegado directamente a la parte en la que «rompemos cosas», ¡como la sociedad! Desde el lanzamiento de ChatGPT en noviembre pasado, los sistemas de IA generativa han arrasado en el mundo digital, encontrando uso en todo, desde codificación automática y aplicaciones industriales hasta diseño de juegos y entretenimiento virtual. También se adoptó rápidamente con fines ilícitos, como ampliar las operaciones de correo electrónico no deseado y crear deepfakes.

Se trata de un genio tecnológico que nunca volveremos a meter en su botella, así que será mejor que trabajemos para regularlo, sostiene Tom Kemp, autor, empresario, inversor y asesor político radicado en Silicon Valley, en su nuevo libro: Contener a las grandes tecnologías: cómo proteger nuestros derechos civiles, nuestra economía y nuestra democracia. En el siguiente extracto, Kemp explica qué forma podría adoptar esa regulación y qué significaría su aplicación para los consumidores.

Prensa rápida de la empresa

Extracto de Contener a las grandes tecnologías: cómo proteger nuestros derechos civiles, nuestra economía y nuestra democracia (IT Rev, 22 de agosto de 2023)de Tom Kemp.


Hoja de ruta para contener la IA

Pandora en el mito griego trajo regalos poderosos pero también desató poderosas plagas y males. De la misma manera, con la IA, debemos aprovechar sus beneficios pero mantener los daños potenciales que la IA puede causar a los humanos dentro de la proverbial caja de Pandora.

Cuando el Dr. Timnit Gebru, fundador del Instituto de Investigación de Inteligencia Artificial Distribuida (DAIR), fue preguntado por el New York Times Con respecto a cómo enfrentar el sesgo de la IA, respondió en parte con esto: “Necesitamos tener principios y estándares, y órganos rectores, y personas que voten sobre cosas y algoritmos que se están verificando, algo similar a la FDA. [Food and Drug Administration]. Entonces, para mí, no es tan simple como crear un conjunto de datos más diverso y las cosas están arregladas”.

Ella está en lo correcto. En primer lugar, necesitamos regulación. La IA es un juego nuevo y necesita reglas y árbitros. Sugirió que necesitáramos un equivalente de la FDA para la IA. En efecto, tanto la AAA como la ADPPA exigen que la FTC actúe en ese papel, pero en lugar de que la FDA se encargue de las presentaciones y aprobaciones de medicamentos, las grandes empresas tecnológicas y otros deberían enviar sus evaluaciones de impacto de la IA a la FTC para los sistemas de IA. Estas evaluaciones serían para sistemas de inteligencia artificial en áreas de alto impacto como vivienda, empleo y crédito, lo que nos ayudaría a abordar mejor la línea roja digital. Por lo tanto, estos proyectos de ley fomentan la rendición de cuentas y la transparencia necesarias para los consumidores.

En el otoño de 2022, la Oficina de Política Científica y Tecnológica (OSTP) de la administración Biden incluso propuso un “Plan para una Declaración de Derechos de la IA”. Las protecciones incluyen el derecho a «saber que se está utilizando un sistema automatizado y comprender cómo y por qué contribuye a los resultados que le impactan». Esta es una gran idea y podría incorporarse a las responsabilidades de reglamentación que tendría la FTC si se aprobara la AAA o la ADPPA. La cuestión es que la IA no debería ser una completa caja negra para los consumidores, y los consumidores deberían tener derecho a saber y objetar, de forma muy similar a como deberían tenerlo con la recopilación y el procesamiento de sus datos personales. Además, los consumidores deberían tener derecho a emprender acciones privadas si los sistemas basados ​​en IA les perjudican. Y los sitios web con una cantidad significativa de texto e imágenes generados por IA deberían tener el equivalente a una etiqueta nutricional de los alimentos para permitirnos saber qué es el contenido generado por IA versus el generado por humanos.

También necesitamos certificaciones de IA. Por ejemplo, la industria financiera cuenta con contadores públicos certificados (CPA) acreditados y auditorías y declaraciones financieras certificadas, por lo que deberíamos tener el equivalente para la IA. Y necesitamos códigos de conducta en el uso de la IA, así como estándares de la industria. Por ejemplo, la Organización Internacional de Normalización (ISO) publica estándares de gestión de calidad que las organizaciones pueden cumplir en materia de ciberseguridad, seguridad alimentaria, etc. Afortunadamente, un grupo de trabajo con ISO ha comenzado a desarrollar un nuevo estándar para la gestión de riesgos de la IA. Y en otro acontecimiento positivo, el Instituto Nacional de Estándares y Tecnología (NIST) publicó su marco inicial para la gestión de riesgos de la IA en enero de 2023.

Debemos recordar a las empresas que tengan equipos de diseño más diversos e inclusivos que creen IA. Como dijo Olga Russakovsky, profesora asistente en el Departamento de Ciencias de la Computación de la Universidad de Princeton: «Hay muchas oportunidades para diversificar este grupo [of people building AI systems]Y a medida que crezca la diversidad, los propios sistemas de IA se volverán menos sesgados”.

A medida que los reguladores y legisladores profundizan en las cuestiones antimonopolio que afectan a las grandes empresas tecnológicas, no se debe pasar por alto la IA. Parafraseando a Wayne Gretzky, los reguladores deben decidir hacia dónde va el disco, no hacia dónde ha estado. La IA es hacia donde va el disco en tecnología. Por lo tanto, las adquisiciones de empresas de inteligencia artificial por parte de grandes empresas tecnológicas deberían examinarse más de cerca. Además, el gobierno debería considerar exigir propiedad intelectual abierta para la IA. Por ejemplo, esto podría seguir el modelo del decreto de consentimiento federal de 1956 con Bell que exigía que Bell otorgara licencias de todas sus patentes libres de regalías a otras empresas. Esto condujo a innovaciones increíbles como el transistor, la célula solar y el láser. No es saludable para nuestra economía tener el futuro de la tecnología concentrado en manos de unas pocas empresas.

Por último, nuestra sociedad y nuestra economía deben prepararse mejor para el impacto de la IA en el desplazamiento de trabajadores a través de la automatización. Sí, necesitamos preparar a nuestros ciudadanos con una mejor educación y capacitación para nuevos empleos en un mundo de IA. Pero debemos ser inteligentes al respecto, ya que no podemos decir que volvamos a capacitar a todos para que sean desarrolladores de software, porque solo algunos tienen esa habilidad o interés. Tenga en cuenta también que la IA se construye cada vez más para automatizar el desarrollo de programas de software, por lo que incluso saber qué habilidades de software se deben enseñar en un mundo de IA es fundamental. Como señaló el economista Joseph E. Stiglitz, hemos tenido problemas para gestionar cambios de menor escala en la tecnología y la globalización que han llevado a la polarización y al debilitamiento de nuestra democracia, y los cambios de la IA son más profundos. Por lo tanto, debemos prepararnos para eso y asegurarnos de que la IA sea netamente positiva para la sociedad.

Dado que las grandes empresas tecnológicas lideran el avance de la IA, garantizar que sus efectos sean positivos debería comenzar por ellas. La IA es increíblemente poderosa, y las grandes empresas tecnológicas están “comprometidas” con la IA, pero la IA está plagada de riesgos si se introduce sesgo o si se construye para explotar. Y como documenté, las grandes empresas tecnológicas han tenido problemas con el uso de la IA. Esto significa que no solo es una amenaza la profundidad y amplitud de la recopilación de nuestros datos confidenciales, sino que también es amenazante la forma en que las grandes empresas tecnológicas utilizan la IA para procesar estos datos y tomar decisiones automatizadas.

Por lo tanto, de la misma manera que debemos contener la vigilancia digital, también debemos asegurarnos de que las grandes empresas tecnológicas no abran la caja de Pandora con la IA.

Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, es posible que ganemos una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.



Source link-47