{"id":788194,"date":"2023-08-27T14:56:58","date_gmt":"2023-08-27T14:56:58","guid":{"rendered":"https:\/\/magazineoffice.com\/golpeando-los-libros-por-que-la-ia-necesita-regulacion-y-como-podemos-hacerlo\/"},"modified":"2023-08-27T14:57:04","modified_gmt":"2023-08-27T14:57:04","slug":"golpeando-los-libros-por-que-la-ia-necesita-regulacion-y-como-podemos-hacerlo","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/golpeando-los-libros-por-que-la-ia-necesita-regulacion-y-como-podemos-hacerlo\/","title":{"rendered":"Golpeando los libros: por qu\u00e9 la IA necesita regulaci\u00f3n y c\u00f3mo podemos hacerlo"},"content":{"rendered":"


\n<\/p>\n

\n

La floreciente industria de la IA ha superado la parte de su desarrollo de \u00abactuar r\u00e1pido\u00bb y ha llegado directamente a la parte en la que \u00abrompemos cosas\u00bb, \u00a1como la sociedad! Desde el lanzamiento de ChatGPT en noviembre pasado, los sistemas de IA generativa han arrasado en el mundo digital, encontrando uso en todo, desde codificaci\u00f3n autom\u00e1tica y aplicaciones industriales hasta dise\u00f1o de juegos y entretenimiento virtual. Tambi\u00e9n se adopt\u00f3 r\u00e1pidamente con fines il\u00edcitos, como ampliar las operaciones de correo electr\u00f3nico no deseado y crear deepfakes. <\/p>\n

Se trata de un genio tecnol\u00f3gico que nunca volveremos a meter en su botella, as\u00ed que ser\u00e1 mejor que trabajemos para regularlo, sostiene Tom Kemp, autor, empresario, inversor y asesor pol\u00edtico radicado en Silicon Valley, en su nuevo libro: Contener a las grandes tecnolog\u00edas: c\u00f3mo proteger nuestros derechos civiles, nuestra econom\u00eda y nuestra democracia<\/em>. <\/em>En el siguiente extracto, Kemp explica qu\u00e9 forma podr\u00eda adoptar esa regulaci\u00f3n y qu\u00e9 significar\u00eda su aplicaci\u00f3n para los consumidores. <\/p>\n

<\/p>\n

\n

Prensa r\u00e1pida de la empresa<\/p>\n<\/figure>\n

Extracto de <\/em>Contener a las grandes tecnolog\u00edas: c\u00f3mo proteger nuestros derechos civiles, nuestra econom\u00eda y nuestra democracia (IT Rev, 22 de agosto de 2023)<\/em><\/strong>de Tom Kemp.<\/em><\/p>\n\n

Hoja de ruta para contener la IA<\/strong><\/p>\n

Pandora en el mito griego trajo regalos poderosos pero tambi\u00e9n desat\u00f3 poderosas plagas y males. De la misma manera, con la IA, debemos aprovechar sus beneficios pero mantener los da\u00f1os potenciales que la IA puede causar a los humanos dentro de la proverbial caja de Pandora.<\/p>\n

Cuando el Dr. Timnit Gebru, fundador del Instituto de Investigaci\u00f3n de Inteligencia Artificial Distribuida (DAIR), fue preguntado por el New York Times<\/em> Con respecto a c\u00f3mo enfrentar el sesgo de la IA, respondi\u00f3 en parte con esto: \u201cNecesitamos tener principios y est\u00e1ndares, y \u00f3rganos rectores, y personas que voten sobre cosas y algoritmos que se est\u00e1n verificando, algo similar a la FDA. [Food and Drug Administration]. Entonces, para m\u00ed, no es tan simple como crear un conjunto de datos m\u00e1s diverso y las cosas est\u00e1n arregladas\u201d.<\/p>\n

Ella est\u00e1 en lo correcto. En primer lugar, necesitamos regulaci\u00f3n. La IA es un juego nuevo y necesita reglas y \u00e1rbitros. Sugiri\u00f3 que necesit\u00e1ramos un equivalente de la FDA para la IA. En efecto, tanto la AAA como la ADPPA exigen que la FTC act\u00fae en ese papel, pero en lugar de que la FDA se encargue de las presentaciones y aprobaciones de medicamentos, las grandes empresas tecnol\u00f3gicas y otros deber\u00edan enviar sus evaluaciones de impacto de la IA a la FTC para los sistemas de IA. Estas evaluaciones ser\u00edan para sistemas de inteligencia artificial en \u00e1reas de alto impacto como vivienda, empleo y cr\u00e9dito, lo que nos ayudar\u00eda a abordar mejor la l\u00ednea roja digital. Por lo tanto, estos proyectos de ley fomentan la rendici\u00f3n de cuentas y la transparencia necesarias para los consumidores.<\/p>\n

En el oto\u00f1o de 2022, la Oficina de Pol\u00edtica Cient\u00edfica y Tecnol\u00f3gica (OSTP) de la administraci\u00f3n Biden incluso propuso un \u201cPlan para una Declaraci\u00f3n de Derechos de la IA\u201d. Las protecciones incluyen el derecho a \u00absaber que se est\u00e1 utilizando un sistema automatizado y comprender c\u00f3mo y por qu\u00e9 contribuye a los resultados que le impactan\u00bb. Esta es una gran idea y podr\u00eda incorporarse a las responsabilidades de reglamentaci\u00f3n que tendr\u00eda la FTC si se aprobara la AAA o la ADPPA. La cuesti\u00f3n es que la IA no deber\u00eda ser una completa caja negra para los consumidores, y los consumidores deber\u00edan tener derecho a saber y objetar, de forma muy similar a como deber\u00edan tenerlo con la recopilaci\u00f3n y el procesamiento de sus datos personales. Adem\u00e1s, los consumidores deber\u00edan tener derecho a emprender acciones privadas si los sistemas basados \u200b\u200ben IA les perjudican. Y los sitios web con una cantidad significativa de texto e im\u00e1genes generados por IA deber\u00edan tener el equivalente a una etiqueta nutricional de los alimentos para permitirnos saber qu\u00e9 es el contenido generado por IA versus el generado por humanos.<\/p>\n

Tambi\u00e9n necesitamos certificaciones de IA. Por ejemplo, la industria financiera cuenta con contadores p\u00fablicos certificados (CPA) acreditados y auditor\u00edas y declaraciones financieras certificadas, por lo que deber\u00edamos tener el equivalente para la IA. Y necesitamos c\u00f3digos de conducta en el uso de la IA, as\u00ed como est\u00e1ndares de la industria. Por ejemplo, la Organizaci\u00f3n Internacional de Normalizaci\u00f3n (ISO) publica est\u00e1ndares de gesti\u00f3n de calidad que las organizaciones pueden cumplir en materia de ciberseguridad, seguridad alimentaria, etc. Afortunadamente, un grupo de trabajo con ISO ha comenzado a desarrollar un nuevo est\u00e1ndar para la gesti\u00f3n de riesgos de la IA. Y en otro acontecimiento positivo, el Instituto Nacional de Est\u00e1ndares y Tecnolog\u00eda (NIST) public\u00f3 su marco inicial para la gesti\u00f3n de riesgos de la IA en enero de 2023.<\/p>\n

Debemos recordar a las empresas que tengan equipos de dise\u00f1o m\u00e1s diversos e inclusivos que creen IA. Como dijo Olga Russakovsky, profesora asistente en el Departamento de Ciencias de la Computaci\u00f3n de la Universidad de Princeton: \u00abHay muchas oportunidades para diversificar este grupo [of people building AI systems]Y a medida que crezca la diversidad, los propios sistemas de IA se volver\u00e1n menos sesgados\u201d.<\/p>\n

A medida que los reguladores y legisladores profundizan en las cuestiones antimonopolio que afectan a las grandes empresas tecnol\u00f3gicas, no se debe pasar por alto la IA. Parafraseando a Wayne Gretzky, los reguladores deben decidir hacia d\u00f3nde va el disco, no hacia d\u00f3nde ha estado. La IA es hacia donde va el disco en tecnolog\u00eda. Por lo tanto, las adquisiciones de empresas de inteligencia artificial por parte de grandes empresas tecnol\u00f3gicas deber\u00edan examinarse m\u00e1s de cerca. Adem\u00e1s, el gobierno deber\u00eda considerar exigir propiedad intelectual abierta para la IA. Por ejemplo, esto podr\u00eda seguir el modelo del decreto de consentimiento federal de 1956 con Bell que exig\u00eda que Bell otorgara licencias de todas sus patentes libres de regal\u00edas a otras empresas. Esto condujo a innovaciones incre\u00edbles como el transistor, la c\u00e9lula solar y el l\u00e1ser. No es saludable para nuestra econom\u00eda tener el futuro de la tecnolog\u00eda concentrado en manos de unas pocas empresas.<\/p>\n

Por \u00faltimo, nuestra sociedad y nuestra econom\u00eda deben prepararse mejor para el impacto de la IA en el desplazamiento de trabajadores a trav\u00e9s de la automatizaci\u00f3n. S\u00ed, necesitamos preparar a nuestros ciudadanos con una mejor educaci\u00f3n y capacitaci\u00f3n para nuevos empleos en un mundo de IA. Pero debemos ser inteligentes al respecto, ya que no podemos decir que volvamos a capacitar a todos para que sean desarrolladores de software, porque solo algunos tienen esa habilidad o inter\u00e9s. Tenga en cuenta tambi\u00e9n que la IA se construye cada vez m\u00e1s para automatizar el desarrollo de programas de software, por lo que incluso saber qu\u00e9 habilidades de software se deben ense\u00f1ar en un mundo de IA es fundamental. Como se\u00f1al\u00f3 el economista Joseph E. Stiglitz, hemos tenido problemas para gestionar cambios de menor escala en la tecnolog\u00eda y la globalizaci\u00f3n que han llevado a la polarizaci\u00f3n y al debilitamiento de nuestra democracia, y los cambios de la IA son m\u00e1s profundos. Por lo tanto, debemos prepararnos para eso y asegurarnos de que la IA sea netamente positiva para la sociedad.<\/p>\n

Dado que las grandes empresas tecnol\u00f3gicas lideran el avance de la IA, garantizar que sus efectos sean positivos deber\u00eda comenzar por ellas. La IA es incre\u00edblemente poderosa, y las grandes empresas tecnol\u00f3gicas est\u00e1n \u201ccomprometidas\u201d con la IA, pero la IA est\u00e1 plagada de riesgos si se introduce sesgo o si se construye para explotar. Y como document\u00e9, las grandes empresas tecnol\u00f3gicas han tenido problemas con el uso de la IA. Esto significa que no solo es una amenaza la profundidad y amplitud de la recopilaci\u00f3n de nuestros datos confidenciales, sino que tambi\u00e9n es amenazante la forma en que las grandes empresas tecnol\u00f3gicas utilizan la IA para procesar estos datos y tomar decisiones automatizadas.<\/p>\n

Por lo tanto, de la misma manera que debemos contener la vigilancia digital, tambi\u00e9n debemos asegurarnos de que las grandes empresas tecnol\u00f3gicas no abran la caja de Pandora con la IA. <\/p>\n

\n Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independiente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a trav\u00e9s de uno de estos enlaces, es posible que ganemos una comisi\u00f3n de afiliado. Todos los precios son correctos en el momento de la publicaci\u00f3n.<\/em>\n <\/p>\n<\/div>\n


\n
Source link-47<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"

La floreciente industria de la IA ha superado la parte de su desarrollo de \u00abactuar r\u00e1pido\u00bb y ha llegado directamente a la parte en la que \u00abrompemos cosas\u00bb, \u00a1como la…<\/p>\n","protected":false},"author":1,"featured_media":788195,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[21981],"tags":[216,24291,5118,6337,8,1897,1175,110,111,13793],"_links":{"self":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/788194"}],"collection":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/comments?post=788194"}],"version-history":[{"count":1,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/788194\/revisions"}],"predecessor-version":[{"id":788196,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/posts\/788194\/revisions\/788196"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media\/788195"}],"wp:attachment":[{"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/media?parent=788194"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/categories?post=788194"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/magazineoffice.com\/wp-json\/wp\/v2\/tags?post=788194"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}