El «daño significativo» de la IA es necesario antes de la regulación, dice el ejecutivo de Microsoft


Mientras los legisladores de todo el mundo intentan entender cómo regular las tecnologías de IA que avanzan rápidamente, el economista jefe de Microsoft, Michael Schwarz, dijo hoy a los asistentes a la Cumbre sobre el Crecimiento del Foro Económico Mundial que «no deberíamos regular la IA hasta que veamos algún daño significativo que realmente está ocurriendo, no imaginario». escenarios».

Los comentarios llegaron aproximadamente 45 minutos después de un panel llamado «Puntos críticos de crecimiento: aprovechar la revolución de la IA generativa». En reacción, otro orador destacado, el presentador de CNN Zain Asher, detuvo a Schwarz para preguntar: «Espera, ¿debemos esperar hasta que veamos el daño antes de regularlo?».

Panel de la Cumbre de Crecimiento del Foro Económico Mundial 2023 «Puntos críticos de crecimiento: aprovechar la revolución de la IA generativa».

«Yo diría que sí», dijo Schwarz, comparando la regulación de la IA antes de que se provoque «un poco de daño» con la aprobación de las leyes de licencias de conducir antes de que las personas mueran en accidentes automovilísticos.

«La primera vez que empezamos a exigir licencias de conducir, fue después de que muchas docenas de personas murieran en accidentes automovilísticos, ¿verdad?» dijo Schwarz. «Y eso fue lo correcto», porque «si hubieras requerido licencias de conducir cuando había los dos primeros autos en la carretera», entonces «habríamos estropeado por completo esa regulación».

Aparentemente, en opinión de Schwarz, el costo de las regulaciones, tal vez la pérdida de innovación, no debería ser mayor que los beneficios.

«Tiene que haber al menos un poco de daño, para que podamos ver cuál es el verdadero problema», explicó Schwarz. «¿Hay un problema real? ¿Alguien sufrió daños por valor de al menos mil dólares debido a eso? ¿Deberíamos saltar para regular algo en un planeta de 8 mil millones de personas cuando no hay ni siquiera mil dólares en daños? Por supuesto no.»

Los legisladores se apresuran a redactar reglamentos de IA que reconozcan el daño pero no amenacen el progreso de la IA. El año pasado, la Comisión Federal de Comercio de EE. UU. (FTC, por sus siglas en inglés) advirtió al Congreso que los legisladores deberían tener «gran precaución» al redactar soluciones de políticas de IA. La FTC considera los daños como casos en los que «las herramientas de IA pueden ser inexactas, sesgadas y discriminatorias por diseño e incentivar el uso de formas cada vez más invasivas de vigilancia comercial». Más recientemente, la Casa Blanca publicó un plan para una Declaración de derechos de la IA, que describe algunos resultados del uso de la IA como «profundamente dañinos», pero «no inevitables».

Para garantizar que se evitaran los daños prevenibles, la administración de Biden brindó orientación para evitar que los sistemas automatizados impacten significativamente «los derechos, las oportunidades o el acceso del público a necesidades críticas». Justo hoy, los legisladores europeos acordaron redactar reglas de IA más estrictas en lo que podría convertirse en la primera legislación integral de IA del mundo, informó Reuters. Estas reglas clasificarían las herramientas de IA por niveles de riesgo, para que los países puedan proteger los derechos civiles sin dañar la importante innovación y el progreso de la IA.

Sin embargo, Schwarz pareció descartar la urgencia de la prisa de los legisladores por prevenir daños a los derechos civiles, sugiriendo en cambio que prevenir daños monetarios debería ser el objetivo de las regulaciones y que aparentemente no hay necesidad de eso todavía.

«No se establece una regulación para evitar un daño de mil dólares, cuando la misma regulación evita un beneficio de un millón de dólares para las personas en todo el mundo», dijo Schwarz.

Por supuesto, ya ha habido demandas por daños y perjuicios por parte de los fabricantes de herramientas de IA, como una demanda colectiva por derechos de autor contra los generadores de imágenes Stability AI y Midjourney y otras demandas que causaron un terremoto legal en la IA. La fuga de datos de ChatGPT de OpenAI provocó que Italia prohibiera temporalmente el generador de voz, preocupado por la privacidad de los datos de los usuarios italianos, y un alcalde australiano amenazó con una demanda por difamación después de que ChatGPT afirmara falsamente que había ido a prisión.

Schwarz no parece estar totalmente en contra de las regulaciones de la IA, pero dice que, como economista, le gusta la eficiencia y querría leyes para equilibrar los costos y las ganancias de la IA. Aproximadamente a los seis minutos del panel, Schwarz advirtió que «la IA será utilizada por malos actores» y «causará un daño real», y dijo que las empresas deben ser «muy cuidadosas y muy atentas» cuando se trata de desarrollar tecnologías de IA. También dijo que «si podemos imponer una regulación que cause más bien que mal, por supuesto, debemos imponerla».

Microsoft es un inversionista en OpenAI, y durante el panel, se le preguntó a Schwarz cómo se superponen las visiones de Microsoft y OpenAI.

«Creo que ambas compañías están realmente comprometidas a garantizar que la IA sea segura, que la IA se use para el bien y no para el mal», dijo Schwarz. «Tenemos que preocuparnos mucho por la seguridad de esta tecnología, al igual que con cualquier otra tecnología».

Microsoft y OpenAI no respondieron de inmediato a la solicitud de comentarios de Ars. [Update: A Microsoft spokesperson told Ars that as AI technology advances, increased regulatory scrutiny is appropriate, noting that until laws are passed, Microsoft is working to address the most high-risk and sensitive AI uses. «We are optimistic about the future of AI, and we think AI advances will solve many more challenges than they present, but we have also been consistent in our belief that when you create technologies that can change the world, you must also ensure that the technology is used responsibly,» Microsoft’s spokesperson said. «Microsoft has long said that we need laws regulating AI and as we move into this new era, all of us building, deploying and using AI have a collective obligation to do so responsibly.»]



Source link-49