¿Podemos ‘nosotros, la gente’ mantener la IA bajo control? • TechCrunch


El tecnólogo e investigador Aviv Ovadya no está seguro de que la IA generativa pueda ser gobernada, pero cree que la forma más plausible de mantenerla bajo control podría ser confiarles a aquellos que se verán afectados por la IA que decidan colectivamente las formas de frenarla.

Eso significa tu; significa yo Es el poder de las grandes redes de personas para resolver problemas de forma más rápida y equitativa de lo que podría hacerlo un pequeño grupo de personas por sí solo (incluso, por ejemplo, en Washington). Se basa esencialmente en la sabiduría de las multitudes, y está sucediendo en muchos campos, incluida la investigación científica, los negocios, la política y los movimientos sociales.

En Taiwán, por ejemplo, piratas informáticos con mentalidad cívica formaron en 2015 una plataforma, «Taiwán virtual», que «reúne a representantes de los sectores público, privado y social para debatir soluciones políticas a problemas principalmente relacionados con la economía digital», como se explicó. en 2019 por la ministra digital de Taiwán, Audrey Tang en el New York Times. Desde entonces, vTaiwan, como se le conoce, ha abordado docenas de problemas “basándose en una combinación de debate en línea y discusiones cara a cara con las partes interesadas”, escribió Tang en ese momento.

Una iniciativa similar es la Revisión de la iniciativa ciudadana de Oregón, que se convirtió en ley en 2011 e informa a la población votante del estado sobre las medidas electorales a través de un «proceso deliberativo» impulsado por los ciudadanos. Aproximadamente 20 a 25 ciudadanos que son representativos de todo el electorado de Oregón se reúnen para debatir los méritos de una iniciativa; luego escriben colectivamente una declaración sobre esa iniciativa que se envía a los demás votantes del estado para que puedan tomar decisiones mejor informadas los días de las elecciones.

Los llamados procesos deliberativos también han ayudado con éxito a abordar problemas en Australia (política de agua), Canadá (reforma electoral), Chile (pensiones y atención médica) y Argentina (vivienda, propiedad de la tierra), entre otros lugares.

“Hay obstáculos para hacer que esto funcione” en lo que respecta a la IA, reconoce Ovadya, afiliado al Centro Berkman Klein de Harvard y cuyo trabajo se centra cada vez más en los impactos de la IA en la sociedad y la democracia. “Pero empíricamente, esto se ha hecho en todos los continentes del mundo, en todas las escalas” y “cuanto más rápido podamos implementar algunas de estas cosas, mejor”, señala.

Permitir que grandes secciones representativas de personas decidan sobre pautas aceptables para la IA puede sonar extraño para algunos, tal vez incluso imposible.

Sin embargo, Ovadya no es el único que piensa que la solución está en gran parte arraigada en la sociedad. Mira Murati, directora de tecnología de la destacada startup de inteligencia artificial OpenAI, dijo a la revista Time en una entrevista reciente: “[W[e’re a small group of people and we need a ton more input in this system and a lot more input that goes beyond the technologies— definitely regulators and governments and everyone else.”

Murati isn’t worried that government involvement will slow innovation, or that it’s too early for policymakers and regulators to get involved, she told the outlet when asked about these things. On the contrary, as OpenAI has been saying for years, the time for action is today, not tomorrow. “It’s very important for everyone to start getting involved given the impact these technologies are going to have,” she said.

For now, OpenAI is taking a self-governing approach, instituting and revisiting guidelines for the safe use of its tech and pushing out new iterations in dribs and drabs.

The European Union has meanwhile been drafting a regulatory framework — AI Act — that’s making its way through the European Parliament and aims to become a global standard. The law would assign applications of AI to three risk categories: applications and systems that create an “unacceptable risk”; “high-risk applications” that would be subject to specific legal requirements; and applications not explicitly banned or listed as high-risk that would largely be left unregulated.

The U.S. Department of Commerce has also drafted a voluntary framework meant as guidance for companies, yet amazingly, there remains no regulation– zilcho — despite that it’s sorely needed. (In addition to OpenAI, tech behemoths like Microsoft and Google  — burned by earlier releases of their own AI that backfired — are very publicly racing again to roll out AI-infused products and applications. Like OpenAI, they are also trying to figure out their own tweaks and guardrails.)

A kind of World Wide Web consortium, an international organization created in 1994 to set standards for the World Wide Web, would seemingly make sense. Indeed, Murati told Time that “different voices, like philosophers, social scientists, artists, and people from the humanities” should be brought together to answer the many “ethical and philosophical questions that we need to consider.”

Newer tools that help people vote on issues could also potentially help. Open AI CEO Sam Altman is also a cofounder, for example, of a retina-scanning company in Berlin called WorldCoin that wants to make it easy to authenticate someone’s identity easily. Questions have been raised about the privacy and security implications of WorldCoin’s biometric approach, but its potential applications include distributing a global universal basic income, as well as empowering new forms of digital democracy.

Either way, Ovadya is busily trying to persuade all the major AI players that collective intelligence is the way to quickly create boundaries around AI while also giving them needed credibility. Take OpenAI, says Ovadya. “It’s getting some flack right now from everyone,” including over its perceived liberal bias. “It would be helpful [for the company] tener una respuesta realmente concreta” sobre cómo establece sus políticas futuras.

Ovadya apunta de manera similar a Stability.AI, la empresa de IA de código abierto cuyo director ejecutivo, Emad Mostaque, ha sugerido repetidamente que Stability es más democrático que OpenAI porque está disponible en todas partes, mientras que OpenAI está disponible solo en países en este momento donde puede proporcionar » acceso seguro.”

Dice Ovadya: “Emad de Stability dice que está ‘democratizando la IA’. Bien, ¿No sería bueno usar procesos democráticos para descubrir qué es lo que la gente realmente quiere?”.



Source link-48