No tenemos que reinventar la rueda para regular la IA de manera responsable


Estamos viviendo una de las revoluciones tecnológicas más transformadoras del siglo pasado. Por primera vez desde el auge tecnológico de la década de 2000 (o incluso desde la Revolución Industrial), nuestras funciones sociales esenciales están siendo perturbadas por herramientas que algunos consideran innovadoras e inquietantes para otros. Si bien los beneficios percibidos seguirán polarizando a la opinión pública, hay poco debate sobre el impacto generalizado de la IA en el futuro del trabajo y las comunicaciones.

Los inversores institucionales tienden a estar de acuerdo. Solo en los últimos tres años, la inversión de capital de riesgo en IA generativa ha aumentado un 425%, alcanzando hasta 4.500 millones de dólares en 2022, según PitchBook. Esta reciente locura por la financiación está impulsada principalmente por una convergencia tecnológica generalizada entre diferentes industrias. Gigantes de la consultoría como KPMG y Accenture están invirtiendo miles de millones en IA generativa para reforzar los servicios a sus clientes. Las aerolíneas están utilizando nuevos modelos de inteligencia artificial para optimizar su oferta de rutas. Incluso las empresas de biotecnología utilizan ahora la IA generativa para mejorar las terapias con anticuerpos para enfermedades potencialmente mortales.

Naturalmente, esta tecnología disruptiva ha entrado en el radar regulatorio, y rápidamente. Figuras como Lina Khan, de la Comisión Federal de Comercio, han argumentado que la IA plantea graves riesgos sociales en todos los sectores verticales, citando una mayor incidencia de fraude, discriminación automatizada e inflación de precios colusoria si no se controla.

Quizás el ejemplo más discutido del foco regulatorio de la IA sea el reciente testimonio de Sam Altman ante el Congreso, donde argumentó que “la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos”. Como director ejecutivo de una de las empresas emergentes de inteligencia artificial más grandes del mundo, Altman se ha comprometido rápidamente con los legisladores para garantizar que la cuestión de la regulación evolucione hacia una discusión entre los sectores público y privado. Desde entonces, se unió a otros líderes de la industria para escribir una carta abierta conjunta en la que afirman que «[m]itigar el riesgo de extinción debido a la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Naturalmente, esta tecnología disruptiva ha entrado en el radar regulatorio, y rápidamente.

Tecnólogos como Altman y reguladores como Khan coinciden en que la regulación es fundamental para garantizar aplicaciones tecnológicas más seguras, pero ninguna de las partes tiende a decidirse en cuanto a su alcance. Generalmente, los fundadores y empresarios buscan restricciones limitadas para proporcionar un entorno económico propicio a la innovación, mientras que los funcionarios gubernamentales luchan por imponer límites más amplios para proteger a los consumidores.

Sin embargo, ambas partes no se dan cuenta de que en algunas áreas la regulación ha ido viento en popa durante años. La llegada de Internet, los motores de búsqueda y las redes sociales marcó el comienzo de una ola de supervisión gubernamental como la Ley de Telecomunicaciones, la Ley de Protección de la Privacidad Infantil en Línea (COPPA) y la Ley de Privacidad del Consumidor de California (CCPA). En lugar de instituir un marco amplio y general de políticas restrictivas que posiblemente obstaculicen la innovación tecnológica, Estados Unidos mantiene un mosaico de políticas que incorporan leyes fundamentales de larga data como propiedad intelectual, privacidad, contratos, acoso, cibercrimen, protección de datos y ciberseguridad. .

Estos marcos a menudo se inspiran en estándares tecnológicos establecidos y bien aceptados y promueven su adopción y uso en servicios y tecnologías incipientes. También aseguran la existencia de organizaciones confiables que apliquen estos estándares a nivel operativo.

Tomemos como ejemplo los protocolos Secure Sockets Layer (SSL)/Transport Layer Security (TLS). En esencia, SSL/TLS son protocolos de cifrado que garantizan que los datos transferidos entre navegadores y servidores permanezcan seguros (lo que permite el cumplimiento de los mandatos de cifrado de la CCPA, el Reglamento general de protección de datos de la UE, etc.). Esto se aplica a la información del cliente, los detalles de la tarjeta de crédito y todas las formas de datos personales que los actores maliciosos puedan explotar. Los certificados SSL son emitidos por autoridades certificadoras (CA), que sirven como validadores para demostrar que la información que se transfiere es genuina y segura.

La misma relación simbiótica puede y debe existir para la IA. Seguir estándares de licencia agresivos por parte de entidades gubernamentales paralizará la industria y solo beneficiará a los actores más utilizados como OpenAI, Google y Meta, creando un entorno anticompetitivo. Un estándar de certificación similar a SSL, liviano y fácil de usar, regido por CA independientes protegería los intereses de los consumidores y al mismo tiempo dejaría espacio para la innovación.

Se podrían hacer para mantener el uso de la IA transparente para los consumidores y dejar claro si se está operando un modelo, qué modelo fundamental está en juego y si se originó a partir de una fuente confiable. En tal escenario, el gobierno todavía tiene un papel que desempeñar al cocrear y promover dichos protocolos para convertirlos en estándares ampliamente utilizados y aceptados.

A nivel fundamental, la regulación existe para proteger fundamentos básicos como la privacidad del consumidor, la seguridad de los datos y la propiedad intelectual, no para frenar la tecnología con la que los usuarios eligen interactuar a diario. Estos fundamentos ya están protegidos en Internet y pueden protegerse con IA utilizando estructuras similares.

Desde la llegada de Internet, la regulación ha logrado mantener un punto medio entre la protección del consumidor y la innovación incentivada, y los actores gubernamentales no deberían adoptar un enfoque diferente simplemente por el rápido desarrollo tecnológico. Regular la IA no debería ser reinventar la rueda, independientemente del discurso político polarizado.



Source link-48