Por qué la regulación inteligente de IA es vital para la innovación y el liderazgo de EE. UU.


Cuando era adolescente, me sumergí en la ciencia ficción. Si bien las visiones de muchas películas y novelas no se han hecho realidad, todavía me sorprende la capacidad del legendario escritor Isaac Asimov para imaginar un futuro de inteligencia artificial y robótica. Ahora, en medio de todo el alboroto en torno a la IA generativa y otras herramientas de IA, es hora de que sigamos el ejemplo de Asimov y escribamos un nuevo conjunto de reglas.

Por supuesto, las reglas de IA para el siglo XXI no serán tan simples como las tres reglas de robótica de Asimov (popularizadas en “Yo, robot”). Pero en medio de la ansiedad por el auge de las herramientas de IA y un impulso equivocado para una moratoria en la investigación avanzada de IA, la industria puede y debe impulsar reglas para el desarrollo responsable de IA. Ciertamente, los avances tecnológicos del siglo pasado nos han brindado mucha experiencia en la evaluación tanto de los beneficios del progreso tecnológico como de los peligros potenciales.

La tecnología en sí es neutral. Es cómo lo usamos, y las barandillas que instalamos a su alrededor, lo que determina su impacto. Como humanos, aprovechar el poder del fuego nos permitió mantenernos calientes y extender el tiempo de almacenamiento de alimentos. Pero el fuego todavía puede ser destructivo.

Piense en cómo los recientes incendios forestales canadienses amenazaron vidas y propiedades en Canadá y dañaron la calidad del aire de los EE. UU. La energía nuclear en forma de bombas atómicas mató a miles en Japón durante la Segunda Guerra Mundial, pero la energía nuclear ilumina gran parte de Francia y alimenta a los portaaviones estadounidenses.

Estamos en un momento crucial para el futuro de una tecnología sorprendente, compleja y consecuente. No podemos darnos el lujo de dejar que otros países tomen la iniciativa.

En el caso de la IA, las nuevas herramientas y plataformas pueden resolver grandes problemas globales y crear conocimiento valioso. En una reunión reciente de directores de información del área de Detroit, los asistentes compartieron cómo la IA generativa ya está acelerando el tiempo de comercialización y haciendo que sus empresas sean más competitivas.

La IA generativa nos ayudará a “escuchar” a diferentes especies animales. La IA mejorará nuestra salud al apoyar el descubrimiento de fármacos y el diagnóstico de enfermedades. Herramientas similares brindan de todo, desde atención personalizada para personas mayores hasta una mejor seguridad para nuestros hogares. Además, la IA mejorará nuestra productividad, con un nuevo estudio de McKinsey que muestra que la IA generativa podría impulsar la economía global en $ 4,4 billones anuales.

Con toda esta posibilidad, ¿una tecnología tan sorprendente también puede ser mala? Algunas de las preocupaciones sobre las plataformas de IA son legítimas. Deberíamos preocuparnos por el riesgo de falsificaciones profundas, manipulación política y fraude dirigido a poblaciones vulnerables, pero también podemos usar la IA para reconocer, interceptar y bloquear intrusiones cibernéticas dañinas. Tanto las barreras como las soluciones pueden ser difíciles y complejas, y debemos trabajar en ellas.

Algunos también pueden ser simples; ya vemos escuelas experimentando con exámenes orales para probar el conocimiento de un estudiante. Abordar esos problemas de frente, en lugar de esconder la cabeza en la arena con una pausa en la investigación que sería imposible de hacer cumplir y propicia para la explotación por parte de malos actores, posicionará a Estados Unidos como líder en el escenario mundial.

Si bien el enfoque de EE. UU. hacia la IA ha sido mixto, otros países parecen estar atrapados en una estampida hiperregulatoria. La UE está al borde de aprobar una Ley de IA de gran alcance que exigiría que las empresas pidan permiso para innovar. En la práctica, eso significaría que solo el gobierno o las grandes empresas con las finanzas y la capacidad para pagar el laberinto de certificación que cubre la privacidad, la propiedad intelectual y una serie de requisitos de protección social podrían desarrollar nuevas herramientas de IA.

Un estudio reciente de la Universidad de Stanford también encontró que el proyecto de ley de IA de la UE prohibiría todos los modelos de lenguajes grandes existentes actualmente, incluidos GPT-4 de OpenAI y Bard de Google. Los legisladores canadienses están avanzando en un proyecto de ley de IA demasiado amplio que podría sofocar la innovación de manera similar. Lo más preocupante es que China está persiguiendo rápidamente el dominio civil y militar de la IA a través del apoyo masivo del gobierno. Además, tiene una visión diferente de los derechos humanos y la protección de la privacidad que puede ayudar a sus esfuerzos de inteligencia artificial, pero es la antítesis de nuestros valores. Estados Unidos debe actuar para proteger a los ciudadanos y promover la innovación en IA o nos quedaremos atrás.

Como se veria eso? Para empezar, EE. UU. necesita un proyecto de ley de privacidad federal preventivo. El mosaico actual de reglas estado por estado significa que los datos se tratan de manera diferente cada vez que «cruzan» una frontera invisible, lo que genera confusión y obstáculos de cumplimiento para las pequeñas empresas. Necesitamos una ley nacional de privacidad con pautas y estándares claros sobre cómo las empresas recopilan, usan y comparten datos. También ayudaría a crear transparencia para los consumidores y garantizaría que las empresas puedan fomentar la confianza a medida que crece la economía digital.

También necesitamos un conjunto de principios en torno al uso responsable de la IA. Si bien prefiero menos regulación, la gestión de tecnologías emergentes como la IA requiere reglas claras que establezcan cómo se puede desarrollar e implementar esta tecnología. Con las nuevas innovaciones en IA que se revelan casi a diario, los legisladores deben centrarse en las barreras y los resultados, en lugar de intentar controlar tecnologías específicas.

Las reglas también deben considerar el nivel de riesgo, centrándose en los sistemas de inteligencia artificial que podrían dañar significativamente los derechos fundamentales de los estadounidenses o el acceso a servicios críticos. A medida que nuestro gobierno determina qué aspecto tiene una «buena política», la industria tendrá un papel vital que desempeñar. La Consumer Technology Association está trabajando en estrecha colaboración con la industria y los legisladores para desarrollar principios unificados para el uso de IA.

Estamos en un momento crucial para el futuro de una tecnología sorprendente, compleja y consecuente. No podemos darnos el lujo de dejar que otros países tomen la iniciativa.



Source link-48