Todo el mundo quiere regular la IA. Nadie puede ponerse de acuerdo en cómo


Estoy de acuerdo con cada uno de esos puntos, que potencialmente pueden guiarnos sobre los límites reales que podríamos considerar para mitigar el lado oscuro de la IA. Cosas como compartir lo que implica entrenar grandes modelos de lenguaje como los que están detrás de ChatGPT y permitir la exclusión voluntaria para aquellos que no quieren que su contenido sea parte de lo que los LLM presentan a los usuarios. Reglas contra el sesgo incorporado. Leyes antimonopolio que impiden que algunas empresas gigantes creen una camarilla de inteligencia artificial que homogeneiza (y monetiza) prácticamente toda la información que recibimos. Y la protección de su información personal tal como la utilizan esos productos de inteligencia artificial sabelotodo.

Pero leer esa lista también destaca la dificultad de convertir sugerencias edificantes en una ley vinculante real. Cuando observa de cerca los puntos del plan de la Casa Blanca, está claro que no solo se aplican a la IA, sino a casi todo en tecnología. Cada uno parece encarnar un derecho de usuario vulnerado desde siempre. La gran tecnología no estaba esperando a que la IA generativa desarrollara algoritmos inequitativos, sistemas opacos, prácticas abusivas de datos y falta de opciones de exclusión. Eso es lo que está en juego, amigo, y el hecho de que estos problemas se mencionen en una discusión sobre una nueva tecnología solo resalta la falla en proteger a los ciudadanos contra los efectos nocivos de nuestra tecnología actual.

Durante esa audiencia en el Senado en la que habló Altman, senador tras senador cantaron el mismo estribillo: Lo arruinamos cuando se trataba de regular las redes sociales, así que no nos equivoquemos con la IA. Pero no existe un estatuto de limitaciones en la elaboración de leyes para frenar los abusos anteriores. La última vez que miré, miles de millones de personas, incluidas casi todas las personas en los EE. UU. que tienen los medios para tocar la pantalla de un teléfono inteligente, todavía están en las redes sociales, intimidadas, comprometidas con la privacidad y expuestas a los horrores. Nada impide que el Congreso sea más duro con esas empresas y, sobre todo, apruebe una legislación sobre privacidad.

El hecho de que el Congreso no haya hecho esto arroja serias dudas sobre las perspectivas de un proyecto de ley de IA. No es de extrañar que ciertos reguladores, en particular la presidenta de la FTC, Lina Khan, no estén esperando nuevas leyes. Ella afirma que la ley actual otorga a su agencia mucha jurisdicción para abordar los problemas de parcialidad, comportamiento anticompetitivo e invasión de la privacidad que presentan los nuevos productos de IA.

Mientras tanto, la dificultad de elaborar nuevas leyes y la enormidad del trabajo que queda por hacer se destacó esta semana cuando la Casa Blanca emitió una actualización sobre la Declaración de derechos de AI. Explicó que la administración de Biden está sudando mucho para idear una estrategia nacional de IA. Pero aparentemente las “prioridades nacionales” en esa estrategia aún no están definidas.

Ahora, la Casa Blanca quiere que las empresas tecnológicas y otras partes interesadas en la IA, junto con el público en general, envíen respuestas a 29 preguntas sobre los beneficios y riesgos de la IA. Así como el subcomité del Senado le pidió a Altman y sus compañeros panelistas que sugirieran un camino a seguir, la administración está pidiendo ideas a las corporaciones y al público. En su solicitud de información, la Casa Blanca promete «considerar cada comentario, ya sea que contenga una narrativa personal, experiencias con sistemas de inteligencia artificial o materiales técnicos, legales, de investigación, políticos o científicos, u otro contenido». (Respiré aliviado al ver que no se solicitan comentarios de modelos de idiomas grandes, aunque estoy dispuesto a apostar que GPT-4 será un gran contribuyente a pesar de esta omisión).



Source link-46