3 formas de domesticar ChatGPT


Este año, hemos visto la introducción de poderosos sistemas generativos de inteligencia artificial que tienen la capacidad de crear imágenes y texto a pedido.

Al mismo tiempo, los reguladores están en movimiento. Europa se encuentra en medio de la finalización de su regulación de IA (la Ley de IA), cuyo objetivo es establecer reglas estrictas sobre los sistemas de IA de alto riesgo. Canadá, el Reino Unido, los EE. UU. y China han introducido sus propios enfoques para regular la IA de alto impacto. Pero la IA de propósito general parece ser una ocurrencia tardía en lugar del enfoque central. Cuando se propusieron las nuevas reglas regulatorias de Europa en abril de 2021, no hubo una sola mención de modelos fundamentales de propósito general, incluida la IA generativa. Apenas un año y medio después, nuestra comprensión del futuro de la IA ha cambiado radicalmente. Una exención injustificada de los modelos fundacionales actuales de estas propuestas convertiría las regulaciones de IA en tigres de papel que parecen poderosos pero no pueden proteger los derechos fundamentales.

ChatGPT hizo el Cambio de paradigma de IA tangible. Ahora, algunos modelos, como GPT-3, DALL-E, Stable Diffusion y AlphaCode, se están convirtiendo en la base de casi todos los sistemas basados ​​en IA. Las nuevas empresas de IA pueden ajustar los parámetros de estos modelos fundamentales para adaptarse mejor a sus tareas específicas. De esta manera, los modelos fundacionales pueden alimentar una gran cantidad de aplicaciones posteriores en varios campos, incluidos marketing, ventas, servicio al cliente, desarrollo de software, diseño, juegos, educación y leyes.

Si bien los modelos fundamentales se pueden usar para crear aplicaciones y modelos comerciales novedosos, también pueden convertirse en una forma poderosa de difundir información errónea, automatizar el correo no deseado de alta calidad, escribir malware y plagiar contenido e invenciones con derechos de autor. Se ha demostrado que los modelos fundacionales contienen sesgos y generan contenido estereotipado o prejuicioso. Estos modelos pueden emular con precisión el contenido extremista y podrían usarse para radicalizar a las personas en ideologías extremistas. Tienen la capacidad de engañar y presentar información falsa de manera convincente. Es preocupante que las posibles fallas en estos modelos se transmitan a todos los modelos posteriores, lo que podría generar problemas generalizados si no se controlan deliberadamente.

El problema de “muchas manos” se refiere al desafío de atribuir la responsabilidad moral por los resultados causados ​​por múltiples actores, y es uno de los factores clave que erosionan la rendición de cuentas cuando se trata de sociedades algorítmicas. La responsabilidad de las nuevas cadenas de suministro de IA, donde los modelos fundamentales alimentan cientos de aplicaciones posteriores, debe basarse en la transparencia de extremo a extremo. Específicamente, necesitamos fortalecer la transparencia de la cadena de suministro en tres niveles y establecer un ciclo de retroalimentación entre ellos.

Transparencia en los modelos fundacionales es fundamental para permitir que los investigadores y toda la cadena de suministro de usuarios investiguen y comprendan las vulnerabilidades y los sesgos de los modelos. Los propios desarrolladores de los modelos han reconocido esta necesidad. Por ejemplo, los investigadores de DeepMind sugieren que los daños de los grandes modelos de lenguaje deben abordarse mediante la colaboración con una amplia gama de partes interesadas que se basen en un nivel suficiente de explicabilidad e interpretabilidad para permitir una detección, evaluación y mitigación eficientes de los daños. Se necesitan metodologías para la medición estandarizada y la evaluación comparativa, como HELM de la Universidad de Standford. Estos modelos se están volviendo demasiado poderosos para operar sin la evaluación de investigadores y auditores independientes. Los reguladores deberían preguntarse: ¿Entendemos lo suficiente como para poder evaluar dónde se deben aplicar los modelos y dónde se deben prohibir? ¿Se pueden evaluar adecuadamente las aplicaciones posteriores de alto riesgo en cuanto a seguridad y solidez con la información disponible?



Source link-46