Sam Altman dice que OpenAI dejará la UE si hay alguna regulación real de IA


La ofensiva de encanto en el extranjero del CEO de OpenAI, Sam Altman, continúa el tren de exageraciones de AI que comenzó con sus recientes conversaciones frente al Congreso de los EE. UU. Aunque a diferencia de los EE. UU. amigables con la IA, Altman ha amenazado con llevar sus grandes juguetes tecnológicos al otro extremo de la caja de arena si no están dispuestos a seguir sus reglas.

Altman ha estado en movimiento, desde Lagos, Nigeria a toda Europa. Finalmente en Londres, Reino Unido, él esquivó a algunos manifestantes para interactuar con gente de gran tecnología, empresas y legisladores sobre sus modelos de IA. Su argumento principal ha sido promover el modelo de lenguaje grande ChatGPT y promover políticas regulatorias favorables a la IA. Durante un panel de discusión organizado por el University College London, Altman dijo que si bien OpenAI «intentaría cumplir» con las regulaciones de la UE con la ley de IA, estaba molesto por la forma en que el organismo europeo definió los sistemas de «alto riesgo».

la UE IA AConnecticut es una de las leyes propuestas por el órgano rector en 2021 eso clasificaría la IA en tres categorías de riesgo. Algunas IA plantean un «riesgo inaceptable», como los sistemas de puntuación social, la IA de ingeniería social manipuladora o, en realidad, cualquier cosa que sea «una violación de los derechos fundamentales». En el extremo inferior, un «sistema de IA de alto riesgo» depende de su uso previsto, pero tendría que cumplir con los estándares generales de transparencia y supervisión.

Altman dijo que, según la forma en que está redactada actualmente la ley propuesta, tanto ChatGPT como el modelo de lenguaje grande GPT-4 podrían designarse como de alto riesgo. Esto requeriría que la empresa cumpliera con ciertos requisitos. De acuerdo a Tiempo, el CEO de OpenAI dijo: “Si podemos cumplir, lo haremos, y si no podemos, dejaremos de operar… Lo intentaremos. Pero hay límites técnicos a lo que es posible”.

En realidad, la ley fue diseñada para combatir los posibles usos de la IA como El sistema de crédito social de China y reconocimiento facial. Luego vino OpenAI y otras empresas emergentes en el campo de la IA, primero con la generación de imágenes de IA de difusión y luego con el muy popular ChatGPT basado en un modelo de lenguaje grande. La UE redactó nuevas disposiciones para la ley en diciembre que impondrían controles de seguridad y gestión de riesgos en «modelos fundamentales» como los LLM que ejecutan los chatbots de IA. Una comisión en el Parlamento Europeo aprobó estos cambios a principios de este mes.

La UE ha estado más dispuesta a examinar OpenAI que EE. UU. La UE La Junta Europea de Protección de Datos dijo que estaba monitoreando ChatGPT para asegurarse de que cumplió con sus leyes de privacidad. Por supuesto, la Ley de IA no está escrita en piedra y el idioma puede cambiar, lo que probablemente sea otra razón para su gira mundial.

Altman de otro modo reiteró algunos de los mismos puntos de conversación que dio frente al Congreso la semana pasada. De acuerdo a el bordeAltman promovió la idea de que él también está temblando en su turno de noche por los peligros presentes con la IA, pero que también había muchos beneficios potenciales. El CEO de OpenAI tviejos legisladores estadounidensesél fue todo por la regulación que incluso podría incluir nuevos requisitos de seguridad o una agencia de gobierno para probar productos y garantizar el cumplimiento normativo. Pidió alguna regulación “entre el enfoque tradicional europeo y el enfoque tradicional estadounidense”, sea lo que sea que eso signifique.

Aunque al mismo tiempo, Altman dijo que no quería ninguna regulación que restringiera el acceso de los usuarios a la tecnología. Le dijo a su audiencia londinense que no quería nada que pudiera dañar a las empresas más pequeñas o al movimiento de IA de código abierto (como recordatorio, OpenAI está decididamente más cerrado como empresa que nunca, citando «competencia»). Eso sin mencionar que cualquier nueva regulación beneficiaría inherentemente a OpenAI, por lo que cuando las cosas inevitablemente salen mal, puede señalar a la ley para decir que estaban haciendo todo lo que tenían que hacer. Los nuevos controles de cumplimiento también harían que el desarrollo de nuevos modelos de IA desde cero fuera más costoso, lo que le daría a la empresa una ventaja en la carrera de ratas de IA en curso.

Ha habido algunos países que ya han prohibido ChatGPT. Italia prohibió el servicio en marzo pero su gobierno de extrema derecha finalmente desbaneó el servicio después de OpenAI dio a los usuarios más acceso a los controles de privacidad. Quizás OpenAI pueda seguir arrojando suficientes huesos para hacer felices a los gobiernos del mundo. Por supuesto, eso es mientras pueda contener su más de 100 millones de usuarios activos de ChatGPT.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos, Las mejores alternativas de ChatGPTy Todo lo que sabemos sobre ChatGPT de OpenAI.





Source link-45