Esta semana en IA: las empresas se someten voluntariamente a las pautas de IA, por ahora


Mantenerse al día con una industria que se mueve tan rápido como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos notables que no cubrimos por sí solos.

Esta semana en AI, vimos que OpenAI, Anthropic, Google, Inflection, Microsoft, Meta y Amazon se comprometieron voluntariamente a perseguir objetivos compartidos de seguridad y transparencia de AI antes de una Orden Ejecutiva planificada de la administración Biden.

Como escribe mi colega Devin Coldewey, aquí no se propone ninguna regla ni cumplimiento: las prácticas acordadas son puramente voluntarias. Pero los compromisos indican, a grandes rasgos, los enfoques y políticas regulatorios de IA que cada proveedor podría encontrar modificables en los EE. UU. y en el extranjero.

Entre otros compromisos, las empresas se ofrecieron como voluntarias para realizar pruebas de seguridad de los sistemas de IA antes del lanzamiento, compartir información sobre técnicas de mitigación de IA y desarrollar técnicas de marca de agua que faciliten la identificación del contenido generado por IA. También dijeron que invertirían en ciberseguridad para proteger los datos privados de IA y facilitar el informe de vulnerabilidades, así como priorizar la investigación sobre riesgos sociales como el sesgo sistémico y los problemas de privacidad.

Los compromisos son un paso importante, sin duda, incluso si no son exigibles. Pero uno se pregunta si hay motivos ocultos por parte de los firmantes.

Según se informa, OpenAI redactó un memorando de política interna que muestra que la empresa apoya la idea de exigir licencias gubernamentales a cualquier persona que quiera desarrollar sistemas de IA. El CEO Sam Altman planteó la idea por primera vez en una audiencia en el Senado de EE. UU. en mayo, durante la cual respaldó la creación de una agencia que pudiera emitir licencias para productos de IA y revocarlas si alguien violara las reglas establecidas.

En una entrevista reciente con la prensa, Anna Makanju, vicepresidenta de asuntos globales de OpenAI, insistió en que OpenAI no estaba «presionando» para obtener licencias y que la empresa solo admite regímenes de licencias para modelos de IA más potentes que el actual GPT-4 de OpenAI. Pero las licencias emitidas por el gobierno, en caso de que se implementen de la manera que propone OpenAI, preparan el escenario para un posible choque con las nuevas empresas y los desarrolladores de código abierto que pueden verlos como un intento de dificultar que otros entren en el espacio.

Devin lo dijo mejor, creo, cuando me lo describió como «tirar clavos en el camino detrás de ellos en una carrera». Como mínimo, ilustra la naturaleza de dos caras de las empresas de IA que buscan aplacar a los reguladores mientras configuran la política a su favor (en este caso, poniendo en desventaja a los pequeños retadores) entre bastidores.

Es un estado de cosas preocupante. Pero, si los formuladores de políticas dan un paso al frente, todavía hay esperanza de suficientes salvaguardias sin interferencia indebida del sector privado.

Aquí hay otras historias destacadas de IA de los últimos días:

  • El jefe de confianza y seguridad de OpenAI se retira: Dave Willner, un veterano de la industria que fue jefe de confianza y seguridad de OpenAI, anunció en una publicación en LinkedIn que dejó el trabajo y pasó a un rol de asesor. OpenAI dijo en un comunicado que está buscando un reemplazo y que el CTO Mira Murati administrará el equipo de manera interina.
  • Instrucciones personalizadas para ChatGPT: En más noticias de OpenAI, la compañía ha lanzado instrucciones personalizadas para los usuarios de ChatGPT para que no tengan que escribir las mismas instrucciones en el chatbot cada vez que interactúan con él.
  • IA de redacción de noticias de Google: Google está probando una herramienta que usa IA para escribir noticias y ha comenzado a mostrarla en publicaciones, según un nuevo informe de The New York Times. El gigante tecnológico ha presentado el sistema de inteligencia artificial al New York Times, The Washington Post y al propietario de The Wall Street Journal, News Corp.
  • Apple prueba un chatbot similar a ChatGPT: Apple está desarrollando IA para desafiar a OpenAI, Google y otros, según un nuevo informe de Mark Gurman de Bloomberg. Específicamente, el gigante tecnológico ha creado un chatbot al que algunos ingenieros se refieren internamente como «Apple GPT».
  • Meta lanza Llama 2: Meta presentó una nueva familia de modelos de IA, Llama 2, diseñada para impulsar aplicaciones similares a ChatGPT de OpenAI, Bing Chat y otros chatbots modernos. Entrenado en una combinación de datos disponibles públicamente, Meta afirma que el rendimiento de Llama 2 ha mejorado significativamente con respecto a la generación anterior de modelos Llama.
  • Los autores protestan contra la IA generativa: Los sistemas de IA generativa como ChatGPT están capacitados en datos disponibles públicamente, incluidos libros, y no todos los creadores de contenido están satisfechos con el arreglo. En una carta abierta firmada por más de 8500 autores de ficción, no ficción y poesía, se critica a las empresas tecnológicas que están detrás de grandes modelos lingüísticos como ChatGPT, Bard, LLaMa y más por usar su escritura sin permiso ni compensación.
  • Microsoft trae Bing Chat a la empresa: En su conferencia anual Inspire, Microsoft anunció Bing Chat Enterprise, una versión de su chatbot impulsado por Bing Chat AI con controles de gobernanza y privacidad de datos centrados en el negocio. Con Bing Chat Enterprise, los datos del chat no se guardan, Microsoft no puede ver los datos comerciales o de empleados de un cliente y los datos del cliente no se usan para entrenar los modelos de IA subyacentes.

Más aprendizajes automáticos

Técnicamente, esto también fue una noticia, pero vale la pena mencionarlo aquí en la sección de investigación. Fable Studios, que previamente hizo cortometrajes CG y 3D para realidad virtual y otros medios, mostró un modelo de IA al que llama Showrunner que (afirma) puede escribir, dirigir, actuar y editar un programa de televisión completo; en su demostración, era South Park.

Estoy de dos mentes en esto. Por un lado, creo que perseguir esto en absoluto, y mucho menos durante una gran huelga de Hollywood que involucra cuestiones de compensación e inteligencia artificial, es de muy mal gusto. Aunque el director ejecutivo Edward Saatchi dijo que cree que la herramienta pone el poder en manos de los creadores, también es discutible lo contrario. En cualquier caso, no fue muy bien recibido por la gente de la industria.

Por otro lado, si alguien en el lado creativo (que es Saatchi) no explora y demuestra estas capacidades, entonces serán exploradas y demostradas por otros con menos reparos en ponerlas en uso. Incluso si las afirmaciones que hace Fable son un poco amplias para lo que realmente mostraron (que tiene serias limitaciones), es como el DALL-E original en el sentido de que generó debate y, de hecho, preocupación a pesar de que no fue un reemplazo para un artista real. La IA tendrá un lugar en la producción de medios de una forma u otra, pero por un montón de razones debe abordarse con precaución.

Por el lado de la política, hace poco tuvimos la Ley de Autorización de la Defensa Nacional con (como de costumbre) algunas enmiendas políticas realmente ridículas que no tienen nada que ver con la defensa. Pero entre ellos se agregó que el gobierno debe organizar un evento en el que los investigadores y las empresas puedan hacer todo lo posible para detectar contenido generado por IA. Este tipo de cosas definitivamente se está acercando a los niveles de «crisis nacional», por lo que probablemente sea bueno que esto se haya deslizado allí.

En Disney Research, siempre están tratando de encontrar una manera de unir lo digital y lo real, presumiblemente para propósitos de parques. En este caso, han desarrollado una forma de mapear los movimientos virtuales de un personaje o la captura de movimiento (por ejemplo, para un perro CG en una película) en un robot real, incluso si ese robot tiene una forma o tamaño diferente. Se basa en dos sistemas de optimización, cada uno de los cuales informa al otro sobre lo que es ideal y lo que es posible, algo así como un pequeño ego y superego. Esto debería hacer que sea mucho más fácil hacer que los perros robot actúen como perros normales, pero, por supuesto, también se puede generalizar a otras cosas.

Y aquí está la esperanza de que la IA pueda ayudarnos a alejar al mundo de la extracción de minerales en el fondo del mar, porque definitivamente es una mala idea. Un estudio multiinstitucional puso la capacidad de AI de separar la señal del ruido para predecir la ubicación de minerales valiosos en todo el mundo. Como escriben en abstracto:

En este trabajo, abordamos la complejidad y el «desorden» inherente de los sistemas geológicos, químicos y biológicos entrelazados de nuestro planeta mediante el empleo del aprendizaje automático para caracterizar los patrones integrados en la multidimensionalidad de la ocurrencia y las asociaciones de minerales.

El estudio en realidad predijo y verificó ubicaciones de uranio, litio y otros minerales valiosos. Y qué tal esto para una línea de cierre: el sistema «mejorará nuestra comprensión de la mineralización y los entornos de mineralización en la Tierra, en todo nuestro sistema solar y a lo largo del tiempo». Impresionante.



Source link-48