Esta semana en AI: Mistral y la lucha de la UE por la soberanía de AI


Mantenerse al día con una industria que evoluciona tan rápidamente como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos notables que no cubrimos por sí solos.

Esta semana, Google inundó los canales con anuncios sobre Gemini, su nuevo modelo insignia de IA multimodal. Resulta que no es tan impresionante como la compañía inicialmente lo hizo ver o, más bien, la versión «lite» del modelo (Gemini Pro) que Google lanzó esta semana no lo es. (No ayuda que Google haya falsificado una demostración del producto). Nos reservaremos el juicio sobre Gemini Ultra, la versión completa del modelo, hasta que comience a abrirse camino en varias aplicaciones y servicios de Google a principios del próximo año.

Pero basta de hablar de chatbots. Lo que es un negocio más importante, diría yo, es una ronda de financiación que apenas se metió en la semana laboral: Mistral AI recaudó 450 millones de euros (~484 millones de dólares) con una valoración de 2 mil millones de dólares.

Ya hemos cubierto Mistral antes. En septiembre, la compañía, cofundada por Google DeepMind y ex alumnos de Meta, lanzó su primer modelo, Mistral 7B, que, según afirmó en ese momento, superaba a otros de su tamaño. Mistral cerró una de las rondas de semillas más grandes de Europa hasta la fecha antes de la recaudación de fondos del viernes, y ni siquiera ha lanzado un producto todavía.

Ahora, mi colega Dominic ha señalado acertadamente que la suerte de Mistral, con sede en París, es una señal de alerta para muchos preocupados por la inclusión. Los cofundadores de la startup son todos blancos y hombres, y académicamente encajan en el perfil homogéneo y privilegiado de muchos de los que figuran en la lista rotundamente criticada del New York Times de agentes de cambio en la IA.

Al mismo tiempo, los inversores parecen estar viendo a Mistral –así como a su antiguo rival, el alemán Aleph Alpha– como la oportunidad de Europa de plantar su bandera en el muy fértil (actualmente) terreno de la IA generativa.

Hasta ahora, las empresas de IA generativa de mayor perfil y mejor financiadas han sido en Estados Unidos. OpenAI. Antrópico. IA de inflexión. Adherirse. La lista continua.

La buena suerte de Mistral es, en muchos sentidos, un microcosmos de la lucha por la soberanía de la IA. La Unión Europea (UE) desea evitar quedarse atrás en otro salto tecnológico y, al mismo tiempo, imponer regulaciones para guiar el desarrollo de la tecnología. Como dijo recientemente el Vicecanciller y Ministro de Asuntos Económicos de Alemania, Robert Habeck: “La idea de tener nuestra propia soberanía en el sector de la IA es extremadamente importante. [But] Si Europa tiene la mejor regulación pero no hay empresas europeas, no habremos ganado mucho”.

La división entre emprendimiento y regulación se puso de relieve esta semana cuando los legisladores de la UE intentaron llegar a un acuerdo sobre políticas para limitar el riesgo de los sistemas de inteligencia artificial. Los lobistas, liderados por Mistral, han presionado en los últimos meses para que se eliminen las regulaciones totales de los modelos de IA generativa. Pero los legisladores de la UE se han resistido a tal exención… por ahora.

Dicho todo esto, mucho depende de Mistral y sus competidores europeos; Los observadores de la industria (y los legisladores de Estados Unidos) sin duda observarán de cerca el impacto en las inversiones una vez que los responsables políticos de la UE impongan nuevas restricciones a la IA. ¿Podría Mistral algún día crecer para desafiar a OpenAI con las regulaciones vigentes? ¿O las regulaciones tendrán un efecto paralizador? Es demasiado pronto para decirlo, pero estamos ansiosos por vernos a nosotros mismos.

Aquí hay algunas otras historias destacadas de IA de los últimos días:

  • Una nueva alianza de IA: Meta, en un abierto fuente lágrimaquiere difundir su influencia en la batalla en curso por la mentalidad de la IA. La red social anunció que se está asociando con IBM para lanzar AI Alliance, un organismo industrial para apoyar la “innovación abierta” y la “ciencia abierta” en IA, pero abundan motivos ocultos.
  • OpenAI se dirige a la India: Ivan y Jagmeet informan que OpenAI está trabajando con el ex director de Twitter India, Rishi Jaitly, como asesor principal para facilitar las conversaciones con el gobierno sobre la política de IA. OpenAI también está buscando establecer un equipo local en India, con Jaitly ayudando a la startup de IA a navegar por el panorama normativo y político de la India.
  • Google lanza la toma de notas asistida por IA: La aplicación para tomar notas de inteligencia artificial de Google, NotebookLM, que se anunció a principios de este año, ahora está disponible para usuarios estadounidenses mayores de 18 años. Para conmemorar el lanzamiento, la aplicación experimental se integró con Gemini Pro, el nuevo modelo de lenguaje grande de Google, que según Google «ayudará con la comprensión y el razonamiento de los documentos».
  • OpenAI bajo escrutinio regulatorio: La acogedora relación entre OpenAI y Microsoft, un importante patrocinador y socio, es ahora el foco de una nueva investigación lanzada por la Autoridad de Competencia y Mercados del Reino Unido sobre si las dos compañías se encuentran efectivamente en una “situación de fusión relevante” después del reciente drama. . Según se informa, la FTC también está investigando las inversiones de Microsoft en OpenAI en lo que parece ser un esfuerzo coordinado.
  • Preguntando amablemente a la IA: ¿Cómo se pueden reducir los sesgos si están integrados en un modelo de IA a partir de sesgos en sus datos de entrenamiento? Anthropic sugiere pedirlo amablemente para agradar, por favor no discriminar o alguien nos demandará. Sí, en serio. Devin tiene la historia completa.
  • Meta implementa funciones de IA: Junto con otras actualizaciones relacionadas con la IA esta semana, Meta AI, la experiencia de IA generativa de Meta, obtuvo nuevas capacidades, incluida la capacidad de crear imágenes cuando se le solicite, así como soporte para Instagram Reels. La primera característica, llamada “reimagine”, permite a los usuarios en chats grupales recrear imágenes de IA con indicaciones, mientras que la segunda puede recurrir a Reels como recurso según sea necesario.
  • El respecher recibe dinero en efectivo: La startup ucraniana de voz sintética Respeecher, que quizás sea mejor conocida por ser elegida para replicar a James Earl Jones y su icónica voz de Darth Vader para un programa animado de Star Wars, y luego a un Luke Skywalker más joven para The Mandalorian, está teniendo éxito a pesar de que no solo llueven bombas. en su ciudad, sino una ola de publicidad que ha levantado competidores a veces controvertidos, escribe Devin.
  • Redes neuronales líquidas: Una spin-off del MIT cofundada por la luminaria de la robótica Daniela Rus tiene como objetivo construir sistemas de IA de uso general impulsados ​​por un tipo relativamente nuevo de modelo de IA llamado red neuronal líquida. Llamada Liquid AI, la compañía recaudó 37,5 millones de dólares esta semana en una ronda inicial de patrocinadores, incluida la empresa matriz de WordPress, Automattic.

Más aprendizajes automáticos

Ubicaciones previstas de plástico flotante frente a la costa de Sudáfrica.Créditos de imagen: EPFL

Las imágenes orbitales son un excelente campo de juego para los modelos de aprendizaje automático, ya que hoy en día los satélites producen más datos de los que los expertos pueden seguir. Los investigadores de la EPFL están buscando identificar mejor el plástico transportado por los océanos, un problema enorme pero muy difícil de rastrear sistemáticamente. Su enfoque no es sorprendente (entrenar un modelo con imágenes orbitales etiquetadas), pero han refinado la técnica para que su sistema sea considerablemente más preciso, incluso cuando hay nubes.

Encontrarlo es sólo una parte del desafío, por supuesto, y eliminarlo es otro, pero cuanta mejor inteligencia tengan las personas y las organizaciones cuando realizan el trabajo real, más efectivas serán.

Sin embargo, no todos los dominios tienen tantas imágenes. Los biólogos, en particular, se enfrentan al desafío de estudiar animales que no están adecuadamente documentados. Por ejemplo, es posible que quieran rastrear los movimientos de cierto tipo raro de insecto, pero debido a la falta de imágenes de ese insecto, automatizar el proceso es difícil. Un grupo del Imperial College de Londres está utilizando el aprendizaje automático en colaboración con la plataforma de desarrollo de juegos Unreal.

Créditos de imagen: Colegio Imperial de Londres

Al crear escenas fotorrealistas en Unreal y llenarlas con modelos 3D del bicho en cuestión, ya sea una hormiga, un insecto palo o algo más grande, pueden crear cantidades arbitrarias de datos de entrenamiento para modelos de aprendizaje automático. Aunque el sistema de visión por computadora habrá sido entrenado con datos sintéticos, aún puede ser muy efectivo en imágenes del mundo real, como muestra su video.

Puede leer su artículo en Nature Communications.

Sin embargo, no todas las imágenes generadas son tan confiables, como descubrieron investigadores de la Universidad de Washington. Solicitaron sistemáticamente al generador de imágenes de código abierto Stable Diffusion 2.1 que produjera imágenes de una «persona» con diversas restricciones o ubicaciones. Demostraron que el término «persona» se asocia desproporcionadamente con los hombres occidentales de piel clara.

No solo eso, sino que ciertos lugares y nacionalidades produjeron patrones inquietantes, como imágenes sexualizadas de mujeres de países latinoamericanos y “un borrado casi completo de identidades indígenas y no binarias”. Por ejemplo, al pedir fotografías de “una persona de Oceanía” se obtienen hombres blancos y ningún pueblo indígena, a pesar de que estos últimos son numerosos en la región (sin mencionar a todos los demás hombres no blancos). Es todo un trabajo en progreso y es importante ser consciente de los sesgos inherentes a los datos.

Aprender a navegar por modelos sesgados y cuestionablemente útiles está en la mente de muchos académicos (y en la de sus estudiantes). Esta interesante charla con el profesor de inglés de Yale, Ben Glaser, es una visión refrescante y optimista sobre cómo se pueden usar cosas como ChatGPT de manera constructiva:

Cuando hablas con un chatbot, recuperas esta imagen extraña y confusa de la cultura. Es posible que obtenga contrapuntos para sus ideas y luego necesite evaluar si esos contrapuntos o la evidencia que respalda sus ideas son realmente buenos. Y hay una especie de alfabetización al leer esos resultados. Los estudiantes de esta clase están adquiriendo parte de esa alfabetización.

Si se cita todo y usted desarrolla un trabajo creativo a través de un elaborado trabajo de ida y vuelta o de un esfuerzo de programación que incluye estas herramientas, simplemente está haciendo algo salvaje e interesante.

¿Y cuándo se debe confiar en ellos, por ejemplo, en un hospital? La radiología es un campo en el que la IA se aplica con frecuencia para ayudar a identificar rápidamente problemas en las exploraciones del cuerpo, pero está lejos de ser infalible. Entonces, ¿cómo deberían saber los médicos cuándo confiar en el modelo y cuándo no? El MIT parece pensar que también pueden automatizar esa parte, pero no te preocupes, no es otra IA. En cambio, es un proceso de incorporación estándar y automatizado que ayuda a determinar cuándo un médico o una tarea en particular encuentra útil una herramienta de inteligencia artificial y cuándo se interpone en su camino.

Cada vez más, a los modelos de IA se les pide que generen más que texto e imágenes. Los materiales son un lugar donde hemos visto mucho movimiento: los modelos son excelentes para encontrar posibles candidatos para mejores catalizadores, cadenas de polímeros, etc. Las empresas emergentes se están sumando a esto, pero Microsoft también acaba de lanzar un modelo llamado MatterGen que está «diseñado específicamente para generar materiales novedosos y estables».

Créditos de imagen: microsoft

Como puede ver en la imagen de arriba, puede apuntar a muchas cualidades diferentes, desde magnetismo hasta reactividad y tamaño. No es necesario un accidente tipo Flubber ni miles de pruebas de laboratorio: este modelo podría ayudarle a encontrar un material adecuado para un experimento o producto en horas en lugar de meses.

Google DeepMind y Berkeley Lab también están trabajando en este tipo de cosas. Se está convirtiendo rápidamente en una práctica estándar en la industria de materiales.



Source link-48