Amazon no se ha perdido el desarrollo de la IA, afirma la empresa. ¿Pero es eso realmente cierto?


A diferencia de sus competidores Microsoft y Google, el proveedor de la nube de Amazon, AWS, no depende de una única IA. Su nuevo chatbot Amazon Q utiliza un modelo diferente según la tarea.

En la conferencia de desarrolladores de AWS celebrada a finales de noviembre en Las Vegas, el director ejecutivo Adam Selipsky presentó nuevos chips de inteligencia artificial y un chatbot para empresas.

Noé Berger/Reuters

Google tiene un chatbot de IA llamado Bard, Microsoft tiene acceso al líder de la industria Chat-GPT a través de su inversión en Open AI. Ahora Amazon también se lanza a la carrera de los chatbots y ofrece su propio asistente basado en inteligencia artificial (IA) generativa: Amazon Q.

El chatbot, desarrollado por la división de nube de Amazon, AWS, y presentado en su conferencia de desarrolladores en Las Vegas a finales de noviembre, está dirigido a las necesidades de las empresas. Está destinado a apoyar a los empleados en su trabajo diario, puede resumir y preparar documentos, ayudar con el servicio de atención al cliente o la programación y responder preguntas sobre la empresa. Q también puede tener en cuenta los derechos de acceso de las personas individuales.

El chatbot, que inicialmente está disponible en una versión preliminar en Estados Unidos, está disponible desde $20 por mes por empleado. Microsoft y Google cobran cada uno 30 dólares por un servicio similar dirigido a empresas, que ya está más ampliamente disponible.

Q no se rige por un único modelo de IA, sino que selecciona uno diferente según la tarea. «No creemos que haya un único modelo que se utilice para cada escenario», afirma Matt Wood, jefe de productos de AWS, en una entrevista con el NZZ en Las Vegas. Además, como empresa no pasas a depender de un único proveedor.

Diversidad en lugar de un modelo único

Por lo tanto, el enfoque de AWS es ofrecer a los clientes diferentes modelos. Bedrock, el servicio de IA de AWS, ofrece modelos de Anthropic, Cohere, Meta, Stability AI y también los modelos desarrollados por la propia Amazon. El Chatbot Q también utiliza la arquitectura Bedrock.

«Todos estos modelos diferentes tienen fortalezas y debilidades ligeramente diferentes», explica Wood. Algunos son buenos para razonar, otros son mejores para trabajar con diferentes lenguajes, algunos son muy rápidos y tienen baja latencia, mientras que otros son simplemente baratos de ejecutar. «Si tienes acceso temprano a todas estas opciones diferentes en el área de la IA generativa, entonces eso es simplemente desproporcionadamente valioso», dice Wood. De esta manera podrá experimentar con diferentes enfoques y ver cuál funciona mejor para su empresa.

Este enfoque distingue a AWS de sus competidores Microsoft y Google, que se centran principalmente en modelos de desarrollo propio. Los tres quieren atraer el mayor número posible de empresas a su propia infraestructura en la nube para poder operar sus aplicaciones de IA. Microsoft y Google tienen la ventaja de que pueden comercializar sus asistentes de IA al público a través de sus motores de búsqueda o sus programas de Office. Amazon y su filial en la nube AWS no tienen esa oportunidad, lo que da la impresión de que la empresa ha pasado por alto los avances en el ámbito de la IA.

Wood no está de acuerdo con esto en la entrevista: “No creo que con todo lo que ofrecemos y en lo que somos innovadores se pueda llegar a la conclusión de que estamos atrasados. O que llegamos demasiado tarde”.

Ventajas en el campo del desarrollo de chips de IA

Señala los avances en el desarrollo de chips de IA para centros de datos en la nube. En la conferencia de desarrolladores, AWS presentó, entre otras cosas, una nueva generación de chips para el entrenamiento y uso por parte del usuario, la llamada inferencia, en grandes modelos de IA. «Ya estamos en la segunda generación de nuestros chips de aprendizaje automático, que están optimizados tanto para el entrenamiento como para la inferencia», dice Wood. «Con otros proveedores de nube, solo existen en diapositivas de PowerPoint». Una alusión al competidor. Microsoft, que ha anunciado un tipo de chip similar para 2024.

En el ámbito de la IA generativa disponemos actualmente de las más amplias opciones de individualización. «Nuestro enfoque en materia de seguridad y privacidad también es diferente», afirma Wood. Otros grandes proveedores de nube tienen una advertencia en la primera página de la documentación de su IA que dice que las personas podrían tener información sobre la entrada. Los clientes corporativos no querían eso. Sin embargo, con AWS todo es seguro y privado. «La información no se distribuye a través de Internet. Ninguna persona tiene visibilidad de esta información y nada de lo que se pasa a los modelos se utiliza para entrenar los modelos subyacentes”, afirma Wood.

A pocos días del lanzamiento de Amazon Q un informe de la revista tecnológica estadounidense “Platformer” Sin embargo, por dudas sobre la seguridad del chatbot. Q tiene «alucinaciones graves y está revelando datos confidenciales», incluidas las ubicaciones de los centros de datos de AWS, dice, citando comunicaciones internas.

Cuando se le preguntó, Amazon afirmó que Q no había compartido ninguna información confidencial. «Algunos empleados comparten sus comentarios a través de canales internos y sistemas de tickets, como es práctica común en Amazon», explicó una portavoz. «No se identificaron problemas de seguridad como resultado de esta retroalimentación». Sin embargo, agradecemos todos los comentarios y continuaremos optimizando Q hasta que esté disponible de forma generalizada.

Estrecha asociación con el rival de Open AI, Anthropic

Amazon también ha invertido 4 mil millones en la startup de inteligencia artificial Anthropic, que opera el modelo de lenguaje Claude. La compañía fue fundada por ex empleados de Open AI en torno a los hermanos Dario y Daniela Amodei, quienes abandonaron el rival porque no estaban de acuerdo con el ahora restituido CEO de Open AI, Sam Altman, en lo que respecta al desarrollo de una IA segura.

Además de Amazon, Google también ha invertido en Anthropic. Matt Wood no cree que esto pueda llevar a complicaciones. «Nuestra asociación con Anthropic es muy sólida», afirma. No se trata sólo de una inversión: también se ha ampliado considerablemente la cooperación estratégica. «Los nuevos modelos y capacidades estarán disponibles primero a través de AWS».

La estancia en Las Vegas fue por invitación de AWS.



Source link-58