{"id":1040573,"date":"2024-03-07T14:45:29","date_gmt":"2024-03-07T14:45:29","guid":{"rendered":"https:\/\/magazineoffice.com\/las-cpu-amd-ryzen-ai-y-las-gpu-radeon-7000-pueden-ejecutar-chatbots-localizados-utilizando-llm-al-igual-que-el-chat-de-nvidia-con-rtx\/"},"modified":"2024-03-07T14:45:32","modified_gmt":"2024-03-07T14:45:32","slug":"las-cpu-amd-ryzen-ai-y-las-gpu-radeon-7000-pueden-ejecutar-chatbots-localizados-utilizando-llm-al-igual-que-el-chat-de-nvidia-con-rtx","status":"publish","type":"post","link":"https:\/\/magazineoffice.com\/las-cpu-amd-ryzen-ai-y-las-gpu-radeon-7000-pueden-ejecutar-chatbots-localizados-utilizando-llm-al-igual-que-el-chat-de-nvidia-con-rtx\/","title":{"rendered":"Las CPU AMD Ryzen AI y las GPU Radeon 7000 pueden ejecutar chatbots localizados utilizando LLM al igual que el chat de NVIDIA con RTX"},"content":{"rendered":"
\n<\/p>\n
Tras el lanzamiento de Chat with RTX de NVIDIA, AMD ahora ofrece a los usuarios su propio chatbot de IA localizado y basado en GPT con tecnolog\u00eda LLM que puede ejecutarse en CPU Ryzen AI y GPU Radeon 7000.<\/p>\n
El mes pasado, NVIDIA lanz\u00f3 su Chatbot AI \u00abChat with RTX\u00bb, que est\u00e1 disponible en sus GPU RTX 40 y RTX 30 y se acelera con el conjunto de funciones TensorRT-LLM que ofrece resultados GenAI m\u00e1s r\u00e1pidos seg\u00fan los datos que usted pone a su disposici\u00f3n desde su PC o en otros t\u00e9rminos, un conjunto de datos localizado. Ahora AMD ofrece su propio chatbot GPT basado en LLM que puede ejecutarse en una amplia gama de hardware, como las PC Ryzen AI, que incluyen APU Ryzen 7000 y Ryzen 8000 con NPU XDNA junto con las \u00faltimas GPU Radeon 7000 que cuentan con n\u00facleos aceleradores de IA. .<\/p>\n
AMD ha publicado un blog donde proporciona una gu\u00eda de configuraci\u00f3n sobre c\u00f3mo utilizar su hardware para ejecutar su propio chatbot localizado impulsado por LLM (modelos de lenguaje grande) basados \u200b\u200ben GPT. Para las CPU AMD Ryzen AI, puede obtener la copia est\u00e1ndar de LM Studio para Windows, mientras que las GPU Radeon RX 7000 obtienen una vista previa t\u00e9cnica de ROCm. La gu\u00eda completa se comparte a continuaci\u00f3n:<\/p>\n
\n1. Descargue la versi\u00f3n correcta de LM Studio:<\/p>\n
2. Ejecute el archivo.<\/p>\n
3. En la pesta\u00f1a de b\u00fasqueda, copie y pegue el siguiente t\u00e9rmino de b\u00fasqueda seg\u00fan lo que desee ejecutar:<\/p>\n
a. Si desea ejecutar Mistral 7b, busque: \u201cTheBloke\/OpenHermes-2.5-Mistral-7B-GGUF<\/strong>\u201dY selecci\u00f3nelo de los resultados de la izquierda. Normalmente ser\u00e1 el primer resultado. Vamos con Mistral en este ejemplo.<\/p>\n
b. Si desea ejecutar LLAMA v2 7b, busque: \u201cTheBloke\/Llama-2-7B-Chat-GGUF<\/strong>\u201dY selecci\u00f3nelo de los resultados de la izquierda. Normalmente ser\u00e1 el primer resultado.<\/p>\n
C. Tambi\u00e9n puedes experimentar con otros modelos aqu\u00ed.<\/p>\n