alucinaciones – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Sun, 05 May 2024 03:50:36 +0000 es hourly 1 https://wordpress.org/?v=6.5.4 Por qué RAG no resolverá el problema de las alucinaciones de la IA generativa https://magazineoffice.com/por-que-rag-no-resolvera-el-problema-de-las-alucinaciones-de-la-ia-generativa/ https://magazineoffice.com/por-que-rag-no-resolvera-el-problema-de-las-alucinaciones-de-la-ia-generativa/#respond Sun, 05 May 2024 03:50:33 +0000 https://magazineoffice.com/por-que-rag-no-resolvera-el-problema-de-las-alucinaciones-de-la-ia-generativa/

Las alucinaciones (las mentiras que dicen, básicamente, los modelos de IA generativa) son un gran problema para las empresas que buscan integrar la tecnología en sus operaciones.

Debido a que los modelos no tienen inteligencia real y simplemente predicen palabras, imágenes, discursos, música y otros datos de acuerdo con un esquema privado, a veces se equivocan. Muy mal. En un artículo reciente en The Wall Street Journal, una fuente relata un caso en el que la IA generativa de Microsoft inventó a los asistentes a la reunión e insinuó que las conferencias telefónicas eran sobre temas que en realidad no se discutieron en la llamada.

Como escribí hace un tiempo, las alucinaciones pueden ser un problema irresoluble con las arquitecturas de modelos actuales basadas en transformadores. Pero varios proveedores de IA generativa sugieren que poder eliminarse, más o menos, mediante un enfoque técnico llamado recuperación de generación aumentada, o RAG.

Así es como lo presenta un proveedor, Squirro:

En el centro de la oferta se encuentra el concepto de Retrieval Augmented LLM o Retrieval Augmented Generation (RAG) integrado en la solución… [our generative AI] es único en su promesa de cero alucinaciones. Cada pieza de información que genera se puede rastrear hasta una fuente, lo que garantiza credibilidad.

Aquí hay un discurso similar de SiftHub:

Utilizando la tecnología RAG y grandes modelos de lenguaje ajustados con capacitación en conocimientos específicos de la industria, SiftHub permite a las empresas generar respuestas personalizadas sin alucinaciones. Esto garantiza una mayor transparencia y un riesgo reducido e inspira confianza absoluta para utilizar la IA para todas sus necesidades.

RAG fue iniciado por el científico de datos Patrick Lewis, investigador de Meta y University College London, y autor principal del artículo de 2020 que acuñó el término. Aplicado a un modelo, RAG recupera documentos posiblemente relevantes para una pregunta (por ejemplo, una página de Wikipedia sobre el Super Bowl) utilizando lo que es esencialmente una búsqueda de palabras clave y luego le pide al modelo que genere respuestas dado este contexto adicional.

“Cuando interactúas con un modelo de IA generativa como ChatGPT o Llama y haces una pregunta, lo predeterminado es que el modelo responda desde su ‘memoria paramétrica’, es decir, desde el conocimiento almacenado en sus parámetros como resultado de capacitación sobre datos masivos de la web”, explicó David Wadden, científico investigador de AI2, la división de investigación centrada en IA del Instituto Allen, una organización sin fines de lucro. «Pero, al igual que es probable que des respuestas más precisas si tienes una referencia [like a book or a file] Frente a ti, lo mismo ocurre en algunos casos con los modelos”.

RAG es innegablemente útil: permite atribuir cosas que genera un modelo a documentos recuperados para verificar su veracidad (y, como beneficio adicional, evitar regurgitaciones potencialmente infractoras de derechos de autor). RAG también permite a las empresas que no quieren que sus documentos se utilicen para entrenar un modelo (por ejemplo, empresas en industrias altamente reguladas como la atención médica y el derecho) permitir que los modelos se basen en esos documentos de una manera más segura y temporal.

Pero RAG ciertamente no poder evitar que un modelo tenga alucinaciones. Y tiene limitaciones que muchos proveedores pasan por alto.

Wadden dice que RAG es más eficaz en escenarios de «conocimiento intensivo» en los que un usuario quiere utilizar un modelo para abordar una «necesidad de información» (por ejemplo, para saber quién ganó el Super Bowl el año pasado). En estos escenarios, es probable que el documento que responde a la pregunta contenga muchas de las mismas palabras clave que la pregunta (por ejemplo, “Super Bowl”, “el año pasado”), lo que hace que sea relativamente fácil de encontrar mediante una búsqueda de palabras clave.

Las cosas se vuelven más complicadas con tareas de “razonamiento intensivo” como codificación y matemáticas, donde es más difícil especificar en una consulta de búsqueda basada en palabras clave los conceptos necesarios para responder una solicitud, y mucho menos identificar qué documentos podrían ser relevantes.

Incluso con preguntas básicas, los modelos pueden “distraerse” con el contenido irrelevante de los documentos, especialmente en documentos largos donde la respuesta no es obvia. O pueden, por razones aún desconocidas, simplemente ignorar el contenido de los documentos recuperados y optar por confiar en su memoria paramétrica.

RAG también es costoso en términos del hardware necesario para aplicarlo a escala.

Esto se debe a que los documentos recuperados, ya sea de la web, de una base de datos interna o de otro lugar, deben almacenarse en la memoria (al menos temporalmente) para que el modelo pueda consultarlos. Otro gasto es calcular el contexto aumentado que un modelo tiene que procesar antes de generar su respuesta. Para una tecnología que ya es famosa por la cantidad de computación y electricidad que requiere incluso para operaciones básicas, esto equivale a una consideración seria.

Eso no quiere decir que RAG no pueda mejorarse. Wadden destacó muchos esfuerzos en curso para entrenar modelos para hacer un mejor uso de los documentos recuperados del RAG.

Algunos de estos esfuerzos involucran modelos que pueden “decidir” cuándo hacer uso de los documentos, o modelos que pueden optar por no realizar la recuperación en primer lugar si lo consideran innecesario. Otros se centran en formas de indexar de manera más eficiente conjuntos de datos masivos de documentos y en mejorar la búsqueda a través de mejores representaciones de los documentos, representaciones que van más allá de las palabras clave.

«Somos bastante buenos recuperando documentos basados ​​en palabras clave, pero no tan buenos recuperando documentos basados ​​en conceptos más abstractos, como una técnica de prueba necesaria para resolver un problema matemático», dijo Wadden. “Se necesita investigación para construir representaciones de documentos y técnicas de búsqueda que puedan identificar documentos relevantes para tareas de generación más abstractas. Creo que en este momento esta es una pregunta abierta”.

Entonces, RAG puede ayudar a reducir las alucinaciones de un modelo, pero no es la respuesta a todos los problemas alucinatorios de la IA. Tenga cuidado con cualquier proveedor que intente afirmar lo contrario.



Source link-48

]]>
https://magazineoffice.com/por-que-rag-no-resolvera-el-problema-de-las-alucinaciones-de-la-ia-generativa/feed/ 0
Los «episodios de alucinaciones» de ChatGPT continúan provocando a OpenAI y podrían retrasarlo en millones, «pero no parece importarle». https://magazineoffice.com/los-episodios-de-alucinaciones-de-chatgpt-continuan-provocando-a-openai-y-podrian-retrasarlo-en-millones-pero-no-parece-importarle/ https://magazineoffice.com/los-episodios-de-alucinaciones-de-chatgpt-continuan-provocando-a-openai-y-podrian-retrasarlo-en-millones-pero-no-parece-importarle/#respond Tue, 30 Apr 2024 11:43:50 +0000 https://magazineoffice.com/los-episodios-de-alucinaciones-de-chatgpt-continuan-provocando-a-openai-y-podrian-retrasarlo-en-millones-pero-no-parece-importarle/

Lo que necesitas saber

  • OpenAI está bajo escrutinio después de que ChatGPT compartiera información incorrecta sobre personas.
  • La organización sin fines de lucro de privacidad con sede en la UE NOYB presentó la denuncia contra la empresa, citando que era consciente de su incapacidad para corregir la información falsa generada por ChatGPT, pero no parecía importarle.
  • La organización quiere que el regulador investigue las operaciones de OpenAI y lo obligue a proporcionar información detallada sobre cómo utiliza los datos de las personas.

OpenAI está bajo escrutinio una vez más después de que la organización sin fines de lucro de privacidad NOYB, con sede en la UE, presentara una nueva queja ante la Autoridad Austriaca de Protección de Datos (DPA), citando los «episodios de alucinaciones» de ChatGPT y su incapacidad para corregir información engañosa generada por IA sobre las personas (a través de Cuarzo).

Como sabrás, las alucinaciones de los chatbots no son un fenómeno nuevo en el panorama de la IA. Fuimos testigos de algunos de estos episodios durante Lanzamiento de Microsoft Copilot (anteriormente Bing Chat)haciendo que los usuarios crean la tecnología se está volviendo más tonta.





Source link-40

]]>
https://magazineoffice.com/los-episodios-de-alucinaciones-de-chatgpt-continuan-provocando-a-openai-y-podrian-retrasarlo-en-millones-pero-no-parece-importarle/feed/ 0
El problema de las ‘alucinaciones’ de ChatGPT genera otra queja de privacidad en la UE https://magazineoffice.com/el-problema-de-las-alucinaciones-de-chatgpt-genera-otra-queja-de-privacidad-en-la-ue/ https://magazineoffice.com/el-problema-de-las-alucinaciones-de-chatgpt-genera-otra-queja-de-privacidad-en-la-ue/#respond Mon, 29 Apr 2024 20:35:24 +0000 https://magazineoffice.com/el-problema-de-las-alucinaciones-de-chatgpt-genera-otra-queja-de-privacidad-en-la-ue/

OpenAI se enfrenta a otra queja de privacidad en la Unión Europea. Este, que ha sido presentado por noyb, una organización sin fines de lucro que defiende los derechos de privacidad, en nombre de un denunciante individual, apunta a la incapacidad de su chatbot de IA ChatGPT para corregir la información errónea que genera sobre las personas.

La tendencia de las herramientas GenAI a producir información claramente errónea ha sido bien documentada. Pero también coloca a la tecnología en curso de colisión con el Reglamento General de Protección de Datos (GDPR) del bloque, que rige cómo se pueden procesar los datos personales de los usuarios regionales.

Las sanciones por incumplimiento del RGPD pueden alcanzar hasta el 4% de la facturación anual global. Lo que es mucho más importante para un gigante rico en recursos como OpenAI: los reguladores de protección de datos pueden ordenar cambios en la forma en que se procesa la información, por lo que la aplicación del RGPD podría remodelar la forma en que las herramientas de IA generativa pueden operar en la UE.

OpenAI ya se vio obligada a realizar algunos cambios después de una intervención temprana de la autoridad de protección de datos de Italia, que obligó brevemente a cerrar localmente ChatGPT en 2023.

Ahora noyb está presentando la última queja GDPR contra ChatGPT ante la autoridad de protección de datos de Austria en nombre de un denunciante anónimo (descrito como una «figura pública») que descubrió que el chatbot de IA les produjo una fecha de nacimiento incorrecta.

Según el RGPD, las personas en la UE tienen un conjunto de derechos asociados a la información sobre ellos, incluido el derecho a que se corrijan los datos erróneos. noyb sostiene que OpenAI no cumple con esta obligación con respecto a la producción de su chatbot. Dijo que la empresa rechazó la solicitud del demandante de rectificar la fecha de nacimiento incorrecta, respondiendo que era técnicamente imposible corregirla.

En lugar de eso, ofreció filtrar o bloquear los datos según ciertas indicaciones, como el nombre del denunciante.

La política de privacidad de OpenAI establece que los usuarios que noten que el chatbot de IA ha generado «información objetivamente inexacta sobre usted» pueden enviar una «solicitud de corrección» a través de Privacy.openai.com o enviando un correo electrónico a [email protected]. Sin embargo, advierte: «Dada la complejidad técnica de cómo funcionan nuestros modelos, es posible que no podamos corregir la inexactitud en todos los casos».

En ese caso, OpenAI sugiere que los usuarios soliciten que elimine por completo su información personal de la salida de ChatGPT, completando un formulario web.

El problema para el gigante de la IA es que los derechos del RGPD no son a la carta. Los ciudadanos de Europa tienen derecho a solicitar la rectificación. También tienen derecho a solicitar la supresión de sus datos. Pero, como señala noyb, no le corresponde a OpenAI elegir cuáles de estos derechos están disponibles.

Otros elementos de la queja se centran en preocupaciones sobre la transparencia del RGPD, y noyb sostiene que OpenAI no puede decir de dónde provienen los datos que genera sobre las personas, ni qué datos almacena el chatbot sobre las personas.

Esto es importante porque, nuevamente, la regulación otorga a las personas el derecho de solicitar dicha información mediante la llamada solicitud de acceso al sujeto (SAR). Por ahora, OpenAI no respondió adecuadamente al SAR del denunciante y no reveló ninguna información sobre los datos procesados, sus fuentes o destinatarios.

Maartje de Graaf, abogado de protección de datos de noyb, comentó sobre la denuncia en un comunicado: “Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, puede haber consecuencias graves. Está claro que las empresas actualmente no pueden hacer que los chatbots como ChatGPT cumplan con la legislación de la UE cuando procesan datos sobre personas. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología debe cumplir los requisitos legales y no al revés”.

La compañía dijo que está pidiendo a la DPA de Austria que investigue la queja sobre el procesamiento de datos de OpenAI, además de instarla a imponer una multa para garantizar el cumplimiento futuro. Pero añadió que es «probable» que el caso se resuelva mediante la cooperación de la UE.

OpenAI se enfrenta a una queja muy similar en Polonia. En septiembre pasado, la autoridad local de protección de datos abrió una investigación de ChatGPT luego de la queja de un investigador de privacidad y seguridad que también descubrió que OpenAI no podía corregir información incorrecta sobre él. Esa denuncia también acusa al gigante de la IA de no cumplir con los requisitos de transparencia del reglamento.

Mientras tanto, la autoridad italiana de protección de datos todavía tiene una investigación abierta sobre ChatGPT. En enero presentó un borrador de decisión, diciendo entonces que cree que OpenAI ha violado el GDPR de varias maneras, incluso en relación con la tendencia del chatbot a producir información errónea sobre las personas. Las conclusiones también se refieren a otras cuestiones cruciales, como la legalidad del procesamiento.

La autoridad italiana le dio a OpenAI un mes para responder a sus hallazgos. Queda pendiente una decisión final.

Ahora, con otra queja del RGPD contra su chatbot, ha aumentado el riesgo de que OpenAI enfrente una serie de medidas de aplicación del RGPD en diferentes Estados miembros.

El otoño pasado, la compañía abrió una oficina regional en Dublín, en una medida que parece destinada a reducir su riesgo regulatorio al hacer que las quejas de privacidad sean canalizadas por la Comisión de Protección de Datos de Irlanda, gracias a un mecanismo en el GDPR que pretende agilizar la supervisión de las quejas transfronterizas. canalizándolos a una única autoridad estatal miembro donde la empresa está «principalmente establecida».



Source link-48

]]>
https://magazineoffice.com/el-problema-de-las-alucinaciones-de-chatgpt-genera-otra-queja-de-privacidad-en-la-ue/feed/ 0
El nuevo sistema de seguridad de Microsoft puede detectar alucinaciones en las aplicaciones de inteligencia artificial de sus clientes https://magazineoffice.com/el-nuevo-sistema-de-seguridad-de-microsoft-puede-detectar-alucinaciones-en-las-aplicaciones-de-inteligencia-artificial-de-sus-clientes/ https://magazineoffice.com/el-nuevo-sistema-de-seguridad-de-microsoft-puede-detectar-alucinaciones-en-las-aplicaciones-de-inteligencia-artificial-de-sus-clientes/#respond Fri, 29 Mar 2024 06:07:04 +0000 https://magazineoffice.com/el-nuevo-sistema-de-seguridad-de-microsoft-puede-detectar-alucinaciones-en-las-aplicaciones-de-inteligencia-artificial-de-sus-clientes/

Sarah Bird, directora de productos de IA responsable de Microsoft, dice El borde en una entrevista que su equipo ha diseñado varias características de seguridad nuevas que serán fáciles de usar para los clientes de Azure que no contratan grupos de miembros del equipo rojo para probar los servicios de IA que crearon. microsoft dice que estas herramientas impulsadas por LLM pueden detectar vulnerabilidades potencialesmonitoree las alucinaciones «que sean plausibles pero no compatibles» y bloquee mensajes maliciosos en tiempo real para los clientes de Azure AI que trabajan con cualquier modelo alojado en la plataforma.

“Sabemos que no todos los clientes tienen una gran experiencia en ataques de inyección rápida o contenido de odio, por lo que el sistema de evaluación genera las indicaciones necesarias para simular este tipo de ataques. Luego, los clientes pueden obtener una puntuación y ver los resultados”, afirma.

Tres características: Escudos rápidosque bloquea inyecciones de avisos o avisos maliciosos de documentos externos que instruyen a los modelos a ir en contra de su entrenamiento; Detección de conexión a tierra, que encuentra y bloquea las alucinaciones; y evaluaciones de seguridad, que evalúan las vulnerabilidades del modelo, ahora están disponibles en versión preliminar en Azure AI. Próximamente estarán disponibles otras dos funciones para dirigir los modelos hacia resultados seguros y realizar un seguimiento de las indicaciones para señalar a los usuarios potencialmente problemáticos.

Ya sea que el usuario esté escribiendo un mensaje o si el modelo esté procesando datos de terceros, el sistema de monitoreo lo evaluará para ver si activa alguna palabra prohibida o si tiene mensajes ocultos antes de decidir enviarlo al modelo para que responda. Luego, el sistema analiza la respuesta del modelo y verifica si el modelo alucinó información que no está en el documento o en el mensaje.

En el caso de las imágenes de Google Gemini, los filtros hechos para reducir el sesgo tuvieron efectos no deseados, que es un área donde Microsoft dice que sus herramientas Azure AI permitirán un control más personalizado. Bird reconoce que existe la preocupación de que Microsoft y otras empresas puedan estar decidiendo qué es o no apropiado para los modelos de IA, por lo que su equipo agregó una forma para que los clientes de Azure puedan alternar el filtrado del discurso de odio o la violencia que el modelo ve y bloquea.

En el futuro, los usuarios de Azure También puede obtener un informe de los usuarios. que intentan activar salidas inseguras. Bird dice que esto permite a los administradores del sistema determinar qué usuarios son su propio equipo de miembros del equipo rojo y cuáles podrían ser personas con intenciones más maliciosas.

Bird dice que las características de seguridad se «adjuntan» inmediatamente a GPT-4 y otros modelos populares como Llama 2. Sin embargo, debido a que el jardín de modelos de Azure contiene muchos modelos de IA, los usuarios de sistemas de código abierto más pequeños y menos utilizados pueden tener que señalar manualmente las características de seguridad. características a los modelos.



Source link-37

]]>
https://magazineoffice.com/el-nuevo-sistema-de-seguridad-de-microsoft-puede-detectar-alucinaciones-en-las-aplicaciones-de-inteligencia-artificial-de-sus-clientes/feed/ 0
El vidrio potencia las cámaras de los teléfonos inteligentes con IA, sin alucinaciones https://magazineoffice.com/el-vidrio-potencia-las-camaras-de-los-telefonos-inteligentes-con-ia-sin-alucinaciones/ https://magazineoffice.com/el-vidrio-potencia-las-camaras-de-los-telefonos-inteligentes-con-ia-sin-alucinaciones/#respond Sat, 10 Feb 2024 10:40:55 +0000 https://magazineoffice.com/el-vidrio-potencia-las-camaras-de-los-telefonos-inteligentes-con-ia-sin-alucinaciones/

La cámara de su teléfono es tanto software como hardware, y Glass espera mejorar ambos. Pero mientras su lente anamórfica salvaje llega al mercado, la compañía (que cuenta con $ 9,3 millones en dinero nuevo) ha lanzado una actualización de cámara impulsada por IA que, según dice, mejora enormemente la calidad de la imagen, sin ningún artefacto extraño de mejora de la IA.

GlassAI es un enfoque puramente de software para mejorar las imágenes, lo que ellos llaman un procesador de señales de imágenes neuronales (ISP). Los ISP son básicamente los que toman la salida bruta del sensor (a menudo plana, ruidosa y distorsionada) y la convierten en las imágenes nítidas y coloridas que vemos.

El ISP también es cada vez más complejo, como les gusta mostrar a los fabricantes de teléfonos como Apple y Google, sintetizando múltiples exposiciones, detectando y afinando rápidamente rostros, ajustándose a pequeños movimientos, etc. Y aunque muchos incluyen alguna forma de aprendizaje automático o IA, deben tener cuidado: usar IA para generar detalles puede producir alucinaciones o artefactos a medida que el sistema intenta crear información visual donde no existe. Estos modelos de “súper resolución” son útiles en su lugar, pero deben ser monitoreados cuidadosamente.

Glass fabrica un sistema de cámara completo basado en un elemento frontal inusual en forma de rombo y un ISP para respaldarlo. Y mientras el primero está trabajando para lograr presencia en el mercado con algunos dispositivos próximos, resulta que el segundo es un producto que vale la pena vender por derecho propio.

«Nuestras redes de restauración corrigen aberraciones ópticas y problemas de sensores al mismo tiempo que eliminan el ruido de manera eficiente y superan a las tuberías tradicionales de procesamiento de señales de imágenes en la recuperación de texturas finas», explicó el director de tecnología y cofundador Tom Bishop en su comunicado de prensa.

Animación conceptual que muestra el proceso de pasar de una imagen RAW a una imagen procesada en vidrio. Créditos de imagen: Vaso

La palabra “recuperación” es clave, porque los detalles no se crean simplemente sino que extraído a partir de imágenes en bruto. Dependiendo de cómo funcione su conjunto de cámaras, es posible que sepa que ciertos artefactos, ángulos o patrones de ruido se pueden resolver de manera confiable o incluso aprovechar. Aprender a convertir estos detalles implícitos en detalles reales (o combinar detalles de múltiples exposiciones) es una parte importante de cualquier pila de fotografía computacional. El cofundador y director ejecutivo Ziv Attar dice que su ISP neuronal es mejor que cualquier otro en la industria.

Incluso Apple, señaló, no tiene una pila de imágenes neuronales completa, solo la usa en circunstancias específicas donde es necesaria, y sus resultados (en su opinión) no son excelentes. Proporcionó un ejemplo de un ISP neuronal de Apple que no interpretó el texto correctamente, y a Glass le fue mucho mejor:

Foto proporcionada por Ziv Attar que muestra un iPhone 15 Pro Max ampliado a 5x y la versión procesada por Glass de las imágenes RAW del teléfono. Créditos de imagen: Ziv Attar

«Creo que es justo suponer que si Apple no ha logrado obtener resultados decentes, es un problema difícil de resolver», afirmó. “Se trata menos de la pila real y más de cómo entrenas. Tenemos una forma única de hacerlo, que fue desarrollada para los sistemas de lentes anamórficos y es eficiente en cualquier cámara. Básicamente, tenemos laboratorios de capacitación que involucran sistemas robóticos y sistemas de calibración óptica que logran entrenar una red para caracterizar la aberración de las lentes de una manera muy completa y, fundamentalmente, revertir cualquier distorsión óptica”.

Como ejemplo, proporcionó un estudio de caso en el que DXO evaluó la cámara en un Moto Edge 40 y luego lo hizo nuevamente con GlassAI instalado. Todas las imágenes procesadas con Glass han mejorado claramente, a veces de manera espectacular.

Créditos de imagen: Vidrio / DXO

En niveles bajos de luz, el ISP integrado tiene dificultades para diferenciar líneas finas, texturas y detalles faciales en su modo nocturno. Con GlassAI, es tan nítido como una tachuela incluso con la mitad del tiempo de exposición.

Puedes ver los píxeles en algunas fotos de prueba que Glass tiene disponibles cambiando entre los raws y las finales.

Las empresas que fabrican teléfonos y cámaras tienen que dedicar mucho tiempo a ajustar el ISP para que el sensor, la lente y otras piezas funcionen juntas correctamente para generar la mejor imagen posible. Sin embargo, parece que el proceso único de Glass podría funcionar mejor en una fracción de tiempo.

“El tiempo que nos lleva entrenar el software distribuible desde el momento en que tenemos en nuestras manos un nuevo tipo de dispositivo… varía entre unas pocas horas y unos pocos días. Como referencia, los fabricantes de teléfonos pasan meses ajustando la calidad de la imagen, con equipos enormes. Nuestro proceso está completamente automatizado, por lo que podemos admitir múltiples dispositivos en unos pocos días”, dijo Attar.

El ISP neuronal también es de extremo a extremo, lo que significa en este contexto que va directamente desde el sensor RAW a la imagen final sin necesidad de procesos adicionales como eliminación de ruido, nitidez, etc.

Izquierda: CRUDO, derecha: Procesado en vidrio. Créditos de imagen: Vaso

Cuando le pregunté, Attar tuvo cuidado de diferenciar su trabajo de los servicios de inteligencia artificial de súper resolución, que toman una imagen terminada y la mejoran. A menudo no se trata tanto de “recuperar” detalles sino de inventarlos cuando parece apropiado, un proceso que a veces puede producir resultados indeseables. Aunque Glass utiliza IA, no es generativa como lo son muchas IA relacionadas con imágenes.

Hoy marca la disponibilidad del producto en general, presumiblemente después de un largo período de prueba con socios. Si fabrica un teléfono Android, sería bueno al menos intentarlo.

Sin embargo, en el lado del hardware, el teléfono con la extraña cámara anamórfica en forma de rombo tendrá que esperar hasta que el fabricante esté listo para salir a bolsa.

Mientras Glass desarrolla su tecnología y prueba a los clientes, también ha estado ocupada buscando financiación. La compañía acaba de cerrar una “semilla extendida” de $ 9,3 millones, que puse entre comillas porque la ronda semilla fue en 2021. La nueva financiación fue liderada por GV, con la participación de Future Ventures, Abstract Ventures y LDV Capital.



Source link-48

]]>
https://magazineoffice.com/el-vidrio-potencia-las-camaras-de-los-telefonos-inteligentes-con-ia-sin-alucinaciones/feed/ 0
BMW mostró IA sin alucinaciones en CES 2024 https://magazineoffice.com/bmw-mostro-ia-sin-alucinaciones-en-ces-2024/ https://magazineoffice.com/bmw-mostro-ia-sin-alucinaciones-en-ces-2024/#respond Thu, 18 Jan 2024 12:00:14 +0000 https://magazineoffice.com/bmw-mostro-ia-sin-alucinaciones-en-ces-2024/

BMW

La ola de histeria sobre la IA en el CES 2024 en Las Vegas era predecible en muchos sentidos. Después de todo, es la tendencia tecnológica más importante del momento, y ¿qué startup no querría ser parte de ese espíritu de la época?

Para mí, la aceptación generalizada por parte de los fabricantes de automóviles es un poco más sorprendente. BMW, Mercedes-Benz y Volkswagen tuvieron anuncios relacionados con la IA en el CES, algo inesperado porque, aunque interesantes, tecnologías como ChatGPT han demostrado ser poco confiables cuando se trata de detalles menores como brindar información útil y objetiva.

Para su implementación, BMW tenía una solución convincente al problema: aprovechar el poder de un modelo de lenguaje grande, como Alexa LLM de Amazon, pero permitirle solo citar información de la documentación interna de BMW sobre el automóvil.

Es restrictivo: un proceso llamado recuperación-generación aumentada. El resultado fue una interacción de IA mucho más restrictiva que la demostrada por otros fabricantes. De todos modos, es un gran paso adelante con respecto a los asistentes de voz actuales y llegará a los automóviles actuales a finales de este año.

Simplemente será parte del actual Asistente Personal Inteligente de la compañía. Piense en ello como un manual de automóvil inteligente, capaz de contarle cualquier cosa sobre su automóvil, explicarle el por qué y darle muchos matices.

Por ejemplo, puede pedirle a su BMW no sólo que habilite un modo de conducción determinado, sino también las diferencias entre los modos de conducción, e incluso decir algo como: «Voy a conducir por una carretera sinuosa. ¿Qué ajustes de conducción se adaptarían a mí?». ¿tú recomiendas?»

Es cierto que suena poco convincente en la superficie, pero espera porque creo que esta podría ser una de las aplicaciones más valiosas para la IA en el automóvil hasta el momento. ¿Por qué? Porque muchos coches modernos, especialmente los premium, son ridículamente complejos.

Están plagados de una variedad tan vertiginosa de características y funciones que los fabricantes ya no se molestan con los manuales en papel. Serían demasiado difíciles de manejar para imprimir, por un lado, pero más allá de eso, quedarían obsoletos tan pronto como la tinta llegara al papel.

Tratar de mantenerse al día con todo lo que su automóvil puede hacer se ha convertido en una pesadilla, ligeramente domesticada con la llegada de los asistentes de voz. Poder decir «Enciende el volante con calefacción» me ha ahorrado muchos minutos de hurgar y presionar los submenús en autos de prueba que dependen de la pantalla táctil.

Sin embargo, esos asistentes de voz se ven fácilmente obstaculizados si no sabes el nombre exacto de la función que estás buscando.

El asistente de voz mejorado LLM de BMW no solo puede entender lo que quieres decir, incluso si no usas el término que se le ocurrió al equipo de marca de la compañía, sino que incluso puede responder a comandos como: «Explícamelo como si fuera un 5″. -años de edad.»

Por ejemplo, cuando se le pidió que explicara el modo Eficiente, el automóvil dijo: «El modo Eficiente es como cuando estás jugando y quieres usar la menor cantidad de piezas posible para ganar. Los sistemas del automóvil trabajan juntos para usar la menor cantidad de combustible posible». posible, lo cual es bueno tanto para el medio ambiente como para su bolsillo».

Si logra dejar perplejo a este nuevo asistente de voz, en lugar de simplemente decir «No entiendo», le hará preguntas para llegar a la raíz de su solicitud.

Si eres un usuario avanzado y un entusiasta de los automóviles, esto probablemente no te parezca demasiado encantador. Pero imaginemos a alguien que es nuevo o no está familiarizado con esta maravillosa era de la movilidad, alguien que nunca antes ha tenido un automóvil con pantalla táctil. Esto podría mejorar exponencialmente su experiencia como propietario.

Ahora, una revelación crucial de todo esto: no se me permitió interactuar con el asistente de voz. Los encargados de BMW fueron los únicos que hablaron y me pidieron explícitamente que me sentara en silencio mientras realizaban la demostración. Eso aumenta la posibilidad de que mi demostración haya sido falsificada, pero hubo algunos contratiempos que me hicieron confiar en que estaba respondiendo verdadera y dinámicamente, incluso si el conjunto de preguntas en este punto es presumiblemente limitado.

BMW dijo, sin embargo, que este es sólo un primer paso. En última instancia, la implementación de BMW de Alexa LLM se ampliará para incluir más funciones, como navegación y puntos de interés.

La compañía no dio una idea clara de cuándo esperar esos temas de discusión adicionales impulsados ​​por la IA, pero al menos este primer paso llegará pronto. BMW dice que podrás tener este tipo de conversaciones en sus autos que ejecuten el Sistema Operativo 9 en algún momento de este verano.

Mejor aún, será una actualización gratuita.



Source link-49

]]>
https://magazineoffice.com/bmw-mostro-ia-sin-alucinaciones-en-ces-2024/feed/ 0
En defensa de las alucinaciones de la IA https://magazineoffice.com/en-defensa-de-las-alucinaciones-de-la-ia/ https://magazineoffice.com/en-defensa-de-las-alucinaciones-de-la-ia/#respond Fri, 05 Jan 2024 17:16:33 +0000 https://magazineoffice.com/en-defensa-de-las-alucinaciones-de-la-ia/

Nadie sabe si la inteligencia artificial será una bendición o una maldición en el futuro lejano. Pero en este momento, existe una incomodidad y un desprecio casi universal por un hábito de estos chatbots y agentes: las alucinaciones, esos hechos inventados que aparecen en los resultados de grandes modelos de lenguaje como ChatGPT. En medio de lo que parece una respuesta cuidadosamente construida, el LLM deslizará algo que parece razonable pero que es una total invención. Un chatbot típico puede hacer que el excongresista caído en desgracia George Santos se parezca a Abe Lincoln. Dado que parece inevitable que algún día los chatbots generen la gran mayoría de toda la prosa jamás escrita, todas las empresas de inteligencia artificial están obsesionadas con minimizar y eliminar las alucinaciones, o al menos convencer al mundo de que el problema está bajo control.

Obviamente, el valor de los LLM alcanzará un nuevo nivel cuando las alucinaciones se acerquen a cero. Pero antes de que eso suceda, les pido que brinden por las fabulaciones de la IA.

Las alucinaciones me fascinan, aunque los científicos de inteligencia artificial tienen una idea bastante clara de por qué ocurren. Una startup de inteligencia artificial llamada Vectara los ha estudiado y su prevalencia, incluso recopilando las tasas de alucinaciones de varios modelos cuando se les pidió que resumieran un documento. (El GPT-4 de OpenAI funciona mejor, alucinando solo alrededor del 3 por ciento de las veces; el ahora obsoleto Palm Chat de Google, ¡no su chatbot Bard!, tuvo una sorprendente tasa del 27 por ciento, aunque para ser justos, resumir documentos no estaba en la timonera de Palm Chat. .) El CTO de Vectara, Amin Ahmad, dice que los LLM crean una representación comprimida de todos los datos de entrenamiento alimentados a través de sus neuronas artificiales. «La naturaleza de la compresión es que los detalles finos pueden perderse», afirma. Un modelo termina preparado con las respuestas más probables a las consultas de los usuarios, pero no tiene los datos exactos a su disposición. «Cuando llega a los detalles, empieza a inventar cosas», dice.

Santosh Vempala, profesor de informática en Georgia Tech, también ha estudiado las alucinaciones. «Un modelo de lenguaje es sólo un modelo probabilístico del mundo», dice, no un espejo veraz de la realidad. Vempala explica que la respuesta de un LLM se esfuerza por lograr una calibración general con el mundo real, tal como se representa en sus datos de capacitación, que es «una versión débil de la precisión». Su investigación, publicada con Adam Kalai de OpenAI, encontró que las alucinaciones son inevitables para hechos que no se pueden verificar utilizando la información de los datos de entrenamiento de un modelo.

Esa es la ciencia/matemática de las alucinaciones de IA, pero también son notables por la experiencia que pueden provocar en los humanos. A veces, estas fabricaciones generativas pueden parecer más plausibles que los hechos reales, que a menudo son sorprendentemente extraños e insatisfactorios. ¿Con qué frecuencia escuchas describir algo tan extraño que ningún guionista se atrevería a incluirlo en una película? ¡Estos días, todo el tiempo! Las alucinaciones pueden seducirnos al parecer que nos conectan con un mundo menos discordante que el actual en el que vivimos. Es más, me resulta revelador observar qué detalles tienden a inventar los robots. En su intento desesperado por llenar los espacios en blanco de una narrativa satisfactoria, gravitan hacia la versión estadísticamente más probable de la realidad representada en sus datos de entrenamiento a escala de Internet, que puede ser una verdad en sí misma. Lo comparo con un escritor de ficción que escribe una novela inspirada en hechos reales. Un buen autor se desviará de lo que realmente sucedió hacia un escenario imaginado que revela una verdad más profunda, esforzándose por crear algo más real que la realidad.

Cuando le pedí a ChatGPT que me escribiera un obituario (admítelo, tú también lo has intentado), hizo muchas cosas bien pero algunas mal. Me dio nietos que no tenía, me otorgó una fecha de nacimiento anterior y añadió un Premio Nacional de Revista a mi currículum por artículos que no escribí sobre la quiebra de las puntocom a finales de los años 1990. En la evaluación de mi vida que hizo el LLM, esto es algo que debería han sucedido basándose en los hechos de mi carrera. ¡Estoy de acuerdo! Es sólo por la imperfección de la vida real que la Sociedad Estadounidense de Editores de Revistas no me otorgó la escultura de elefante de metal que viene con ese honor. Después de casi 50 años escribiendo revistas, ¡eso depende de ellos, no de mí! Es casi como si ChatGPT hiciera una encuesta sobre posibles multiversos y descubriera que en la mayoría de ellos tenía un premio Ellie. Claro, hubiera preferido que, aquí en mi propio rincón del multiverso, jueces humanos me hubieran llamado al podio. Pero el reconocimiento de una red neuronal artificial es mejor que nada.



Source link-46

]]>
https://magazineoffice.com/en-defensa-de-las-alucinaciones-de-la-ia/feed/ 0
Después de infligirles alucinaciones, armas desvanecidas y «arenas movedizas», Call of Duty ahora nombrará y avergonzará a los tramposos desterrados en la mitad del juego. https://magazineoffice.com/despues-de-infligirles-alucinaciones-armas-desvanecidas-y-arenas-movedizas-call-of-duty-ahora-nombrara-y-avergonzara-a-los-tramposos-desterrados-en-la-mitad-del-juego/ https://magazineoffice.com/despues-de-infligirles-alucinaciones-armas-desvanecidas-y-arenas-movedizas-call-of-duty-ahora-nombrara-y-avergonzara-a-los-tramposos-desterrados-en-la-mitad-del-juego/#respond Sun, 06 Aug 2023 00:05:17 +0000 https://magazineoffice.com/despues-de-infligirles-alucinaciones-armas-desvanecidas-y-arenas-movedizas-call-of-duty-ahora-nombrara-y-avergonzara-a-los-tramposos-desterrados-en-la-mitad-del-juego/

La temporada 5 de Call of Duty: Modern Warfare 2 está aquí, trayendo consigo nuevos equipos, nuevos mapas y un pastor alemán imposible de matar que vive en tu cinturón. Pero también trajo una actualización al sistema anti-trampas del juego. Ya no contento con acosar a los tramposos con tormentos extraños como alucinaciones y armas que desaparecen, COD está recurriendo al motivador más potente de todos para disuadir a los malhechores en las partidas multijugador: la vergüenza.

En una publicación en Twitter (o un tweet en X), el equipo anti-trampas Team Ricochet de COD anunció que «a partir de la temporada 05, el feed de asesinatos notificará a los lobbies cuando #TeamRICOCHET y sus sistemas hayan eliminado a un jugador problemático del juego». En otras palabras, el sistema anti-trampas del juego mostrará un mensaje en la parte inferior izquierda de la pantalla para avisarte cuando haya expulsado a un hacker de la misma manera que te dice cuando alguien ha anotado un disparo en la cabeza.

Ver más





Source link-8

]]>
https://magazineoffice.com/despues-de-infligirles-alucinaciones-armas-desvanecidas-y-arenas-movedizas-call-of-duty-ahora-nombrara-y-avergonzara-a-los-tramposos-desterrados-en-la-mitad-del-juego/feed/ 0
Call of Duty 2023: el nuevo sistema antitrampas provoca «alucinaciones» https://magazineoffice.com/call-of-duty-2023-el-nuevo-sistema-antitrampas-provoca-alucinaciones/ https://magazineoffice.com/call-of-duty-2023-el-nuevo-sistema-antitrampas-provoca-alucinaciones/#respond Thu, 13 Jul 2023 21:10:05 +0000 https://magazineoffice.com/call-of-duty-2023-el-nuevo-sistema-antitrampas-provoca-alucinaciones/

LLAMADA DEL DEBER 2023

Call of Duty 2023 sale este año y Activision ya está probando un nuevo programa antitrampas. Las «alucinaciones» están destinadas a distraer a los tramposos.

RICOCHET Anti-Cheat es el último sistema de detección de trampas. (Fuente: Call of Duty)

  • Se ha mejorado el nuevo sistema RICOCHET.
  • Hay una sanción severa por informes falsos y mal uso de hardware de terceros.
  • El equipo introdujo una nueva medida anti-trampas «Alucinaciones».

Call of Duty 2023 ha sentado una nueva base para combatir los trucos con las últimas mejoras y ajustes del equipo de RICOCHET. El equipo presentó sus enfoques en un informe de progreso publicado recientemente.

La introducción de una nueva medida antitrampas llamada «Alucinaciones» pretende desorientar a los tramposos e interrumpir su actividad en el juego. Lo hace mediante la creación de objetos que se ven y se mueven como jugadores reales, pero solo son visibles para los tramposos detectados por el sistema.

Tratar con el uso de hardware de terceros

Con respecto al uso de hardware de terceros, el equipo implementó una función de detección. Los jugadores que usen estos dispositivos enfrentarán advertencias y prohibiciones de cuenta. Según Call of Duty, esto ya se ha traducido en una caída del 59% en el uso de este tipo de dispositivos.

Además, los informes intencionalmente falsos o los informes de spam por parte de los jugadores también deberían dar lugar a sanciones en la cuenta. Con mejoras continuas, es posible que el equipo busque perfeccionar el sistema antitrampas para cuando se lance Call of Duty 2023.

?

¿Qué tan bien se conocen?

¿Qué famoso director de cine trabajó en el juego Medal of Honor?

¿Qué tan bien se conocen?

Sin embargo, aún debe esperar hasta que pueda probar el sistema anti-trampas en Call of Duty 2023. El juego aún no tiene una fecha de lanzamiento oficial, pero es posible que un juez haya filtrado el cronograma de lanzamiento.

No te pierdas nada con el RED-Boletin informativo

Todos los viernes: ¡El resumen más informativo y entretenido del mundo de la tecnología!



Source link-57

]]>
https://magazineoffice.com/call-of-duty-2023-el-nuevo-sistema-antitrampas-provoca-alucinaciones/feed/ 0
Call of Duty entra en la guerra psicológica a medida que la nueva tecnología anti-trampas atormenta a los piratas informáticos con ‘alucinaciones’ https://magazineoffice.com/call-of-duty-entra-en-la-guerra-psicologica-a-medida-que-la-nueva-tecnologia-anti-trampas-atormenta-a-los-piratas-informaticos-con-alucinaciones/ https://magazineoffice.com/call-of-duty-entra-en-la-guerra-psicologica-a-medida-que-la-nueva-tecnologia-anti-trampas-atormenta-a-los-piratas-informaticos-con-alucinaciones/#respond Sun, 02 Jul 2023 20:31:42 +0000 https://magazineoffice.com/call-of-duty-entra-en-la-guerra-psicologica-a-medida-que-la-nueva-tecnologia-anti-trampas-atormenta-a-los-piratas-informaticos-con-alucinaciones/

Los hackers de Call of Duty: Modern Warfare 2 se están volviendo locos, amigo. Team Ricochet, el cuadro de desarrolladores de COD con la poco envidiable tarea de frustrar a los muchos tramposos del juego, ha publicado una actualización que detalla una nueva tecnología antitrampas. Se llama Alucinaciones y, bueno, hace exactamente lo que sugiere su nombre.

«Las alucinaciones colocan personajes señuelo dentro del juego que solo pueden ser detectados por tramposos que han sido marcados específicamente por [Team Ricochet’s] sistema «, dice la actualización. No pueden ser vistos por jugadores legítimos, pero «sirven para desorientar a los tramposos de varias maneras».



Source link-8

]]>
https://magazineoffice.com/call-of-duty-entra-en-la-guerra-psicologica-a-medida-que-la-nueva-tecnologia-anti-trampas-atormenta-a-los-piratas-informaticos-con-alucinaciones/feed/ 0