multilingüe – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Tue, 22 Aug 2023 13:36:28 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 Meta lanza un modelo de traducción de voz multilingüe https://magazineoffice.com/meta-lanza-un-modelo-de-traduccion-de-voz-multilingue/ https://magazineoffice.com/meta-lanza-un-modelo-de-traduccion-de-voz-multilingue/#respond Tue, 22 Aug 2023 13:36:23 +0000 https://magazineoffice.com/meta-lanza-un-modelo-de-traduccion-de-voz-multilingue/

Meta lanzó un nuevo modelo de voz a texto que puede traducir casi 100 idiomas llamado SeamlessM4T, mientras la compañía continúa intentando hacer un traductor universal.

Sin costuraM4T, que significa traducción automática masiva multilingüe y multimodal, que según la compañía puede traducir voz a texto y texto a texto en casi 100 idiomas. Para acciones de voz a voz y texto a voz, reconoce 100 idiomas de entrada y los convierte en 35 idiomas de salida.

Se publica bajo un Creative Commons CC BY-NC 4.0 licencia, lo que permite a los investigadores repetirla.

Junto con SeamlessM4T, Meta también publicó los metadatos de su conjunto de datos de traducción abierta SeamlessAlign.

“Construir un traductor de idiomas universal, como el ficticio Babel Fish en La Guía del autoestopista galácticoes un desafío porque los sistemas de voz a voz y de voz a texto existentes solo cubren una pequeña fracción de los idiomas del mundo”, dijo Meta.

El Guía del autoestopista Babel Fish, tal como lo concibió el autor Douglas Adams, es un pez que puedes colocar en tu oído para comprender instantáneamente cualquier idioma. si eres un Médico que Fan, podrías comparar la herramienta de Meta con una matriz de traducción en la TARDIS que convierte incluso palabras extrañas al inglés.

Meta dijo que SeamlessM4T representa «un avance significativo» porque este nuevo modelo realiza toda la tarea de traducción de una sola vez, a diferencia de otros grandes modelos de traducción que dividen la traducción en diferentes sistemas.

Una de las características interesantes de SeamlessM4T, si puede funcionar correctamente, es su supuesta capacidad de reconocer cuando un hablante cambia de código o cuando alguien se mueve entre dos o más idiomas en una oración. Por ejemplo, Meta demostró en un vídeo que el modelo diferencia inmediatamente entre hindi, telugu e inglés. No he probado el modelo, pero con frecuencia cambio de código entre mis dos idiomas nativos (filipino e inglés), como lo hace la mayoría de las personas que hablan diferentes idiomas, y por experiencia personal, no es algo que la mayoría de los software de reconocimiento de voz con IA detecten. rápidamente.

SeamlessM4T se basa en modelos de traducción anteriores de Meta. El año pasado Meta lanzó su libro Ningún idioma se queda atrás modelo de traducción automática de texto a texto, que admitía 200 idiomas. Desarrolló SpeechMatrix, un conjunto de datos para la traducción multilingüe de voz a voz y Massively Multilingual Speech para el reconocimiento de voz. Meta hizo una demostración de su Universal Speech Translator el año pasado, convirtiendo el hokkien hablado, un idioma ampliamente utilizado en China que no tiene un sistema de escritura oficial, al inglés.

La traducción de idiomas es importante para empresas como Meta, que emplean a miles de personas para moderar una avalancha de publicaciones de Facebook e Instagram en diferentes idiomas. Muy a menudo, los idiomas no principales tienen equipos más pequeños y terminan dependiendo de una moderación automatizada que no funciona bien con esos idiomas. La IA, si se le da acceso a un conjunto de datos de estos lenguajes más pequeños, puede ser una herramienta para que empresas como Meta mejoren la moderación.

Para construir SeamlessM4T, Meta dijo que rediseñó su kit de herramientas de modelado de secuencias Fairseq para crear modelos más livianos y manejar más información.

Mientras desarrollaba SeamlessM4T, Meta dijo que construyó un sistema que identifica palabras tóxicas o sensibles. Meta define las palabras tóxicas como casos en los que la «traducción puede incitar al odio, la violencia, la blasfemia o el abuso». El objetivo es poder detectar cuándo la traducción resultante introduce toxicidad que no estaba presente en el material original.

“Filtramos la toxicidad desequilibrada en los datos de entrenamiento. Si la entrada o la salida contenían diferentes cantidades de toxicidad, eliminamos esa secuencia de entrenamiento”, dijo Meta.

Los investigadores también intentaron limpiar conjuntos de datos que traducen mal algunas malas palabras para detectar con mayor precisión cuándo se están utilizando.

Meta afirma que también reconoce el sesgo de género en los idiomas y dijo que el modelo puede cuantificar el sesgo de género en las traducciones. SeamlessM4T puede comprobar si la oración utiliza una forma de palabra con género, por ejemplo doctora en español y, si es necesario, asignar un pronombre femenino en un idioma de destino sin una gramática de género equivalente. Al abordarlo de manera similar a la toxicidad, Meta dijo que SeamlessM4T cuenta cuántas veces una traducción agrega palabras de género en términos que no tenían género específico en el idioma original, es decir, asume automáticamente que el médico es hombre cuando no tiene distinción de género en el idioma inglés.

Meta ha estado lanzando muchos de sus modelos de IA a desarrolladores e investigadores de forma más o menos de código abierto. Recientemente publicar AudioCraft, código que permite la generación de texto a sonido. Meta también proporcionó acceso a su modelo de lenguaje grande Llama 2.



Source link-37

]]>
https://magazineoffice.com/meta-lanza-un-modelo-de-traduccion-de-voz-multilingue/feed/ 0
El grave defecto de la moderación de contenido de IA ‘multilingüe’ https://magazineoffice.com/el-grave-defecto-de-la-moderacion-de-contenido-de-ia-multilingue/ https://magazineoffice.com/el-grave-defecto-de-la-moderacion-de-contenido-de-ia-multilingue/#respond Tue, 23 May 2023 13:51:56 +0000 https://magazineoffice.com/el-grave-defecto-de-la-moderacion-de-contenido-de-ia-multilingue/

Tres partes de bosnio texto. Trece partes en kurdo. Cincuenta y cinco partes en swahili. Once mil partes en inglés.

Esto es parte de la receta de datos para el nuevo modelo de lenguaje grande de Facebook, que según la compañía es capaz de detectar y controlar contenido dañino en más de 100 idiomas. Bumble usa una tecnología similar para detectar mensajes groseros y no deseados en al menos 15 idiomas. Google lo usa para todo, desde la traducción hasta el filtrado de las secciones de comentarios de los periódicos. Todos tienen recetas comparables y el mismo ingrediente dominante: datos en inglés.

Durante años, las empresas de redes sociales han centrado sus esfuerzos de detección y eliminación automática de contenido más en el contenido en inglés que en los otros 7000 idiomas del mundo. Facebook dejó sin marcar casi el 70 por ciento de la información errónea de Covid en italiano y español, en comparación con solo el 29 por ciento de la información errónea similar en inglés. Los documentos filtrados revelan que las publicaciones en idioma árabe se marcan regularmente erróneamente como discurso de odio. La moderación deficiente del contenido en el idioma local ha contribuido a los abusos contra los derechos humanos, incluido el genocidio en Myanmar, la violencia étnica en Etiopía y la desinformación electoral en Brasil. A gran escala, las decisiones de alojar, degradar o eliminar contenido afectan directamente los derechos fundamentales de las personas, en particular los de las personas marginadas que tienen pocas vías para organizarse o expresarse libremente.

El problema es en parte uno de voluntad política, pero también es un desafío técnico. Construir sistemas que puedan detectar spam, incitación al odio y otros contenidos no deseados en todos los idiomas del mundo ya es difícil. Lo que lo hace más difícil es el hecho de que muchos idiomas son de «bajos recursos», lo que significa que tienen pocos datos de texto digitalizados disponibles para entrenar sistemas automatizados. Algunos de estos idiomas de bajos recursos tienen hablantes y usuarios de Internet limitados, pero otros, como el hindi y el indonesio, son hablados por cientos de millones de personas, lo que multiplica los daños creados por sistemas errantes. Incluso si las empresas estuvieran dispuestas a invertir en la creación de algoritmos individuales para cada tipo de contenido dañino en todos los idiomas, es posible que no tengan suficientes datos para que esos sistemas funcionen de manera efectiva.

Una nueva tecnología llamada «modelos de idiomas grandes multilingües» ha cambiado fundamentalmente la forma en que las empresas de redes sociales abordan la moderación de contenido. Los modelos de idiomas multilingües, como describimos en un nuevo artículo, son similares a GPT-4 y otros modelos de idiomas grandes (LLM), excepto que aprenden reglas de idioma más generales al entrenarse con textos en docenas o cientos de idiomas diferentes. Están diseñados específicamente para hacer conexiones entre idiomas, lo que les permite extrapolar de aquellos idiomas para los que tienen muchos datos de entrenamiento, como el inglés, para manejar mejor aquellos para los que tienen menos datos de entrenamiento, como el bosnio.

Estos modelos han demostrado ser capaces de realizar tareas semánticas y sintácticas simples en una amplia gama de idiomas, como analizar la gramática y analizar el sentimiento, pero no está claro qué tan capaces son en la tarea mucho más específica del idioma y el contexto de moderación de contenido, particularmente en idiomas en los que apenas están capacitados. Además de las publicaciones de blog ocasionales de autocomplacencia, las empresas de redes sociales han revelado poco sobre qué tan bien funcionan sus sistemas en el mundo real.

¿Por qué podría ser multilingüe ¿Serán los modelos menos capaces de identificar el contenido dañino de lo que sugieren las empresas de redes sociales?

Una de las razones es la calidad de los datos con los que entrenan, particularmente en idiomas de bajos recursos. En los grandes conjuntos de datos de texto que se utilizan a menudo para entrenar modelos multilingües, los idiomas menos representados son también los que con mayor frecuencia contienen texto que es ofensivo, pornográfico, mal traducido automáticamente o simplemente un galimatías. Los desarrolladores a veces intentan compensar los datos deficientes llenando el vacío con texto traducido por máquina, pero nuevamente, esto significa que el modelo aún tendrá dificultades para entender el lenguaje de la forma en que la gente realmente lo habla. Por ejemplo, si un modelo de idioma solo ha sido entrenado en texto traducido automáticamente del inglés al cebuano, un idioma hablado por 20 millones de personas en Filipinas, es posible que el modelo no haya visto el término «kuan», jerga utilizada por hablantes nativos, pero uno que no tiene ningún término comparable en otros idiomas.



Source link-46

]]>
https://magazineoffice.com/el-grave-defecto-de-la-moderacion-de-contenido-de-ia-multilingue/feed/ 0
Ana De Armas Se Pone Picante Y Multilingüe En Una Primavera Satisfactoria Saturday Night Live https://magazineoffice.com/ana-de-armas-se-pone-picante-y-multilingue-en-una-primavera-satisfactoria-saturday-night-live/ https://magazineoffice.com/ana-de-armas-se-pone-picante-y-multilingue-en-una-primavera-satisfactoria-saturday-night-live/#respond Tue, 18 Apr 2023 04:41:56 +0000 https://magazineoffice.com/ana-de-armas-se-pone-picante-y-multilingue-en-una-primavera-satisfactoria-saturday-night-live/

Aunque este episodio no fue uno de los mejores de la temporada, fue bastante consistente en calidad de comedia, incluso si hubo algunos momentos que fracasaron.

Sesión de grabación del álbum – Técnicamente esto es algo recurrente, pero hay tanta variación que no siempre se siente así. La mayoría de las veces, es el anfitrión que se interpreta a sí mismo mientras hace un papel de doblaje para una película animada. Otras veces, ha sido una sesión de grabación de sonido de videojuegos que se descarrila. En este caso, tenemos a Ana de Armas y Ego Nwodim como dos hype girls en una nueva canción de rap producida por Young Spicy (Devon Walker). Básicamente, están buscando algunas líneas de relleno para que suene genial, pero las dos damas siguen aventurándose en territorios embarazosos, como el hecho de que él podría ser analfabeto, vive en un apartamento asqueroso, conduce un Toyota Corolla 2001 y puede haber dejado embarazada a alguien. El destacado aquí es de Armas, quien no solo tiene una apariencia perfecta, sino que hace un gran uso de la goma de mascar y tartamudea con estilo los insultos involuntarios, todo mientras es bastante sexy. ¡Buen material!

Tráiler de la película American Girl Doll – Siguiendo los pasos del reciente tráiler de «Barbie», las queridas muñecas American Girl también tendrán su propia película de acción en vivo. Por supuesto, este no es tan divertido como el mundo de Barbie, porque la mayoría de las muñecas American Girl tienen historias de fondo trágicas entre momentos históricos, y muchas de ellas sobrevivieron a sus padres. Esta es una buena parodia pasada de moda que hace un gran uso del legado de las muñecas American Girl y el considerable elenco de «Saturday Night Live».

Clase de español – Además de traer un poco de español a la parte superior de su monólogo, Ana de Armas y Marcello Hernandez se unieron para hacer que Mikey Day pareciera un verdadero gringo en este sketch de la clase de español. Day hace un trabajo fantástico al hablar español de la manera más blanca posible, y aunque la premisa es bastante simple, es la personalidad de pan blanco y el comportamiento abrumado de Day lo que le permite aterrizar con bastante firmeza. Sin embargo, admito que no soy el mayor admirador del final, que se sintió más como una excusa al estilo «All That» para un cameo con calzador de la invitada musical Karol G. Y sí, de Armas y Hernández están hablando en serio. Español, pero no están metiendo ninguna tontería allí. Todo es relevante para la conversación que sucede en clase.

Comercial de la escuela de actuación canina – Si hubo un boceto malo esta noche, entonces probablemente sea este (aunque también se podría argumentar para el boceto de Nail Salon). Pero incluso este terminó evitando ser francamente terrible simplemente por el uso cómico de algunos perros muy buenos. Bueno, en su mayoría eran buenos perros, aunque no estaban haciendo exactamente lo que «SNL» necesitaba que hicieran. Al mismo tiempo, traer animales como este y hacer que pierdan sus puntos y se distraigan es lo que termina provocando más risas que lo que está en la página. En este caso, la parte más divertida fue un perro que saltaba por completo cuando se suponía que debía comer espaguetis de la boca de Chloe Fineman, pero no quería tener nada que ver con esa mordaza. Perros tan lindos guardaron este boceto, y es un poco difícil enojarse por eso.



Source link-16

]]>
https://magazineoffice.com/ana-de-armas-se-pone-picante-y-multilingue-en-una-primavera-satisfactoria-saturday-night-live/feed/ 0
Los mods de Cyberpunk 2077 hacen que Night City sea más multilingüe https://magazineoffice.com/los-mods-de-cyberpunk-2077-hacen-que-night-city-sea-mas-multilingue/ https://magazineoffice.com/los-mods-de-cyberpunk-2077-hacen-que-night-city-sea-mas-multilingue/#respond Wed, 12 Oct 2022 11:38:02 +0000 https://magazineoffice.com/los-mods-de-cyberpunk-2077-hacen-que-night-city-sea-mas-multilingue/

Night City es el escenario central del universo Cyberpunk, y desde sus inicios en el juego de rol de mesa, ha sido retratado como un crisol cosmopolita de innumerables culturas diferentes. Un modder se ha propuesto capturar más de ese espíritu en una serie de modificaciones de Cyberpunk 2077 que agregan opciones de idioma nativo para muchos de los personajes y pandillas del juego RPG.

El modder de Cyberpunk 2077 Nicotn ha estado creando una serie de mods de ‘Cosmopolitan Night City’ que agregan idiomas nativos para varios personajes. Hay modificaciones para personajes de habla hispana como Jackie Welles y Judy Alvarez, francés para la líder de la pandilla Voodoo Boys, Maman Brigitte y su lugarteniente Placide, y polaco para Misty Olszewski, la novia de Jackie que se convierte en la cuidadora de V al principio de la historia.

Otro de los mods de Nicotn cambia las líneas para los miembros de Tyger Claws para que todos se hablen en japonés, y otro hace que todos los Valentinos (y no solo los NPC aleatorios que conoces en la calle) hablen español.

Nicotn dice que la idea es hacer que Night City se sienta más envolvente, y es una gran adición al juego: visitar cualquier ciudad importante en la actualidad implica escuchar un coro de diferentes idiomas mientras caminas de un vecindario a otro. Night City de Cyberpunk es un nexo aún más internacional, por lo que tiene sentido que escuches otros idiomas de forma rutinaria mientras estás allí.

El software cibernético de V les permite traducir otros idiomas sobre la marcha, y en Cyberpunk 2077 eso aparece en los subtítulos en pantalla con un claro efecto de descifrado: Nicotn dice que están considerando agregar esto a varias de sus modificaciones. Por ahora, es posible que desee habilitar los subtítulos en el idioma de su elección (es decir, si aún no domina los idiomas que agregan las modificaciones).

Los mods de Nicotnn se pueden encontrar en Nexus Mods, ya sea individualmente o como parte de esta colección completa. Deberá tener su copia de Cyberpunk 2077 actualizada al menos a la versión 1.6. Nuestra lista de las mejores modificaciones de Cyberpunk 2077 tiene muchas más sugerencias sobre formas de mejorar aún más su estadía en Night City.



Source link-9

]]>
https://magazineoffice.com/los-mods-de-cyberpunk-2077-hacen-que-night-city-sea-mas-multilingue/feed/ 0
IA multilingüe, risueña, pitfall y callejera • TechCrunch https://magazineoffice.com/ia-multilingue-risuena-pitfall-y-callejera-techcrunch/ https://magazineoffice.com/ia-multilingue-risuena-pitfall-y-callejera-techcrunch/#respond Sun, 25 Sep 2022 18:13:26 +0000 https://magazineoffice.com/ia-multilingue-risuena-pitfall-y-callejera-techcrunch/

La investigación en el campo del aprendizaje automático y la IA, ahora una tecnología clave en prácticamente todas las industrias y empresas, es demasiado voluminosa para que alguien la lea en su totalidad. Esta columna, Perceptron, tiene como objetivo recopilar algunos de los descubrimientos y documentos recientes más relevantes, particularmente en inteligencia artificial, entre otros, y explicar por qué son importantes.

Durante las últimas semanas, los investigadores de Google han demostrado un sistema de IA, PaLI, que puede realizar muchas tareas en más de 100 idiomas. En otro lugar, un grupo con sede en Berlín lanzó un proyecto llamado Source+ que está diseñado como una forma de permitir que los artistas, incluidos los artistas visuales, músicos y escritores, opten por permitir que su trabajo se use como datos de entrenamiento para la IA.

Los sistemas de IA como GPT-3 de OpenAI pueden generar texto bastante sensato o resumir texto existente de la web, libros electrónicos y otras fuentes de información. Pero históricamente se han limitado a un solo idioma, lo que limita tanto su utilidad como su alcance.

Afortunadamente, en los últimos meses, la investigación sobre sistemas multilingües se ha acelerado, impulsada en parte por esfuerzos comunitarios como Hugging Face’s Bloom. En un intento de aprovechar estos avances en el multilingüismo, un equipo de Google creó PaLI, que fue capacitado tanto en imágenes como en texto para realizar tareas como subtítulos de imágenes, detección de objetos y reconocimiento óptico de caracteres.

Créditos de imagen: Google

Google afirma que PaLI puede comprender 109 idiomas y las relaciones entre las palabras en esos idiomas y las imágenes, lo que le permite, por ejemplo, subtitular una imagen de una postal en francés. Si bien el trabajo permanece firmemente en las fases de investigación, los creadores dicen que ilustra la importante interacción entre el lenguaje y las imágenes, y podría establecer una base para un producto comercial en el futuro.

El habla es otro aspecto del lenguaje en el que la IA mejora constantemente. Play.ht mostró recientemente un nuevo modelo de texto a voz que pone una notable cantidad de emoción y variedad en sus resultados. Los clips que publicó la semana pasada suenan fantásticos, aunque, por supuesto, están cuidadosamente seleccionados.

Generamos un clip propio usando la introducción de este artículo, y los resultados siguen siendo sólidos:


Todavía no está claro exactamente para qué será más útil este tipo de generación de voz. Todavía no estamos en la etapa en la que hacen libros completos, o mejor dicho, pueden hacerlo, pero puede que todavía no sea la primera opción de nadie. Pero a medida que aumenta la calidad, las aplicaciones se multiplican.

Mat Dryhurst y Holly Herndon, académico y músico, respectivamente, se asociaron con la organización Spawning para lanzar Source+, un estándar que esperan llame la atención sobre el problema de los sistemas de IA que generan fotografías creados con obras de arte de artistas que no estaban informados o pidió permiso. Source+, que no cuesta nada, tiene como objetivo permitir que los artistas no permitan que su trabajo se use con fines de entrenamiento de IA si así lo desean.

Los sistemas de generación de imágenes como Stable Diffusion y DALL-E 2 se entrenaron en miles de millones de imágenes extraídas de la web para «aprender» a traducir indicaciones de texto en arte. Algunas de estas imágenes provienen de comunidades de arte público como ArtStation y DeviantArt, no necesariamente con el conocimiento de los artistas, e imbuyeron los sistemas con la capacidad de imitar a creadores particulares, incluidos artistas como Greg Rutowski.

Estabilidad AI Estable Difusión

Muestras de difusión estable.

Debido a la habilidad de los sistemas para imitar estilos artísticos, algunos creadores temen que puedan amenazar los medios de subsistencia. Source+, si bien es voluntario, podría ser un paso para dar a los artistas una mayor opinión sobre cómo se usa su arte, dicen Dryhurst y Herndon, suponiendo que se adopte a escala (un gran si).

En DeepMind, un equipo de investigación está intentando resolver otro aspecto problemático de larga data de la IA: su tendencia a arrojar información tóxica y engañosa. Centrándose en el texto, el equipo desarrolló un chatbot llamado Sparrow que puede responder preguntas comunes al buscar en la web con Google. Otros sistemas de vanguardia como LaMDA de Google pueden hacer lo mismo, pero DeepMind afirma que Sparrow brinda respuestas plausibles y no tóxicas a las preguntas con más frecuencia que sus contrapartes.

El truco estaba en alinear el sistema con las expectativas de la gente. DeepMind reclutó a personas para usar Sparrow y luego les pidió que proporcionaran comentarios para entrenar un modelo de cuán útiles fueron las respuestas, mostrando a los participantes múltiples respuestas a la misma pregunta y preguntándoles qué respuesta les gustó más. Los investigadores también definieron reglas para Sparrow, como «no hacer declaraciones amenazantes» y «no hacer comentarios de odio o insultos», que hicieron que los participantes impusieran al sistema tratando de engañarlo para que rompiera las reglas.

Ejemplo del gorrión de DeepMind teniendo una conversación.

DeepMind reconoce que Sparrow tiene margen de mejora. Pero en un estudio, el equipo descubrió que el chatbot proporcionó una respuesta «plausible» respaldada con evidencia el 78 % de las veces cuando se le hizo una pregunta objetiva y solo rompió las reglas antes mencionadas el 8 % de las veces. Eso es mejor que el sistema de diálogo original de DeepMind, señalan los investigadores, que rompía las reglas aproximadamente tres veces más a menudo cuando se engañaba para hacerlo.

Un equipo separado en DeepMind abordó un dominio muy diferente recientemente: los videojuegos que históricamente han sido difíciles de dominar rápidamente para la IA. Su sistema, descaradamente llamado MEME, supuestamente logró un rendimiento de «nivel humano» en 57 juegos diferentes de Atari 200 veces más rápido que el mejor sistema anterior.

De acuerdo con el artículo de DeepMind que detalla MEME, el sistema puede aprender a jugar observando aproximadamente 390 millones de fotogramas, «fotogramas» que se refieren a las imágenes fijas que se actualizan muy rápidamente para dar la impresión de movimiento. Eso puede parecer mucho, pero la técnica de vanguardia anterior requería 80 mil millones fotogramas en la misma cantidad de juegos de Atari.

MEME

Créditos de imagen: Mente profunda

Jugar hábilmente a Atari puede no parecer una habilidad deseable. Y, de hecho, algunos críticos argumentan que los juegos son un punto de referencia de IA defectuoso debido a su abstracción y relativa simplicidad. Pero los laboratorios de investigación como DeepMind creen que los enfoques podrían aplicarse a otras áreas más útiles en el futuro, como los robots que aprenden a realizar tareas de manera más eficiente viendo videos o autos que se conducen solos y se mejoran a sí mismos.

Nvidia tuvo un día de campo el día 20 anunciando docenas de productos y servicios, entre ellos varios esfuerzos interesantes de IA. Los autos sin conductor son uno de los enfoques de la compañía, tanto para impulsar la IA como para entrenarla. Para estos últimos, los simuladores son cruciales y también es importante que las carreteras virtuales se parezcan a las reales. Describen un flujo de contenido nuevo y mejorado que acelera la transferencia de datos recopilados por cámaras y sensores en automóviles reales al ámbito digital.

Un entorno de simulación basado en datos del mundo real.

Cosas como los vehículos del mundo real y las irregularidades en la carretera o la cubierta de árboles se pueden reproducir con precisión, por lo que la IA autónoma no aprende en una versión desinfectada de la calle. Y hace posible crear configuraciones de simulación más grandes y variables en general, lo que ayuda a la robustez. (Otra imagen de él está arriba).

Nvidia también presentó su sistema IGX para plataformas autónomas en situaciones industriales: colaboración hombre-máquina como la que podría encontrar en una fábrica. No hay escasez de estos, por supuesto, pero a medida que aumenta la complejidad de las tareas y los entornos operativos, los métodos antiguos ya no son suficientes y las empresas que buscan mejorar su automatización están buscando pruebas de futuro.

Ejemplo de visión por computadora que clasifica objetos y personas en el piso de una fábrica.

La seguridad «proactiva» y «predictiva» es con lo que IGX pretende ayudar, es decir, detectar problemas de seguridad antes de que causen interrupciones o lesiones. Un bot puede tener su propio mecanismo de parada de emergencia, pero si una cámara que monitorea el área pudiera indicarle que se desvíe antes de que una carretilla elevadora se interponga en su camino, todo resultará un poco más fluido. Exactamente qué compañía o software logra esto (y en qué hardware, y cómo se paga todo) todavía es un trabajo en progreso, con empresas como Nvidia y nuevas empresas como Veo Robotics abriéndose paso.

Otro interesante paso adelante se dio en el terreno de juego de Nvidia. Las últimas y mejores GPU de la compañía están diseñadas no solo para impulsar triángulos y sombreadores, sino también para realizar rápidamente tareas impulsadas por IA como su propia tecnología DLSS para mejorar y agregar marcos.

El problema que están tratando de resolver es que los motores de juegos son tan exigentes que generar más de 120 fotogramas por segundo (para mantenerse al día con los monitores más recientes) mientras se mantiene la fidelidad visual es una tarea hercúlea que incluso las GPU potentes apenas pueden hacer. Pero DLSS es una especie de mezclador de cuadros inteligente que puede aumentar la resolución del cuadro de origen sin alias ni artefactos, por lo que el juego no tiene que empujar tantos píxeles.

En DLSS 3, Nvidia afirma que puede generar fotogramas adicionales completos en una proporción de 1:1, por lo que podría renderizar 60 fotogramas de forma natural y los otros 60 mediante IA. Puedo pensar en varias razones que podrían hacer que las cosas sean raras en un entorno de juego de alto rendimiento, pero Nvidia probablemente las conozca. En cualquier caso, deberá pagar alrededor de mil por el privilegio de usar el nuevo sistema, ya que solo se ejecutará en tarjetas de la serie RTX 40. Pero si la fidelidad gráfica es su principal prioridad, hágalo.

Ilustración de la construcción de drones en un área remota.

Lo último hoy es una técnica de impresión 3D basada en drones del Imperial College London que podría usarse para procesos de construcción autónomos en un futuro lejano. Por ahora definitivamente no es práctico para crear algo más grande que un bote de basura, pero aún es pronto. Eventualmente, esperan hacerlo más como el anterior, y se ve genial, pero mire el video a continuación para aclarar sus expectativas.



Source link-48

]]>
https://magazineoffice.com/ia-multilingue-risuena-pitfall-y-callejera-techcrunch/feed/ 0
Jessica Haller: ¿Criará a su hija Hailey-Su multilingüe? https://magazineoffice.com/jessica-haller-criara-a-su-hija-hailey-su-multilingue/ https://magazineoffice.com/jessica-haller-criara-a-su-hija-hailey-su-multilingue/#respond Mon, 30 May 2022 16:19:53 +0000 https://magazineoffice.com/jessica-haller-criara-a-su-hija-hailey-su-multilingue/

Jessica creció en Alemania. Nacida en Essen, tiene padres polacos y también habla el idioma. Tanto mejor que ella también quiere compartir su herencia lingüística con la próxima generación. Sin embargo, su hija no crecerá bilingüe, es decir, DOS idiomas, como continuó escribiendo la joven madre en la sesión de preguntas y respuestas.

Más bien, además de alemán y polaco, también habla inglés y español con Hailey-Su. Sin embargo, la joven de 32 años no revela exactamente cómo lo hace. Definitivamente son bastantes idiomas para un bebé tan pequeño. Pero podría darle al niño de un año de hoy una comprensión más amplia del lenguaje más adelante. Y en su casa de adopción, la isla balear de Ibiza, ¡español e inglés son imprescindibles!



Source link-6

]]>
https://magazineoffice.com/jessica-haller-criara-a-su-hija-hailey-su-multilingue/feed/ 0