generadores – Magazine Office https://magazineoffice.com Vida sana, belleza, familia y artículos de actualidad. Thu, 09 May 2024 10:00:18 +0000 es hourly 1 https://wordpress.org/?v=6.5.3 El último avance médico de Google DeepMind toma prestado un truco de los generadores de imágenes de IA https://magazineoffice.com/el-ultimo-avance-medico-de-google-deepmind-toma-prestado-un-truco-de-los-generadores-de-imagenes-de-ia/ https://magazineoffice.com/el-ultimo-avance-medico-de-google-deepmind-toma-prestado-un-truco-de-los-generadores-de-imagenes-de-ia/#respond Thu, 09 May 2024 10:00:15 +0000 https://magazineoffice.com/el-ultimo-avance-medico-de-google-deepmind-toma-prestado-un-truco-de-los-generadores-de-imagenes-de-ia/

Gran parte del reciente revuelo sobre la IA se ha centrado en contenido digital fascinante generado a partir de simples indicaciones, junto con preocupaciones sobre su capacidad para diezmar la fuerza laboral y hacer que la propaganda maliciosa sea mucho más convincente. (¡Divertido!) Sin embargo, algunos de los trabajos más prometedores (y potencialmente mucho menos siniestros) de la IA se encuentran en la medicina. Una nueva actualización del software AlphaFold de Google podría conducir a avances en la investigación y el tratamiento de nuevas enfermedades.

El software AlphaFold, de Google DeepMind e Isomorphic Labs (también propiedad de Alphabet), ya ha demostrado que puede predecir cómo se pliegan las proteínas con una precisión sorprendente. Está catalogada la asombrosa cifra de 200 millones de proteínas conocidas, y Google dice que millones de investigadores han utilizado versiones anteriores para hacer descubrimientos en áreas como vacunas contra la malaria, tratamientos contra el cáncer y diseños de enzimas.

Conocer la forma y estructura de una proteína determina cómo interactúa con el cuerpo humano, lo que permite a los científicos crear nuevos fármacos o mejorar los existentes. Pero la nueva versión, AlphaFold 3, puede modelar otras moléculas cruciales, incluido el ADN. También puede trazar interacciones entre medicamentos y enfermedades, lo que podría abrir nuevas e interesantes puertas para los investigadores. Y Google dice que lo hace con una precisión un 50 por ciento mayor que los modelos existentes.

«AlphaFold 3 nos lleva más allá de las proteínas a un amplio espectro de biomoléculas», escribió el equipo de investigación DeepMind de Google en una publicación de blog. «Este salto podría desbloquear una ciencia más transformadora, desde el desarrollo de materiales biorrenovables y cultivos más resistentes hasta la aceleración del diseño de fármacos y la investigación genómica».

“¿Cómo responden las proteínas al daño del ADN? ¿Cómo lo encuentran y lo reparan? John Jumper, líder del proyecto Google DeepMind, dijo cableado. «Podemos empezar a responder estas preguntas».

Antes de la IA, los científicos sólo podían estudiar las estructuras de las proteínas a través de microscopios electrónicos y métodos elaborados como la cristalografía de rayos X. El aprendizaje automático agiliza gran parte de ese proceso mediante el uso de patrones reconocidos en su entrenamiento (a menudo imperceptibles para los humanos y nuestros instrumentos estándar) para predecir las formas de las proteínas en función de sus aminoácidos.

Google dice que parte de los avances de AlphaFold 3 provienen de la aplicación de modelos de difusión a sus predicciones moleculares. Los modelos de difusión son piezas centrales de generadores de imágenes de IA como Midjourney, Gemini de Google y DALL-E 3 de OpenAI. La incorporación de estos algoritmos en AlphaFold «agudiza las estructuras moleculares que genera el software», como cableado explica. En otras palabras, se necesita una formación que parece confusa o vaga y hace conjeturas muy fundamentadas basadas en patrones de sus datos de entrenamiento para aclararla.

«Este es un gran avance para nosotros», dijo el director ejecutivo de Google DeepMind, Demis Hassabis. cableado. «Esto es exactamente lo que se necesita para el descubrimiento de fármacos: hay que ver cómo se unirá una pequeña molécula a un fármaco, con qué fuerza y ​​también a qué más podría unirse».

AlphaFold 3 utiliza una escala codificada por colores para etiquetar su nivel de confianza en su predicción, lo que permite a los investigadores tener la precaución adecuada con resultados que tienen menos probabilidades de ser precisos. Azul significa alta confianza; rojo significa que es menos seguro.

Google está haciendo que AlphaFold 3 sea gratuito para que los investigadores lo utilicen en investigaciones no comerciales. Sin embargo, a diferencia de versiones anteriores, la empresa no es de código abierto para el proyecto. Un destacado investigador que fabrica software similar, el profesor David Baker de la Universidad de Washington, expresó su decepción ante cableado que Google eligió esa ruta. Sin embargo, también quedó impresionado por las capacidades del software. «El rendimiento de predicción de estructuras de AlphaFold 3 es muy impresionante», afirmó.

En cuanto a lo que sigue, Google dice: «Isomorphic Labs ya está colaborando con compañías farmacéuticas para aplicarlo a los desafíos de diseño de fármacos del mundo real y, en última instancia, desarrollar nuevos tratamientos que cambien la vida de los pacientes».



Source link-47

]]>
https://magazineoffice.com/el-ultimo-avance-medico-de-google-deepmind-toma-prestado-un-truco-de-los-generadores-de-imagenes-de-ia/feed/ 0
¿Qué son los generadores de niebla en Helldivers 2? Respuesta https://magazineoffice.com/que-son-los-generadores-de-niebla-en-helldivers-2-respuesta/ https://magazineoffice.com/que-son-los-generadores-de-niebla-en-helldivers-2-respuesta/#respond Tue, 30 Apr 2024 06:36:23 +0000 https://magazineoffice.com/que-son-los-generadores-de-niebla-en-helldivers-2-respuesta/

Hay toneladas de objetivos hostiles en Helldivers 2, y los generadores de niebla son otro de esos obstáculos que se interponen en el camino de Super Earth. Esta guía cubrirá exactamente qué son los generadores y cómo desactivarlos fácilmente.

Generadores de niebla en Helldivers 2explicado

Captura de pantalla de The Escapist.

Los generadores de niebla son estructuras en forma de hongos que envuelven parte del mapa con una espesa niebla. Sólo aparecen en misiones Terminid y se consideran objetivos secundarios. Sabrás cuando hay uno cerca porque toda el área estará cubierta por una espesa niebla que hará que combatir los insectos sea mucho más difícil. Cuando comienza una brecha de errores, realizar un seguimiento de los enjambres se vuelve exponencialmente difícil y los enemigos lo usarán para su beneficio.

Como tantos otros enemigos y objetivos en Helldivers 2, muchos jugadores ni siquiera tenían idea de cuál era el nombre de los generadores de niebla Terminid. Super Earth no necesita contarles a sus soldados todos los detalles; sólo necesitan saber qué disparar a continuación.

Relacionado: Dónde encontrar tanques aniquiladores en Helldivers 2

Después de que se lanzó el parche 1.000.300, toneladas de jugadores finalmente se dieron cuenta del nombre real de estas estructuras. Sin embargo, saber el nombre de algo y entender cómo derrotarlo son dos cosas diferentes. Y junto con ese parche, los generadores son más resistentes.

Cómo destruir los generadores de niebla en Helldivers 2

Usa explosivos o estratagemas como Rocket Pods para acabar con los generadores de niebla. En el pasado, podías lanzar una sola granada de impacto a la estructura para destruirla por completo. Después del parche 1.000.300, estas estructuras tienen un poco más de salud con la que tienes que lidiar.

Utiliza armas como el Quasar Cannon junto con tus Eagle Stratagems para destruir los generadores un poco más voluminosos. Antes de que te des cuenta, el objetivo secundario estará terminado y finalmente podrás escapar de la niebla.


The Escapist cuenta con el apoyo de nuestra audiencia. Cuando compra a través de enlaces en nuestro sitio, podemos ganar una pequeña comisión de afiliado. Aprende más



Source link-28

]]>
https://magazineoffice.com/que-son-los-generadores-de-niebla-en-helldivers-2-respuesta/feed/ 0
¿Por qué la IA es tan mala en ortografía? Porque los generadores de imágenes en realidad no leen texto https://magazineoffice.com/por-que-la-ia-es-tan-mala-en-ortografia-porque-los-generadores-de-imagenes-en-realidad-no-leen-texto/ https://magazineoffice.com/por-que-la-ia-es-tan-mala-en-ortografia-porque-los-generadores-de-imagenes-en-realidad-no-leen-texto/#respond Fri, 22 Mar 2024 19:32:18 +0000 https://magazineoffice.com/por-que-la-ia-es-tan-mala-en-ortografia-porque-los-generadores-de-imagenes-en-realidad-no-leen-texto/

Las IA son fácilmente superando el SAT, derrotando a grandes maestros del ajedrez y depurando código como si nada. Pero si comparas una IA con algunos estudiantes de secundaria en el concurso de ortografía, quedará eliminada más rápido de lo que puedes decir difusión.

A pesar de todos los avances que hemos visto en la IA, todavía no puede deletrear. Si pides a generadores de texto a imagen como DALL-E que creen un menú para un restaurante mexicano, es posible que detectes algunos platos apetitosos como “taao”, “burto” y “enchida” en medio de un mar de otras tonterías.

Y si bien ChatGPT podría escribir sus artículos por usted, es cómicamente incompetente cuando le pide que proponga una palabra de 10 letras sin las letras «A» o «E» (me dijo, «pasamontañas»). Mientras tanto, cuando un amigo intentó usar la IA de Instagram para generar una calcomanía que decía «nueva publicación», creó un gráfico que parecía decir algo que no podemos repetir en TechCrunch, un sitio web familiar.

Créditos de imagen: Diseñador de Microsoft (DALL-E 3)

«Los generadores de imágenes tienden a funcionar mucho mejor en artefactos como automóviles y rostros de personas, y menos en cosas más pequeñas como dedos y escritura», dijo Asmelash Teka Hadgu, cofundador de Lesan y miembro del Instituto DAIR.

La tecnología subyacente detrás de los generadores de imágenes y texto es diferente, pero ambos tipos de modelos tienen problemas similares con detalles como la ortografía. Los generadores de imágenes generalmente utilizan modelos de difusión, que reconstruyen una imagen a partir del ruido. Cuando se trata de generadores de texto, puede parecer que los modelos de lenguaje grandes (LLM) leen y responden a sus indicaciones como un cerebro humano, pero en realidad utilizan matemáticas complejas para hacer coincidir el patrón de la indicación con uno en su espacio latente. dejándolo continuar el patrón con una respuesta.

«Los modelos de difusión, el último tipo de algoritmos utilizados para la generación de imágenes, están reconstruyendo una entrada determinada», dijo Hagdu a TechCrunch. «Podemos asumir que las escrituras en una imagen son una parte muy, muy pequeña, por lo que el generador de imágenes aprende los patrones que cubren más de estos píxeles».

Los algoritmos están incentivados a recrear algo que se parece a lo que se ve en sus datos de entrenamiento, pero no conocen de forma nativa las reglas que damos por sentado: que «hola» no se escribe «heeelllooo» y que las manos humanas generalmente tienen cinco dedos.

«Incluso el año pasado, todos estos modelos eran realmente malos con los dedos, y ese es exactamente el mismo problema que el texto», dijo Matthew Guzdial, investigador de inteligencia artificial y profesor asistente en la Universidad de Alberta. “Se están volviendo muy buenos en eso a nivel local, así que si miras una mano con seis o siete dedos, podrías decir: ‘Oh, vaya, eso parece un dedo’. De manera similar, con el texto generado, se podría decir que parece una ‘H’ y otro que parece una ‘P’, pero son muy malos para estructurar todo esto en conjunto”.

Los ingenieros pueden mejorar estos problemas aumentando sus conjuntos de datos con modelos de entrenamiento diseñados específicamente para enseñar a la IA cómo deberían verse las manos. Pero los expertos no prevén que estos problemas ortográficos se resuelvan tan rápido.

Créditos de imagen: Adobe luciérnaga

“Puedes imaginarte hacer algo similar: si simplemente creamos un montón de texto, pueden entrenar un modelo para que intente reconocer lo que es bueno y lo que es malo, y eso podría mejorar un poco las cosas. Pero desafortunadamente, el idioma inglés es realmente complicado”, dijo Guzdial a TechCrunch. Y la cuestión se vuelve aún más compleja cuando se considera cuántos idiomas diferentes tiene que aprender la IA para trabajar.

A algunos modelos, como Adobe Firefly, se les enseña a simplemente no generar texto en absoluto. Si ingresa algo simple como «menú en un restaurante» o «cartel publicitario con un anuncio», obtendrá una imagen de un papel en blanco sobre una mesa o un cartel blanco en la carretera. Pero si incluye suficientes detalles en su mensaje, estas barreras son fáciles de sortear.

«Puedes pensar en ello casi como si estuvieran jugando Whac-A-Mole, como, ‘Está bien, mucha gente se está quejando de nuestras manos; agregaremos algo nuevo simplemente dirigiendo las manos al siguiente modelo’, y así y así sucesivamente”, dijo Guzdial. “Pero el texto es mucho más difícil. Debido a esto, ni siquiera ChatGPT puede deletrear”.

En Reddit, YouTube y X, algunas personas han subido videos que muestran cómo ChatGPT falla en la ortografía en arte ASCII, una de las primeras formas de arte de Internet que utiliza caracteres de texto para crear imágenes. En una reciente video, que fue llamado un «viaje rápido del héroe de la ingeniería», alguien intenta minuciosamente guiar a ChatGPT a través de la creación de arte ASCII que dice «Honda». Al final lo logran, pero no sin pruebas y tribulaciones odiseas.

«Una hipótesis que tengo es que no tenían mucho arte ASCII en su formación», dijo Hagdu. «Esa es la explicación más simple».

Pero en el fondo, los LLM simplemente no entienden qué son las letras, incluso si pueden escribir sonetos en segundos.

“Los LLM se basan en esta arquitectura transformadora, que en realidad no lee texto. Lo que sucede cuando ingresas un mensaje es que se traduce en una codificación”, dijo Guzdial. «Cuando ve la palabra «el», tiene esta codificación de lo que significa «el», pero no sabe acerca de ‘T’, ‘H’, ‘E'».

Es por eso que cuando le pides a ChatGPT que produzca una lista de palabras de ocho letras sin una «O» o una «S», es incorrecta aproximadamente la mitad de las veces. En realidad, no sabe qué es una “O” o una “S” (aunque probablemente podría citarle la historia de la letra en Wikipedia).

Aunque estas imágenes DALL-E de malos menús de restaurantes son divertidas, las deficiencias de la IA son útiles cuando se trata de identificar información errónea. Cuando intentamos ver si una imagen dudosa es real o generada por IA, podemos aprender mucho mirando señales de tráfico, camisetas con texto, páginas de libros o cualquier cosa donde una cadena de letras aleatorias pueda traicionar la síntesis de una imagen. orígenes. Y antes de que estos modelos mejoraran en la fabricación de manos, un sexto (o séptimo u octavo) dedo también podría ser un indicio.

Pero, dice Guzdial, si miramos lo suficientemente de cerca, no son sólo los dedos y la ortografía lo que la IA se equivoca.

«Estos modelos plantean estos pequeños problemas locales todo el tiempo; lo que pasa es que estamos particularmente bien preparados para reconocer algunos de ellos», afirmó.

Créditos de imagen: Adobe luciérnaga

Para una persona promedio, por ejemplo, una imagen de una tienda de música generada por IA podría ser fácilmente creíble. Pero alguien que sepa un poco de música podría ver la misma imagen y notar que algunas de las guitarras tienen siete cuerdas, o que las teclas blancas y negras de un piano están espaciadas incorrectamente.

Aunque estos modelos de IA están mejorando a un ritmo alarmante, es probable que estas herramientas todavía encuentren problemas como este, lo que limita la capacidad de la tecnología.

«Este es un progreso concreto, no hay duda al respecto», dijo Hagdu. «Pero el tipo de publicidad que está recibiendo esta tecnología es simplemente una locura».





Source link-48

]]>
https://magazineoffice.com/por-que-la-ia-es-tan-mala-en-ortografia-porque-los-generadores-de-imagenes-en-realidad-no-leen-texto/feed/ 0
El lado oscuro de los generadores de imágenes de IA de código abierto https://magazineoffice.com/el-lado-oscuro-de-los-generadores-de-imagenes-de-ia-de-codigo-abierto/ https://magazineoffice.com/el-lado-oscuro-de-los-generadores-de-imagenes-de-ia-de-codigo-abierto/#respond Wed, 06 Mar 2024 12:37:32 +0000 https://magazineoffice.com/el-lado-oscuro-de-los-generadores-de-imagenes-de-ia-de-codigo-abierto/

Ya sea a través del ceño fruncido de alta definición de un chimpancé o de un psicodélico rostro en tonos rosados ​​y rojos. doble de sí mismo, Reuven Cohen utiliza imágenes generadas por IA para captar la atención de las personas. «Siempre me han interesado el arte, el diseño y el vídeo, y disfruto traspasar los límites», dice, pero el consultor con sede en Toronto, que ayuda a las empresas a desarrollar herramientas de inteligencia artificial, también espera crear conciencia sobre los usos más oscuros de la tecnología.

«También se le puede entrenar específicamente para que sea bastante espantoso y malo en una gran variedad de formas», dice Cohen. Es un fanático de la experimentación libre que ha sido desatada por la tecnología de generación de imágenes de código abierto. Pero esa misma libertad permite la creación de imágenes explícitas de mujeres utilizadas para acosar.

Después de que imágenes no consensuadas de Taylor Swift se difundieran recientemente en X, Microsoft agregó nuevos controles a su generador de imágenes. Los modelos de código abierto pueden ser utilizados por casi cualquier persona y, por lo general, no tienen barreras de seguridad. A pesar de los esfuerzos de algunos miembros esperanzados de la comunidad para disuadir los usos explotadores, el código abierto gratuito para todos es casi imposible de controlar, dicen los expertos.

“El código abierto ha impulsado el abuso de imágenes falsas y la pornografía no consensuada. Es imposible endulzarlo o calificarlo”, dice Henry Ajder, quien ha pasado años investigando el uso dañino de la IA generativa.

Ajder dice que, al mismo tiempo que se está convirtiendo en el favorito de investigadores, creativos como Cohen y académicos que trabajan en inteligencia artificial, el software de generación de imágenes de código abierto se ha convertido en la base del porno deepfake. Algunas herramientas basadas en algoritmos de código abierto están diseñadas específicamente para usos lascivos o acosadores, como aplicaciones de “desnudez” que eliminan digitalmente la ropa de las mujeres en imágenes.

Pero muchas herramientas pueden servir tanto para casos de uso legítimos como para casos de acoso. Un popular programa de intercambio de rostros de código abierto es utilizado por personas de la industria del entretenimiento y como la “herramienta elegida por los malos actores” que hacen deepfakes no consensuados, dice Ajder. Se afirma que el generador de imágenes de alta resolución Stable Diffusion, desarrollado por la startup Stability AI, tiene más de 10 millones de usuarios y tiene barreras de seguridad instaladas para evitar la creación explícita de imágenes y políticas que prohíben el uso malicioso. Pero la compañía también abrió una versión del generador de imágenes en 2022 que es personalizable, y las guías en línea explican cómo evitar sus limitaciones integradas.

Mientras tanto, modelos de IA más pequeños conocidos como LoRA facilitan el ajuste de un modelo de Difusión Estable para generar imágenes con un estilo, concepto o pose particular, como la imagen de una celebridad o ciertos actos sexuales. Están ampliamente disponibles en mercados de modelos de IA como Civitai, un sitio comunitario donde los usuarios comparten y descargan modelos. Allí, un creador de un complemento de Taylor Swift instó a otros a no usarlo «para imágenes NSFW». Sin embargo, una vez descargado, su uso queda fuera del control de su creador. «La forma en que funciona el código abierto significa que va a ser bastante difícil impedir que alguien pueda secuestrarlo», dice Ajder.

4chan, el sitio de foros de mensajes basado en imágenes con reputación de moderación caótica, alberga páginas dedicadas a pornografía deepfake no consensuada, según descubrió WIRED, creada con programas disponibles abiertamente y modelos de inteligencia artificial dedicados exclusivamente a imágenes sexuales. Los foros de mensajes de imágenes para adultos están llenos de desnudos no consensuales de mujeres reales generados por IA, desde artistas porno hasta actrices como Cate Blanchett. WIRED también observó a los usuarios de 4chan compartir soluciones para imágenes NSFW utilizando Dall-E 3 de OpenAI.

Ese tipo de actividad ha inspirado a algunos usuarios de comunidades dedicadas a la creación de imágenes mediante IA, incluidas Reddit y Discord, a intentar luchar contra el mar de imágenes pornográficas y maliciosas. Los creadores también expresan su preocupación de que el software gane reputación por sus imágenes NSFW, animando a otros a denunciar imágenes que representan a menores en Reddit y sitios de alojamiento de modelos.





Source link-46

]]>
https://magazineoffice.com/el-lado-oscuro-de-los-generadores-de-imagenes-de-ia-de-codigo-abierto/feed/ 0
Esta semana en IA: abordar el racismo en los generadores de imágenes de IA https://magazineoffice.com/esta-semana-en-ia-abordar-el-racismo-en-los-generadores-de-imagenes-de-ia/ https://magazineoffice.com/esta-semana-en-ia-abordar-el-racismo-en-los-generadores-de-imagenes-de-ia/#respond Sun, 25 Feb 2024 00:17:58 +0000 https://magazineoffice.com/esta-semana-en-ia-abordar-el-racismo-en-los-generadores-de-imagenes-de-ia/

Mantenerse al día con una industria que evoluciona tan rápidamente como la IA es una tarea difícil. Entonces, hasta que una IA pueda hacerlo por usted, aquí hay un resumen útil de historias recientes en el mundo del aprendizaje automático, junto con investigaciones y experimentos notables que no cubrimos por sí solos.

Esta semana en IA, Google detuvo la capacidad de su chatbot de IA Gemini para generar imágenes de personas después de que un segmento de usuarios se quejara de imprecisiones históricas. Cuando se le pedía que representara “una legión romana”, por ejemplo, Géminis mostraría un grupo anacrónico y caricaturesco de soldados de infantería racialmente diversos mientras representaba a los “guerreros zulúes” como negros.

Parece que Google, al igual que otros proveedores de inteligencia artificial, incluido OpenAI, había implementado una codificación torpe bajo el capó para intentar «corregir» los sesgos en su modelo. En respuesta a indicaciones como “muéstrame imágenes sólo de mujeres” o “muéstrame imágenes sólo de hombres”, Géminis se negaba, afirmando que tales imágenes podrían “contribuir a la exclusión y marginación de otros géneros”. Géminis también se resistía a generar imágenes de personas identificadas únicamente por su raza (por ejemplo, “gente blanca” o “gente negra”) por una aparente preocupación por “reducir a los individuos a sus características físicas”.

Los derechistas se han aferrado a los errores como evidencia de una agenda «despertada» perpetuada por la élite tecnológica. Pero no hace falta la navaja de Occam para ver la verdad menos nefasta: Google, quemado antes por los prejuicios de sus herramientas (ver: clasificar a los hombres negros como gorilas, confundir las pistolas térmicas en manos de los negros con armas, etc.), está tan desesperado para evitar que la historia se repita, que está manifestando un mundo menos sesgado en sus modelos de generación de imágenes, por erróneos que sean.

En su libro más vendido “White Fragility”, la educadora antirracista Robin DiAngelo escribe sobre cómo la eliminación de la raza (“daltonismo”, según otra frase) contribuye a los desequilibrios sistémicos de poder racial en lugar de mitigarlos o aliviarlos. Al pretender “no ver el color” o al reforzar la noción de que simplemente reconocer la lucha de personas de otras razas es suficiente para etiquetarse a uno mismo como “despertado”, la gente perpetuar daño al evitar cualquier conservación sustancial sobre el tema, dice DiAngelo.

El tratamiento cauteloso que Google dio a las indicaciones basadas en la raza en Gemini no evitó el problema per se, pero intentó ocultar falsamente lo peor de los sesgos del modelo. Se podría argumentar (y muchos lo han hecho) que estos sesgos no deberían ignorarse ni pasarse por alto, sino abordarse en el contexto más amplio de los datos de capacitación de los que surgen: es decir, la sociedad en la red mundial.

Sí, los conjuntos de datos utilizados para entrenar a los generadores de imágenes generalmente contienen más personas blancas que negras, y sí, las imágenes de personas negras en esos conjuntos de datos refuerzan los estereotipos negativos. Es por eso que los generadores de imágenes sexualizan a ciertas mujeres de color, representan a hombres blancos en posiciones de autoridad y, en general, favorecen las perspectivas occidentales adineradas.

Algunos podrían argumentar que los proveedores de IA no salen ganando. Ya sea que aborden (o decidan no abordar) los sesgos de los modelos, serán criticados. Y eso es verdad. Pero sostengo que, en cualquier caso, estos modelos carecen de explicación y están presentados de una manera que minimiza las formas en que se manifiestan sus sesgos.

Si los proveedores de IA abordaran las deficiencias de sus modelos de frente, en un lenguaje humilde y transparente, irían mucho más allá de los intentos fortuitos de “arreglar” lo que es esencialmente un sesgo irreparable. La verdad es que todos tenemos prejuicios y, como resultado, no tratamos a las personas de la misma manera. Tampoco los modelos que estamos construyendo. Y haríamos bien en reconocerlo.

Aquí hay algunas otras historias destacadas de IA de los últimos días:

  • Mujeres en IA: TechCrunch lanzó una serie que destaca a mujeres destacadas en el campo de la IA. Lea la lista aquí.
  • Difusión estable v3: Stability AI ha anunciado Stable Diffusion 3, la versión más reciente y potente del modelo de IA de generación de imágenes de la compañía, basado en una nueva arquitectura.
  • Chrome obtiene GenAI: La nueva herramienta Gemini de Google en Chrome permite a los usuarios reescribir texto existente en la web o generar algo completamente nuevo.
  • Más negro que ChatGPT: La agencia de publicidad creativa McKinney desarrolló un juego de preguntas, ¿Eres más negro que ChatGPT?, para arrojar luz sobre el sesgo de la IA.
  • Convocatorias de leyes: Cientos de luminarias de la IA firmaron una carta pública a principios de esta semana pidiendo una legislación contra los deepfake en EE. UU.
  • Partido realizado en IA: OpenAI tiene un nuevo cliente en Match Group, propietario de aplicaciones como Hinge, Tinder y Match, cuyos empleados utilizarán la tecnología de inteligencia artificial de OpenAI para realizar tareas relacionadas con el trabajo.
  • Seguridad de DeepMind: DeepMind, la división de investigación de IA de Google, ha formado una nueva organización, AI Safety and Alignment, formada por equipos existentes que trabajan en la seguridad de la IA, pero que también se amplió para abarcar cohortes nuevas y especializadas de investigadores e ingenieros de GenAI.
  • Modelos abiertos: Apenas una semana después de lanzar la última versión de sus modelos Gemini, Google lanzó Gemma, una nueva familia de modelos livianos y abiertos.
  • Grupo de trabajo de la casa: La Cámara de Representantes de Estados Unidos ha fundado un grupo de trabajo sobre IA que, como escribe Devin, parece una apuesta después de años de indecisión que no dan señales de terminar.

Más aprendizajes automáticos

Los modelos de IA parecen saber mucho, pero ¿qué saben realmente? Bueno, la respuesta es nada. Pero si formulas la pregunta de manera ligeramente diferente… parecen haber internalizado algunos “significados” que son similares a lo que los humanos conocen. Aunque ninguna IA entiende realmente qué es un gato o un perro, ¿podría tener algún sentido de similitud codificado en la incorporación de esas dos palabras que sea diferente de, digamos, gato y botella? Los investigadores de Amazon así lo creen.

Su investigación comparó las «trayectorias» de oraciones similares pero distintas, como «el perro le ladró al ladrón» y «el ladrón hizo que el perro ladrara», con aquellas de oraciones gramaticalmente similares pero diferentes, como «un gato duerme todo el día». y “una chica trota toda la tarde”. Descubrieron que aquellos que los humanos encontrarían similares eran tratados internamente como más similares a pesar de ser gramaticalmente diferentes, y viceversa para los gramaticalmente similares. Bien, siento que este párrafo fue un poco confuso, pero basta decir que los significados codificados en los LLM parecen ser más sólidos y sofisticados de lo esperado, no totalmente ingenuos.

La codificación neuronal está resultando útil en la visión protésica, según han descubierto investigadores suizos de la EPFL. Las retinas artificiales y otras formas de reemplazar partes del sistema visual humano generalmente tienen una resolución muy limitada debido a las limitaciones de las matrices de microelectrodos. Por lo tanto, no importa cuán detallada sea la imagen, debe transmitirse con una fidelidad muy baja. Pero hay diferentes formas de reducir la resolución y este equipo descubrió que el aprendizaje automático hace un gran trabajo al respecto.

Créditos de imagen: EPFL

“Descubrimos que si aplicábamos un enfoque basado en el aprendizaje, obteníamos mejores resultados en términos de codificación sensorial optimizada. Pero lo más sorprendente fue que cuando utilizamos una red neuronal sin restricciones, aprendió a imitar aspectos del procesamiento de la retina por sí sola”, dijo Diego Ghezzi en un comunicado de prensa. Básicamente, hace compresión perceptiva. Lo probaron en retinas de ratones, por lo que no es sólo teórico.

Una interesante aplicación de la visión por computadora realizada por investigadores de Stanford insinúa un misterio sobre cómo los niños desarrollan sus habilidades de dibujo. El equipo solicitó y analizó 37.000 dibujos de niños de diversos objetos y animales, y también (según las respuestas de los niños) qué tan reconocible era cada dibujo. Curiosamente, no fue sólo la inclusión de características distintivas, como las orejas de un conejo, lo que hizo que los dibujos fueran más reconocibles para otros niños.

“Los tipos de características que hacen que los dibujos de niños mayores sean reconocibles no parecen estar impulsados ​​por una sola característica que todos los niños mayores aprenden a incluir en sus dibujos. Es algo mucho más complejo que estos sistemas de aprendizaje automático están detectando”, afirmó la investigadora principal Judith Fan.

Los químicos (también de la EPFL) descubrieron que los LLM también son sorprendentemente hábiles para ayudar con su trabajo después de una formación mínima. No se trata sólo de hacer química directamente, sino de perfeccionar un conjunto de trabajos que los químicos individualmente no pueden conocer en su totalidad. Por ejemplo, en miles de artículos puede haber unos cientos de afirmaciones sobre si una aleación de alta entropía es monofásica o multifásica (no es necesario que sepas lo que esto significa, ellos sí lo saben). El sistema (basado en GPT-3) se puede entrenar en este tipo de preguntas y respuestas de sí/no, y pronto podrá extrapolar a partir de eso.

No se trata de un gran avance, sólo de una prueba más de que los LLM son una herramienta útil en este sentido. «La cuestión es que esto es tan fácil como hacer una búsqueda bibliográfica, lo que funciona para muchos problemas químicos», dijo el investigador Berend Smit. «Consultar un modelo fundamental podría convertirse en una forma rutinaria de iniciar un proyecto».

Por último, una advertencia por parte de los investigadores de Berkeley, aunque ahora que estoy leyendo la publicación nuevamente veo que la EPFL también estuvo involucrada en esto. ¡Vaya Lausana! El grupo descubrió que las imágenes encontradas a través de Google tenían muchas más probabilidades de imponer estereotipos de género para ciertos trabajos y palabras que los textos que mencionaban lo mismo. Y también hubo muchos más hombres presentes en ambos casos.

No solo eso, sino que en un experimento descubrieron que las personas que veían imágenes en lugar de leer texto cuando investigaban un rol asociaban esos roles con un género de manera más confiable, incluso días después. «No se trata sólo de la frecuencia del prejuicio de género en línea», dijo el investigador Douglas Guilbeault. «Parte de la historia aquí es que hay algo muy pegajoso, muy potente en la representación de personas en las imágenes que el texto simplemente no tiene».

Con cosas como la pelea por la diversidad del generador de imágenes de Google, es fácil perder de vista el hecho establecido y frecuentemente verificado de que la fuente de datos para muchos modelos de IA muestra un sesgo grave, y este sesgo tiene un efecto real en las personas.



Source link-48

]]>
https://magazineoffice.com/esta-semana-en-ia-abordar-el-racismo-en-los-generadores-de-imagenes-de-ia/feed/ 0
Imágenes de abuso sexual infantil encontradas en generadores de imágenes de entrenamiento de conjuntos de datos, según un informe https://magazineoffice.com/imagenes-de-abuso-sexual-infantil-encontradas-en-generadores-de-imagenes-de-entrenamiento-de-conjuntos-de-datos-segun-un-informe/ https://magazineoffice.com/imagenes-de-abuso-sexual-infantil-encontradas-en-generadores-de-imagenes-de-entrenamiento-de-conjuntos-de-datos-segun-un-informe/#respond Thu, 21 Dec 2023 21:47:01 +0000 https://magazineoffice.com/imagenes-de-abuso-sexual-infantil-encontradas-en-generadores-de-imagenes-de-entrenamiento-de-conjuntos-de-datos-segun-un-informe/

Se encontraron más de 1.000 materiales conocidos de abuso sexual infantil (CSAM) en un gran conjunto de datos abiertos, conocido como LAION-5B, que se utilizó para entrenar generadores populares de conversión de texto a imágenes como Stable Diffusion, investigador del Observatorio de Internet de Stanford (SIO), David. Thiel reveló el miércoles.

El informe de SIO parece confirmar los rumores que circulan en Internet desde 2022 de que LAION-5B incluía imágenes ilegales, informó Bloomberg. En un correo electrónico a Ars, Thiel advirtió que «la inclusión de material de abuso infantil en los datos de entrenamiento del modelo de IA enseña herramientas para asociar a los niños en actividades sexuales ilícitas y utiliza imágenes conocidas de abuso infantil para generar contenido nuevo y potencialmente realista sobre abuso infantil».

Thiel comenzó su investigación en septiembre después de descubrir en junio que se estaban utilizando generadores de imágenes de IA para crear miles de imágenes falsas pero realistas de sexo infantil con IA que se difundían rápidamente en la web oscura. Su objetivo era descubrir qué papel puede desempeñar el CSAM en el proceso de entrenamiento de los modelos de IA que alimentan los generadores de imágenes que emiten este contenido ilícito.

«Nuestra nueva investigación revela que estos modelos se entrenan directamente en CSAM presente en un conjunto de datos públicos de miles de millones de imágenes, conocido como LAION-5B», dice el informe de Thiel. «El conjunto de datos incluía CSAM conocido extraído de una amplia gama de fuentes, incluidos los principales sitios web de redes sociales», como Reddit, X, WordPress y Blogspot, así como «sitios populares de videos para adultos», como XHamster y XVideos.

Poco después de que se publicara el informe de Thiel, un portavoz de LAION, la organización sin fines de lucro con sede en Alemania que produjo el conjunto de datos, dijo a Bloomberg que LAION «estaba eliminando temporalmente los conjuntos de datos de LAION de Internet» debido a la «política de tolerancia cero» de LAION para el contenido ilegal. Los conjuntos de datos se volverán a publicar una vez que LAION garantice que «están seguros», dijo el portavoz. Un portavoz de Hugging Face, que alberga un enlace a un conjunto de datos de LAION que actualmente no está disponible, confirmó a Ars que el conjunto de datos ahora no está disponible para el público después de que quien lo subió lo cambió a privado.

Sin embargo, eliminar los conjuntos de datos ahora no soluciona ningún problema persistente con los conjuntos de datos descargados previamente o los modelos previamente entrenados, como Stable Diffusion 1.5. El informe de Thiel decía que las versiones posteriores de Stable Diffusion de Stability AI (2.0 y 2.1) filtraron parte o la mayor parte del contenido considerado «inseguro», «lo que dificulta la generación de contenido explícito». Pero debido a que los usuarios no estaban satisfechos con estas versiones posteriores, más filtradas, Stable Diffusion 1.5 sigue siendo «el modelo más popular para generar imágenes explícitas», según el informe de Thiel.

Un portavoz de Stability AI le dijo a Ars que Stability AI está «comprometido a prevenir el uso indebido de la IA y prohibir el uso de nuestros modelos y servicios de imágenes para actividades ilegales, incluidos los intentos de editar o crear CSAM». El portavoz señaló que el informe de SIO «se centra en el conjunto de datos LAION-5B en su conjunto», mientras que «los modelos de estabilidad de IA se entrenaron en un subconjunto filtrado de ese conjunto de datos» y fueron «posteriormente ajustados» para «mitigar comportamientos residuales». La implicación parece ser que el conjunto de datos filtrados de Stability AI no es tan problemático como el conjunto de datos más grande.

El portavoz de Stability AI también señaló que Stable Diffusion 1.5 «fue lanzado por Runway ML, no por Stability AI». Sin embargo, parece haber cierta confusión sobre ese punto, ya que un portavoz de Runway ML le dijo a Ars que Stable Diffusion «fue lanzado en colaboración con Stability AI».

Una demostración de Stable Diffusion 1.5 señaló que el modelo era «compatible con Stability AI», pero lanzado por CompVis y Runway. Si bien un hilo de YCombinator que enlaza a un blog, titulado «Por qué elegimos no lanzar Stable Diffusion 1.5 tan rápido», del ex director de información de Stability AI, Daniel Jeffries, puede haber proporcionado cierta claridad sobre esto, desde entonces ha sido eliminado.

El portavoz de Runway ML se negó a comentar sobre las actualizaciones que se estaban considerando para Stable Diffusion 1.5, pero vinculó a Ars a un blog de Stability AI de agosto de 2022 que decía: «Stability AI coeditó Stable Diffusion junto con investigadores talentosos de» Runway ML.

El portavoz de Stability AI dijo que Stability AI no alberga Stable Diffusion 1.5, pero ha tomado otras medidas para reducir los resultados dañinos. Entre ellos se incluyen únicamente alojar «versiones de Stable Diffusion que incluyen filtros» que «eliminan contenido inseguro» y «impiden que el modelo genere contenido inseguro».

«Además, hemos implementado filtros para interceptar mensajes o resultados inseguros cuando los usuarios interactúan con modelos en nuestra plataforma», dijo el portavoz de Stability AI. «También hemos invertido en funciones de etiquetado de contenido para ayudar a identificar las imágenes generadas en nuestra plataforma. Estas capas de mitigación dificultan que los malos actores hagan un mal uso de la IA».

Más allá de verificar 1.008 casos de CSAM en el conjunto de datos LAION-5B, SIO encontró 3.226 casos de CSAM sospechoso en el conjunto de datos LAION. El informe de Thiel advirtió que ambas cifras son «inherentemente un recuento insuficiente» debido a la capacidad limitada de los investigadores para detectar y señalar todos los CSAM en los conjuntos de datos. Su informe también predijo que «las repercusiones del proceso de entrenamiento de Stable Diffusion 1.5 nos acompañarán durante algún tiempo».

«La solución más obvia es que la mayor parte de aquellos en posesión de conjuntos de entrenamiento derivados de LAION-5B los eliminen o trabajen con intermediarios para limpiar el material», dice el informe de SIO. «Los modelos basados ​​en Stable Diffusion 1.5 a los que no se les han aplicado medidas de seguridad deben quedar obsoletos y cesar su distribución cuando sea posible».



Source link-49

]]>
https://magazineoffice.com/imagenes-de-abuso-sexual-infantil-encontradas-en-generadores-de-imagenes-de-entrenamiento-de-conjuntos-de-datos-segun-un-informe/feed/ 0
Investigadores de la Universidad de Chicago buscan «envenenar» generadores de arte de IA con Nightshade https://magazineoffice.com/investigadores-de-la-universidad-de-chicago-buscan-envenenar-generadores-de-arte-de-ia-con-nightshade/ https://magazineoffice.com/investigadores-de-la-universidad-de-chicago-buscan-envenenar-generadores-de-arte-de-ia-con-nightshade/#respond Fri, 27 Oct 2023 09:47:07 +0000 https://magazineoffice.com/investigadores-de-la-universidad-de-chicago-buscan-envenenar-generadores-de-arte-de-ia-con-nightshade/

El viernes, un equipo de investigadores de la Universidad de Chicago publicó un artículo de investigación que describe «Nightshade», una técnica de envenenamiento de datos destinada a interrumpir el proceso de entrenamiento de modelos de IA, informan MIT Technology Review y VentureBeat. El objetivo es ayudar a los artistas visuales y editores a proteger su trabajo para que no se utilice para entrenar modelos generativos de síntesis de imágenes de IA, como Midjourney, DALL-E 3 y Stable Diffusion.

La herramienta de código abierto «píldora venenosa» (como la llama el departamento de prensa de la Universidad de Chicago) altera imágenes de maneras invisibles para el ojo humano que pueden corromper el proceso de entrenamiento de un modelo de IA. Muchos modelos de síntesis de imágenes, con notables excepciones de los de Adobe y Getty Images, utilizan en gran medida conjuntos de datos de imágenes extraídas de la web sin el permiso del artista, lo que incluye material protegido por derechos de autor. (OpenAI obtiene la licencia de algunas de sus imágenes de entrenamiento DALL-E de Shutterstock).

La dependencia de los investigadores de IA de datos obtenidos de la web, algo que muchos consideran ético, también ha sido clave para la reciente explosión de la capacidad generativa de la IA. Se necesitó toda una Internet de imágenes con anotaciones (a través de subtítulos, texto alternativo y metadatos) creadas por millones de personas para crear un conjunto de datos con suficiente variedad para crear Difusión Estable, por ejemplo. No sería práctico contratar personas para anotar cientos de millones de imágenes desde el punto de vista tanto del costo como del tiempo. Aquellos con acceso a grandes bases de datos de imágenes existentes (como Getty y Shutterstock) tienen ventaja al utilizar datos de capacitación con licencia.

Un ejemplo de
Agrandar / Un ejemplo de generaciones de imágenes de datos «envenenadas» en Difusión Estable, proporcionado por investigadores de la Universidad de Chicago.

Shan, et al.

En ese sentido, algunas instituciones de investigación, como la Biblioteca Berkeley de la Universidad de California, han abogado por preservar la extracción de datos como uso legítimo en el entrenamiento de IA con fines de investigación y educación. Los tribunales estadounidenses aún no se han pronunciado definitivamente sobre esta práctica y los reguladores están buscando comentarios sobre una posible legislación que podría afectarla de una forma u otra. Pero tal como lo ve el equipo de Nightshade, el uso para investigación y el uso comercial son dos cosas completamente diferentes, y esperan que su tecnología pueda obligar a las empresas de capacitación en IA a licenciar conjuntos de datos de imágenes, respetar las restricciones de los rastreadores y cumplir con las solicitudes de exclusión voluntaria.

«El objetivo de esta herramienta es equilibrar el campo de juego entre los formadores modelo y los creadores de contenido», dijo en un comunicado el coautor y profesor de la Universidad de Chicago, Ben Y. Zhao. «En este momento, los entrenadores modelo tienen el 100 por ciento del poder. Las únicas herramientas que pueden ralentizar a los rastreadores son las listas de exclusión voluntaria y las directivas de no rastreo, todas las cuales son opcionales y dependen de la conciencia de las empresas de IA y, por supuesto, «Nada de esto es verificable o ejecutable y las empresas pueden decir una cosa y hacer otra con impunidad. Esta herramienta sería la primera que permitiría a los propietarios de contenido luchar de manera significativa contra la capacitación de modelos no autorizados».

Shawn Shan, Wenxin Ding, Josephine Passananti, Haitao Zheng y Zhao desarrollaron Nightshade como parte del Departamento de Ciencias de la Computación de la Universidad de Chicago. La nueva herramienta se basa en el trabajo anterior del equipo con Glaze, otra herramienta diseñada para alterar obras de arte digitales de una manera que confunde a la IA. Mientras que Glaze está orientado a ofuscar el estilo de la obra de arte, Nightshade va un paso más allá al corromper los datos de entrenamiento. Básicamente, engaña a los modelos de IA para que identifiquen erróneamente objetos dentro de las imágenes.

Por ejemplo, en las pruebas, los investigadores utilizaron la herramienta para alterar imágenes de perros de una manera que llevó a un modelo de IA a generar un gato cuando se le pedía que produjera un perro. Para hacer esto, Nightshade toma una imagen del concepto previsto (por ejemplo, una imagen real de un «perro») y modifica sutilmente la imagen para que conserve su apariencia original pero esté influenciada en el espacio latente (codificado) por un concepto completamente diferente. (por ejemplo, «gato»). De esta manera, ante una verificación humana o simple automatizada, la imagen y el texto parecen alineados. Pero en el espacio latente del modelo, la imagen tiene características tanto del concepto original como del concepto de veneno, lo que desvía al modelo cuando se entrena con los datos.



Source link-49

]]>
https://magazineoffice.com/investigadores-de-la-universidad-de-chicago-buscan-envenenar-generadores-de-arte-de-ia-con-nightshade/feed/ 0
Reporteros en Gaza recurren a radios y generadores para mantener las noticias en movimiento https://magazineoffice.com/reporteros-en-gaza-recurren-a-radios-y-generadores-para-mantener-las-noticias-en-movimiento/ https://magazineoffice.com/reporteros-en-gaza-recurren-a-radios-y-generadores-para-mantener-las-noticias-en-movimiento/#respond Wed, 25 Oct 2023 13:03:34 +0000 https://magazineoffice.com/reporteros-en-gaza-recurren-a-radios-y-generadores-para-mantener-las-noticias-en-movimiento/

“La desinformación y las tácticas de niebla de guerra han sido parte del arsenal del ejército israelí durante años, especialmente cuando se trata de acciones militares en Palestina, y en Gaza en particular”, dice Francesco Sebregondi, arquitecto forense que ayuda a investigar abusos contra los derechos humanos. . Sebregondi también es investigador de Forensic Architecture, que ha criticado la respuesta de Israel a incidentes anteriores.

En las redes sociales, una cohorte de periodistas palestinos como Plestia Alaqad, Bisan Owda y Motaz Azaiza han visto crecer sus seguidores hasta alcanzar los millones desde que comenzó la guerra. Su cobertura inquebrantable de la situación ha generado elogios, pero también ha cuestionado su objetividad. Después de que se viera a Alaqad usando un collar con la bandera palestina durante un video, recibió fuertes críticas en línea. «Ella no es periodista, es Hamás», escribió una persona en X, en un comentario típico de la discusión bajo sus publicaciones.

“Los intentos de desacreditar a los periodistas y las narrativas palestinas no son nuevos”, dice Tamara Kharroub, subdirectora ejecutiva del Centro Árabe, un grupo de expertos en Washington, DC. “Van desde campañas de desprestigio y acusaciones falsas de apoyar a Hamás hasta ser llamado parcial. Esto se suma a que son objeto de abusos y amenazas en línea. [and] censura en las plataformas de redes sociales”.

La idea de que los periodistas no son imparciales –o incluso de que estén vinculados con combatientes– puede ponerlos en peligro. Los trabajadores de los medios de comunicación a menudo se han encontrado en la línea de fuego. En mayo de 2021, las oficinas de Associated Press en Gaza fueron atacadas por las FDI, que dieron al personal una hora para evacuar antes de atacarlas con misiles. Las FDI afirmaron que militantes de Hamás también habían utilizado el edificio. En mayo de 2022, la periodista de Al Jazeera, Shireen Abu Akleh, fue asesinada a tiros mientras informaba sobre una redada del ejército en Cisjordania. Durante meses, las FDI afirmaron que no eran responsables, antes de admitir finalmente que había una “alta posibilidad” de que lo fuera.

Hace aproximadamente dos semanas, el 9 de octubre, los periodistas Saeed Al-Taweel y Mohammed Sobboh murieron cuando aviones de combate israelíes atacaron una zona que albergaba varias casas de medios en el distrito de Rimal, en el oeste de Gaza.

«La mayoría de los muertos son periodistas gráficos y autónomos palestinos locales que carecen de recursos de seguridad, respaldo de una sala de redacción o acceso al mundo exterior debido a la falta de Internet y electricidad», dice Sherif Mansour, coordinador del programa para Medio Oriente y África del Norte. el Comité para la Protección de los Periodistas.



Source link-46

]]>
https://magazineoffice.com/reporteros-en-gaza-recurren-a-radios-y-generadores-para-mantener-las-noticias-en-movimiento/feed/ 0
Panasonic está probando paneles de ‘vidrio generadores de energía’ para edificios https://magazineoffice.com/panasonic-esta-probando-paneles-de-vidrio-generadores-de-energia-para-edificios/ https://magazineoffice.com/panasonic-esta-probando-paneles-de-vidrio-generadores-de-energia-para-edificios/#respond Fri, 01 Sep 2023 14:09:36 +0000 https://magazineoffice.com/panasonic-esta-probando-paneles-de-vidrio-generadores-de-energia-para-edificios/

Panasonic está probando «vidrio generador de energía» que espera comenzar a vender en 2028 para su uso en una amplia gama de edificios.

Las células solares de perovskita se integran con el vidrio para producir una capa fotovoltaica de solo una micra de espesor intercalada entre dos láminas de sustrato de vidrio. El proceso de fabricación utiliza una combinación del «método de recubrimiento por inyección de tinta original» de Panasonic y la tecnología de procesamiento láser para producir paneles grandes de diferentes tamaños que permanecen lo suficientemente transparentes como para actuar como ventanas.

Eficiencia del vidrio generador de energía de Panasonic

(Crédito: Panasonic)

Panasonic dice que ha logrado una eficiencia de conversión del 17,9%, que es «el nivel de eficiencia de conversión más alto del mundo» para un módulo de perovskita de más de 800 centímetros cuadrados de tamaño. Es una afirmación que ha sido verificada de forma independiente por el Laboratorio Nacional de Energías Renovables de EE. UU. Sin embargo, Nikkei Asia señala que UtmoLight de China recientemente se robó esa corona con una eficiencia de conversión del 18,6%.

Para probar los prototipos de paneles de vidrio generadores de energía, Panasonic los instaló en una casa modelo construida para su Fujisawa Sustainable Smart Town en la prefectura de Kanagawa, Japón. El rendimiento del vidrio será monitoreado durante más de un año y se espera que la prueba finalice el 29 de noviembre de 2024.

Recomendado por nuestros editores

Panasonic comenzó a desarrollar este tipo de células solares en 2014 y ahora pretende tenerlas disponibles para su uso en una variedad de edificios para 2028. Un representante de Panasonic explicó que «usaremos su eficiencia de primer nivel a nivel mundial como punto de venta». … Cualquier lugar del mundo donde se utilice vidrio es un mercado potencial, como las ventanas de las oficinas y los tragaluces de las galerías comerciales.»

¡Obtenga nuestras mejores historias!

Matricularse en ¿Qué hay de nuevo ahora? para recibir nuestras historias principales en su bandeja de entrada todas las mañanas.

Este boletín puede contener publicidad, ofertas o enlaces de afiliados. La suscripción a un boletín indica su consentimiento a nuestros Términos de uso y Política de privacidad. Puede darse de baja de los boletines en cualquier momento.





Source link-38

]]>
https://magazineoffice.com/panasonic-esta-probando-paneles-de-vidrio-generadores-de-energia-para-edificios/feed/ 0
Los jugadores de WoW atrapan a los desventurados generadores de artículos de IA, engañando a un sitio para que escriba sobre una función ‘Glorbo’ muy esperada (y totalmente falsa) https://magazineoffice.com/los-jugadores-de-wow-atrapan-a-los-desventurados-generadores-de-articulos-de-ia-enganando-a-un-sitio-para-que-escriba-sobre-una-funcion-glorbo-muy-esperada-y-totalmente-falsa/ https://magazineoffice.com/los-jugadores-de-wow-atrapan-a-los-desventurados-generadores-de-articulos-de-ia-enganando-a-un-sitio-para-que-escriba-sobre-una-funcion-glorbo-muy-esperada-y-totalmente-falsa/#respond Sun, 23 Jul 2023 19:50:51 +0000 https://magazineoffice.com/los-jugadores-de-wow-atrapan-a-los-desventurados-generadores-de-articulos-de-ia-enganando-a-un-sitio-para-que-escriba-sobre-una-funcion-glorbo-muy-esperada-y-totalmente-falsa/

Buenas noticias para cualquiera que lea esto que sea yo: mi trabajo está seguro, al menos por un tiempo. ¿Cómo puedo saber? Porque al menos yo, a diferencia de los generadores de artículos de IA que rastrean el subreddit de World of Warcraft en busca de historias, sé que Glorbo no vendrá.

«Glorbo» es una nueva función inventada de WoW creada por un usuario de Reddit llamado kaefer_kriegerin. Habiendo notado que los bots estaban sondeando el subreddit de WoW en busca de hilos para convertirlos en historias sin tener en cuenta la verificación, kaefer se encargó de enseñarles una lección.

¡Estoy tan emocionada de que finalmente hayan presentado Glorbo! de r/guau





Source link-8

]]>
https://magazineoffice.com/los-jugadores-de-wow-atrapan-a-los-desventurados-generadores-de-articulos-de-ia-enganando-a-un-sitio-para-que-escriba-sobre-una-funcion-glorbo-muy-esperada-y-totalmente-falsa/feed/ 0