Chinchilla AI de DeepMind brinda con FLAC y PNG por la compresión de datos sin pérdidas a pesar de ser esencialmente solo un modelo de lenguaje grande


Si cree que FLAC es el amigo del audiófilo cuando se trata de archivos de música sin pérdidas, un modelo de lenguaje grande (LLM) tiene noticias para usted, ya que ahora también reclama la compresión como parte del creciente ámbito de influencia de la IA.

Un estudio titulado «El modelado del lenguaje es compresión» (a través de ArsTechnica) analiza un hallazgo sobre un LLM de DeepMind llamado Chinchilla 70B y su capacidad para realizar una compresión de datos sin pérdidas mejor que FLAC para audio y PNG para imágenes.

Chinchilla 70B podría reducir significativamente el tamaño de los parches de imágenes de la base de datos ImageNet, reduciéndolos a sólo el 43,4% de su tamaño original sin perder ningún detalle. Este rendimiento es mejor que el algoritmo PNG, que sólo pudo reducir el tamaño de las imágenes al 58,5%.

Además, Chinchilla comprime los datos de audio de LibriSpeech a sólo el 16,4% de su tamaño real para archivos de sonido. Esto es impresionante, especialmente comparado con la compresión FLAC, que sólo pudo reducir el tamaño del audio al 30,3%.



Source link-8