
Todos los días, los LLM generan enormes cantidades de datos, por lo que es fundamental almacenarlos y enviarlos correctamente. La compresión sin pérdida es la mejor opción para reducir el tamaño de los archivos sin perder ningún dato. He aquí por qué es clave y cómo funciona:
La compresión sin pérdidas no solo ahorra espacio, sino que es una forma inteligente de gestionar cada vez más datos creados por la IA.
La compresión sin pérdidas es una forma genial de almacenar bien los textos creados por IA sin perder ningún dato. Detecta patrones en los datos y los usa para reducir el tamaño de los archivos. Para el texto creado por IA, este método funciona de forma un poco diferente a otras formas de reducir el tamaño de los archivos. Veamos cómo mantiene los datos correctos y cómo lo hace bien.
La mejor parte de la compresión sin pérdidas es cómo puede reducir el tamaño de los datos pero conservar toda la información. Ve cosas repetidas, como patrones, que aparecen mucho y luego las escribe de forma breve. Por ejemplo, si «el» aparece mucho en un texto, se puede incluir en un código minúsculo que ocupe menos espacio. Cuando volvemos a hacerlo grande, el texto vuelve igual.
Formas como la codificación de Huffman y la codificación aritmética hacen que esto funcione. La codificación de Huffman proporciona códigos cortos a las cosas que aparecen con frecuencia, mientras que la codificación aritmética funciona aún mejor al acercarse al tamaño más pequeño para los datos. Las nuevas formas van aún más lejos, ya que aprenden y cambian a medida que ven cómo los LLM crean los datos, lo que les permite comprimirlos mejor.
La aleatoriedad, o lo inseguros que pueden ser los datos, es muy importante a la hora de comprimir los datos. Los datos menos aleatorios tienen patrones más claros, por lo que es más fácil reducirlos. La IA tiende a crear datos fáciles de adivinar, lo que contribuye a que sean aptos para la compresión.
La forma en que dividimos el texto en partes (por ejemplo, en letras, grupos de bytes o palabras completas) afecta al tamaño que podemos hacer que sea. La codificación que depende de la frecuencia con la que ocurren las cosas proporciona códigos cortos para los bits comunes y códigos más largos para los raros. Dado que la IA crea texto adivinando bien estos bits, se adapta perfectamente a las formas de comprimir datos. La predicción basada en bits anteriores mejora estas conjeturas, lo que mejora el tamaño de los datos. La predicción inteligente se basa en esto, lo que hace que la compresión sea aún mejor.
Reducir los datos y adivinarlos correctamente van de la mano: cuanto más inteligente sea un modelo que conozca los datos, mejor podrá reducirlos. Un buen ejemplo es LMCompress, un sistema creado en mayo de 2025 por grandes cerebros de lugares como el Instituto de Inteligencia Artificial de China Central y el Universidad de Waterloo. LMCompress hizo las cosas mucho más pequeñas, duplicando el tamaño de texto, imágenes, vídeos y sonidos en comparación con las formas antiguas.
Por ejemplo, LMCompress creó textos aproximadamente un tercio de lo que podía hacer zpaq. También hizo que los fragmentos de imágenes de ImageNet fueran un 43,4% de su tamaño original y los sonidos de LibriSpeech solo un 16,4%, lo que supera a otros formatos como PNG (58,5%) y FLAC (30,3%). Este alto nivel de simplificación de las cosas proviene de la codificación aritmética inteligente, que utiliza lo que los LLM aprenden durante el entrenamiento.
Ming Li, una parte importante del estudio LMCompress, habló sobre cómo están conectados el aprendizaje y la compresión de cosas:
«En este artículo: demostramos que la compresión implica el mejor aprendizaje/comprensión».
Otras herramientas como DeepSeekZip y LlamaZIP también les va bien, superando a zlib en más de un 10% más de tasas de aplastamiento. En sitios grandes como prompts.ai, que se encargan de un montón de contenido creado por LLM, estas nuevas medidas reducen la cantidad de espacio que se utiliza y aceleran la transferencia de datos. ¿Qué es lo principal que debes saber? Adivinar modelos y no perder nada son dos partes de una misma cosa, y su uso cambia la forma en que guardamos y usamos la información.
Estos grandes pasos no solo ahorran espacio, sino que también se combinan bien con las configuraciones de IA, lo que hace que el trabajo funcione sin problemas y cueste menos.
Reducir los resultados de los LLM (grandes modelos lingüísticos) es difícil, pero los nuevos métodos tecnológicos ayudan mucho. Estos métodos no solo reducen las cosas a la antigua usanza, sino que utilizan la IA para adivinar los datos, lo que cambia la forma en que guardamos y controlamos los datos en las configuraciones de IA actuales.

LMCompress es un método de encogimiento sin pérdidas de primera categoría creado solo para cosas creadas por IA. Utiliza una forma de tres pasos: cortando, adivinando, y codificación matemática. Funciona muy bien a la hora de reducir diferentes tipos de datos, como palabras, imágenes, sonidos y vídeos. Al convertir este tipo de datos en bits que los LLM pueden manejar, LMCompress ahorra mucho más espacio. Su construcción se basa en ideas como las adivinanzas de Solomonoff, lo que lo hace mejor a la hora de adivinar y cambiar.
Por ejemplo, LMCompress tiene un tamaño de contracción de 6,32 en el set de imágenes CLIC2019, que era mucho mejor que el de JPEG-XL 2,93. Al reducir el tamaño de los archivos de sonido, redujo el tamaño de los datos en 25% — 94%, superando a FLAC en cosas como LibriSpeech y LJSpeech. Con las palabras, LMCompress casi hizo que el tamaño de los encogimientos fuera tres veces mejor que el de las herramientas más antiguas como zlib, bzip2 y brotli, con un aumento de 8,5% sobre MedAL y 38,4% en Pile of Law en comparación con las salidas sin procesar del Llama3-8B. Incluso al hacer videos más pequeños, mostró más de Un 20% mejor resultados para escenas fijas y al menos 50% mejor para escenas en movimiento comparándolas con formas antiguas como FFV1, H.264 y H.265.
«LMCompress marca el comienzo de una nueva era de compresión de datos impulsada por un conocimiento profundo. Su arquitectura, inspirada en la inducción de Solomonoff, no solo supera los estándares anteriores, sino que redefine la compresión como un proceso inteligente basado en la predicción y la adaptación». - Aniruddha Shrikhande
LMCompress es de gran ayuda para sitios como prompts.ai, que contienen gran cantidad de contenido creado por IA.
Una forma nueva y divertida utiliza la forma en que los modelos lingüísticos adivinan la siguiente palabra o símbolo. Llamado compresión de predicción del siguiente token, este truco usa esta suposición para colocar bien los datos en un espacio pequeño. En realidad, utiliza la idea de datos del Big Language Model (LLM) para empaquetarlos tanto como dice la teoría de Shannon.
Qué tan bien funcione esto depende en gran medida de lo bueno que sea el modelo lingüístico. Un modelo superior significa que puede empaquetar mejor los datos. Además, esta forma se adapta perfectamente a los sistemas de LLM actuales, lo que facilita su uso para mejorar los trabajos de datos de texto en las grandes empresas.
Para tamaños pequeños aún mejores, doble compresión combina dos métodos para conservar y enviar mejor los datos. Esto comienza por reducir el tamaño de los modelos mediante métodos como la cuantificación y, a continuación, utiliza una compresión sin pérdidas en lo que sale.
En un caso, hicieron que una herramienta de texto pasara de 109 millones de piezas (438 MB) a 52,8 millones de piezas (211 MB). Luego, usando la cuantificación de 4 bits, la redujeron a 62,7 MB. El siguiente paso empaqueta los resultados del modelo y otros datos, lo que hace que un sistema que empaquete los datos sea mejor que un solo método.
Este método de dos pasos es ideal para trabajos de gran envergadura, ya que ahorra espacio, envía datos de forma más económica y su ejecución cuesta menos. Sin embargo, para que la doble compresión funcione correctamente es necesario trabajar con cuidado, especialmente en lo que respecta a la forma en que la cuantificación cambia la apariencia de los números de las salidas de los modelos. Cuando se hace bien, esto permite elegir entre ahorrar espacio, acelerar los procesos o utilizar menos datos en función de las necesidades de la empresa.
Al elegir el mejor método de compresión para tus salidas de LLM, piensa en cómo funciona cada uno en el uso real. Cada método tiene sus ventajas y desventajas, más aún cuando se usa en casos de grandes negocios.
Para probar los métodos de compresión, analizamos algunos puntos clave:
El tipo de algoritmo elegido realmente puede cambiar el funcionamiento de las aplicaciones en las grandes empresas. Por ejemplo, métodos como LZ4 y Snappy tienen que ver con la velocidad, lo que los hace ideales para trabajos sobre el terreno, incluso si reducen la cantidad de archivos que se pueden comprimir. Por otro lado, para mantener los datos donde la velocidad no sea un problema, opciones como Zstd o GZIP con tablas dinámicas de Huffman ofrecen una mejor compresión. La Dra. Calliope-Louisa Sotiropoulou de CAST dice:
«La selección del algoritmo correcto requiere estudio y experiencia porque debe basarse en el conjunto de datos, el tipo de datos, el tamaño promedio y máximo del archivo y la configuración correcta del algoritmo».
Esto facilita ver cómo se alinean los principales algoritmos.
A continuación, presentamos los algoritmos clave y cómo lo hacen:
Este análisis muestra las ventajas y desventajas entre lo bien que funciona, lo fácil que es añadirlo y para qué se utiliza, lo que ayuda a las empresas a tomar decisiones inteligentes.
A LMCompress le va bien si nos fijamos en lo ajustado que puede empaquetar datos, obteniendo una puntuación de 6,32 en CLIC2019, mientras que JPEG-XL solo obtiene 2,93. Puede duplicar o incluso hacer que sea cuatro veces mejor que las antiguas formas de empaquetar datos para todo tipo de datos, pero tiene que funcionar con LLM.
La compresión de predicción Next-Token está hecha para datos de LLM, con tasas de empaquetado más de 20 veces mejores que las 3 veces de Gzip. Esto la convierte en una de las mejores opciones para sitios como prompts.ai, donde reducir los costos de los tokens es muy importante.
Zstandard encuentra un camino intermedio al ser de 3 a 5 veces más rápido que zlib y aun así empaqueta los datos con la misma precisión. Casi duplica la velocidad de desempaquetado y no es difícil de agregar, lo que lo convierte en una buena elección para las empresas que desean una solución fácil.
Elegir la forma correcta de empaquetar los datos realmente puede cambiar el desempeño de una empresa. Por ejemplo, CAST afirma que el embalaje inteligente durante el almacenamiento puede reducir el consumo de energía hasta en un 40%. Además, Google ha descubierto que el embalaje de Brotli consume hasta un 20% menos de datos, lo que permite ahorrar energía a la hora de transferir datos. Esto demuestra el importante papel que desempeña el empaquetado hermético a la hora de hacer que el LLM funcione mejor.
Incorporar la tecnología de compresión a las herramientas de IA es más que una simple actualización: mejora el flujo de trabajo y reduce los costos. Al añadir compresión a estas herramientas, puede hacer que funcionen mejor sin afectar a su funcionamiento o uso.
El tiempo es muy importante a la hora de añadir compresión sin pérdidas a los trabajos de IA. Para agilizar las tareas y conservar las ventajas del almacenamiento, comprima los datos cuando no esté haciendo nada más, no cuando el sistema esté ocupado solucionando problemas. Si el trabajo tiene que realizarse al mismo tiempo, comprima los datos guardados de forma silenciosa en la parte posterior para que nadie se quede sin trabajo. Es posible que los diferentes tipos de datos necesiten sus propias formas; por ejemplo, el texto funciona bien con la compresión para adivinar la siguiente palabra, pero otros tipos pueden necesitar sus propias formas. Las herramientas como ZipNN son buenas para gestionar las grandes salidas de los modelos de texto, ya que utilizan la codificación por entropía para eliminar los extras.
Es clave controlar la cantidad de fichas que se utilizan. Los modelos de IA pueden costar entre 10 y 20 dólares por cada millón de fichas, por lo que incluso un poco más de eficiencia puede suponer un gran ahorro. Para gestionar bien los costes, es necesario saber la diferencia entre los tokens de entrada y los tokens fabricados, ya que esta claridad ayuda a saber dónde se ahorra con la compresión. Por ejemplo, reducir el número de fichas almacenadas en un 22,42% puede suponer un gran ahorro cada mes. Dado que los sistemas procesan miles de millones de tokens cada mes, las herramientas que calculan cuántos tokens se utilizan ofrecen una imagen clara del uso y el impacto en los costos. Herramientas como prompts.ai, por las que pagas a medida que las utilizas, sacan mucho provecho de la observación de los tokens en tiempo real, además de las estadísticas de compresión, que ofrecen una forma clara de ver y sacar el máximo provecho de estos ajustes. Estas formas no solo mantienen los costos bajos, sino que también ayudan a realizar cambios mayores y mejores en las operaciones.
Las ventajas de añadir compresión van más allá de hacer que las cosas funcionen mejor: llegan al final. Herramientas como LMCompress y ZipNN muestran cómo la compresión inteligente puede mejorar el almacenamiento y ayudar a las empresas a crecer. IBM El investigador Moshik Hershcovitch señala el valor de estos métodos:
«Nuestro método puede reducir los costos de almacenamiento y transferencia de la IA prácticamente sin inconvenientes. Al descomprimir el archivo, vuelve a su estado original. No pierdes nada».
He aquí un caso sencillo: en febrero de 2025, Cara abrazada comenzaron a usar una nueva forma de empaquetar datos a partir de un método llamado ZipNN en su sistema y redujeron sus costos de almacenamiento en un 20%. ZipNN también hizo que los grandes archivos de modelos comunes fueran aproximadamente un tercio más pequeños y podía empaquetar y desempaquetar datos 1,5 veces más rápido. Por ejemplo, los modelos Llama 3.1 funcionaban un 62% más rápido que con el método anterior, zstd. Cuando se usa en sistemas grandes que funcionan con más de un millón de modelos cada día, ZipNN podía ahorrar enormes cantidades de almacenamiento y datos, además de ahorrar costos. Esta forma inteligente de empacar no solo ahorra dinero, sino que también puede significar consumir hasta un 40% menos de energía, lo que contribuye al ahorro de dinero y al medio ambiente. Para sitios como prompts.ai, estos cambios permiten gestionar trabajos más grandes y tareas más complejas sin preocuparse por el espacio o el coste.
Las nuevas formas de empaquetar grandes resultados de modelos de IA sin pérdidas son clave en el manejo de los macrodatos generados por la IA. Los nuevos métodos basados en la IA no solo funcionan mejor, sino que también protegen la información verdadera.
Estos son los principales beneficios y sus efectos:
«Nuestros resultados demuestran que cuanto mejor entiende un modelo los datos, más eficazmente puede comprimirlos, lo que sugiere una conexión profunda entre la comprensión y la compresión». — Autores de LMCompress
Estas medidas ayudan a que la IA funcione más y cueste menos. Al empaquetar bien los datos, las empresas pueden procesar más datos sin llegar a límites simbólicos, facilitar la búsqueda de datos y utilizar mejor los que tienen. La forma en que funciona la compresión sin pérdidas mantiene los datos seguros y hace que la carga y el traslado de datos sean más rápidos y fluidos.
A medida que la IA crece y se confunde más, es imprescindible utilizar estas formas principales de empaquetado de datos; es clave para mantenerse al día. Las empresas que utilizan estos trucos pueden hacer crecer mejor su trabajo de IA, gastar menos en lo que necesitan y ofrecer a los usuarios un trabajo más rápido y seguro. Plataformas como prompts.ai ya utilizan estas formas para rastrear mejor los tokens y gastar menos con la compresión inteligente.
Las empresas pueden intensificar sus tareas de IA mediante el uso de métodos de compresión sin pérdidas que reducen el tamaño de los datos pero mantienen su calidad total. Herramientas como ZipNN y LMCompress son muy buenas para esto, ya que ofrecen ventajas como gastar menos dinero en almacenamiento y mover los datos con mayor rapidez. Estas soluciones ayudan a administrar bien los grandes conjuntos de datos y, al mismo tiempo, a conservar todos los detalles.
Para empezar, las empresas pueden añadir estas formas de compresión a sus configuraciones de datos o diseños de IA actuales. Esto aumenta la velocidad y reduce los costos al ahorrar espacio de almacenamiento y la energía utilizada en los procesos. Cuando se combinan con medidas como reducir los costos de la nube, estos métodos pueden generar importantes ahorros de efectivo y mejorar el funcionamiento general de las cosas.

