El panorama de la inteligencia artificial está cambiando de modelos que simplemente “conversan” a modelos que “funcionan”. En un movimiento importante para la comunidad de código abierto, la startup china de IA Z.ai (también conocida como Zhupai AI) lanzó GLM-5.1, un enorme modelo de mezcla de expertos (MoE) de 754 mil millones de parámetros diseñado para tareas autónomas de larga duración.
A diferencia de generaciones anteriores de IA que a menudo se “desvían” o pierden el foco después de unas pocas docenas de pasos, GLM-5.1 está diseñado para funcionar de forma independiente durante hasta ocho horas en un único objetivo complejo. Esto marca una transición de la “codificación de vibración”, donde los usuarios activan una IA y esperan lo mejor, a la ingeniería agencia, donde la IA actúa como un trabajador autocorrector a largo plazo.
Romper el estancamiento del rendimiento: el patrón de “escalera”
Uno de los principales obstáculos en el desarrollo de la IA es el “efecto meseta”. Tradicionalmente, cuando a un agente de IA se le dan más herramientas o más tiempo para resolver un problema, su desempeño eventualmente se estanca o comienza a cometer errores debido a una “derivación de la estrategia”.
La investigación de Z.ai sugiere que GLM-5.1 supera esto mediante un “patrón de escalera” de optimización. En lugar de una progresión lineal, el modelo pasa por períodos de ajuste incremental seguidos de avances estructurales repentinos.
La evidencia del mundo real de esta capacidad incluye:
– Optimización de bases de datos: En una tarea que implicaba optimización de bases de datos vectoriales de alto rendimiento, GLM-5.1 realizó más de 6000 llamadas a herramientas. Mientras que los modelos anteriores alcanzaron un techo de aproximadamente 3500 consultas por segundo (QPS), GLM-5.1 rediseñó de forma autónoma la arquitectura del sistema y finalmente alcanzó 21 500 QPS, una mejora seis veces mayor.
– Núcleos de aprendizaje automático: En las pruebas de KernelBench, el modelo demostró su capacidad para optimizar núcleos de GPU complejos. Si bien está ligeramente por detrás del Claude Opus 4.6 de Anthropic en aceleración bruta, GLM-5.1 demostró que puede mantener el trabajo productivo por mucho más tiempo que sus predecesores, manteniendo el progreso mucho más allá de los 1000 turnos de uso de herramientas.
“Los agentes podrían realizar unos 20 pasos a finales del año pasado; GLM-5.1 puede realizar 1.700 en este momento”, señaló el líder de Z.ai, Lou, en X.
Éxito en la evaluación comparativa: superar a los gigantes
El lanzamiento de GLM-5.1 coloca a Z.ai en competencia directa con los laboratorios de IA líderes en el mundo. En SWE-Bench Pro, un punto de referencia riguroso para resolver problemas de GitHub del mundo real, GLM-5.1 logró una puntuación de 58,4, superando:
– GPT-5.4 (57.7)
– Claude Opus 4.6 (57.3)
– Géminis 3.1 Pro (54.2)
El modelo también mostró una fortaleza notable en dominios especializados, como matemáticas (95,3 en AIME 2026) y razonamiento científico (86,2 en GPQA-Diamond). Quizás lo más impresionante es que en una prueba para construir un entorno de escritorio estilo Linux desde cero, el modelo no se detuvo sólo en una interfaz básica; construyó de forma autónoma un explorador de archivos, una terminal e incluso juegos funcionales durante un período de ocho horas.
Una estrategia empresarial híbrida: código abierto frente a propietario
Z.ai está empleando una sofisticada estrategia de doble vía para equilibrar el crecimiento de la comunidad con la viabilidad comercial:
- El buque insignia de código abierto (GLM-5.1): Lanzado bajo una Licencia MIT permisiva, los pesos del modelo están disponibles en Hugging Face. Esto genera confianza en los desarrolladores y establece un estándar global.
- El Sprinter patentado (GLM-5 Turbo): Una versión más rápida y de código cerrado optimizada para tareas supervisadas de alta velocidad. Esto sirve como un motor de ingresos de alto margen para las empresas que necesitan una inferencia rápida.
Precios y niveles
Z.ai ha posicionado a GLM-5.1 como una herramienta de ingeniería en lugar de un chatbot para consumidores, ofreciendo planes de suscripción escalonados:
– Lite: $27/trimestre (para cargas de trabajo livianas).
– Pro: $81/trimestre (para cargas de trabajo complejas con ejecución más rápida).
– Máximo: $216/trimestre (para desarrolladores avanzados de gran volumen).
Para los usuarios de API, el modelo tiene un precio de $1,40 por millón de tokens de entrada y $4,40 por millón de tokens de salida, lo que lo coloca competitivamente frente a otros modelos de alta gama como GPT-5.4 y Claude Opus 4.6.
Conclusión
El lanzamiento de GLM-5.1 marca una nueva era en la que el valor de un modelo de IA se mide no sólo por su inteligencia, sino también por su resistencia. Al demostrar que los modelos de código abierto pueden manejar flujos de trabajo de ingeniería sostenidos de varias horas de duración, Z.ai está desafiando el dominio de los modelos propietarios occidentales y redefiniendo los límites del trabajo digital autónomo.




























