El desafío de Alibaba: ¿Por qué un modelo pequeño puede superar a los gigantes de la IA?
Publicado el 28-04-2026 | Categoría: Tecnología
Mientras que las empresas estadounidenses persisten en desarrollar modelos de inteligencia artificial cada vez más grandes, China demuestra lo contrario. Alibaba ha lanzado Qwen3.6-27B, un modelo sorprendentemente eficiente que contrasta con su anterior y masivo Qwen3.5-397B-A17B (con 397 mil millones de parámetros). El nuevo modelo pesa menos de 17 GB, desafiando la creencia de que el tamaño es sinónimo de potencia.
Técnicamente, la diferencia radica en la arquitectura. Los modelos grandes suelen usar Mixture-of-Experts (MoE), donde solo se activa una fracción de los parámetros totales durante la inferencia. Qwen3.6-27B, por otro lado, es un modelo denso: utiliza sus 27 mil millones de parámetros completos en cada ejecución. Aunque esto puede ser menos eficiente a nivel teórico, ofrece ventajas prácticas claras como la simplicidad y la predictibilidad.
Los resultados demuestran que esta eficiencia no compromete el rendimiento. En benchmarks clave para programación real (SWE-bench Verified), Qwen3.6-27B supera al modelo de 397B. Además, en tareas de consola (Terminal-Bench 2.0), su puntuación iguala a modelos líderes como Claude Opus 4.5. Estos resultados son notables, especialmente porque el modelo es de código abierto y puede ejecutarse localmente.