
El gigante tecnológico chino Alibaba ha presentado Qwen3, su nueva familia de modelos de lenguaje de gran tamaño (LLM), con el objetivo de competir directamente con líderes del sector como OpenAI y Google. Esta serie incluye ocho modelos, desde los 600 millones hasta los 235.000 millones de parámetros, todos disponibles bajo licencia abierta Apache 2.0 en plataformas como Hugging Face, GitHub y ModelScope. [Xataka]
Innovaciones clave de Qwen3
- Arquitectura Mixture of Experts (MoE): Dos de los modelos más grandes, Qwen3-30B-A3B y Qwen3-235B-A22B, utilizan una arquitectura MoE que activa solo una pequeña parte del modelo en cada consulta. Esto permite una mayor eficiencia y costes de implementación más bajos, superando en relación eficiencia-capacidad a modelos como DeepSeek V3. [Alibaba]
- Modo de razonamiento híbrido: Qwen3 alterna inteligentemente entre un "modo de pensamiento" profundo para tareas complejas y un "modo rápido" para respuestas sencillas, optimizando el uso de recursos según la necesidad.
- Entrenamiento masivo: Los modelos han sido entrenados con 36 billones de tokens, el doble que su predecesor Qwen2.5, utilizando datos de libros, código, preguntas y respuestas, y contenido sintético. Esto mejora significativamente sus capacidades de razonamiento, seguimiento de instrucciones y uso de herramientas.
- Dominio multilingüe: Qwen3 soporta 119 idiomas y dialectos, facilitando aplicaciones globales y traducciones de alta calidad
- Capacidades avanzadas para agentes: Incorporan soporte nativo para Model Context Protocol (MCP) y funciones avanzadas de llamada a funciones, permitiendo controlar flujos de trabajo o dispositivos como ordenadores y smartphones.
Rendimiento destacado
Qwen3 destaca especialmente en tareas de programación y matemáticas. En benchmarks como Codeforces y AIME'25, el modelo estrella Qwen3-235B-A22B supera a OpenAI o3-mini y Google Gemini 2.5 Pro. En concreto, logra un 81,5% en AIME'25, frente al 70% de DeepSeek R1 y el 86,7% de Gemini 2.5 Pro. [LinkedIn]
Una comparación destacada es que Qwen3-30B-A3B, con solo 3.000 millones de parámetros activos, ofrece un rendimiento muy similar al modelo denso Qwen3-32B (con 32.000 millones de parámetros activos), demostrando la eficiencia de la arquitectura MoE sin sacrificar capacidad.
Implicaciones para profesionales del derecho y asesoría
La disponibilidad de modelos como Qwen3 bajo licencia abierta Apache 2.0 permite a despachos profesionales, asesores y abogados integrar soluciones de inteligencia artificial avanzadas en sus flujos de trabajo, mejorando la eficiencia en tareas como análisis de documentos, generación de informes y asistencia en la toma de decisiones.