Ir directamente al contenido

Tecnología para abogados, asesorías y gestorías

Alibaba lanza Qwen3: una nueva generación de modelos de lenguaje que desafía a OpenAI y Google

05 may., 2025 8
Alibaba lanza Qwen3: una nueva generación de modelos de lenguaje que desafía a OpenAI y Google

El gigante tecnológico chino Alibaba ha presentado Qwen3, su nueva familia de modelos de lenguaje de gran tamaño (LLM), con el objetivo de competir directamente con líderes del sector como OpenAI y Google. Esta serie incluye ocho modelos, desde los 600 millones hasta los 235.000 millones de parámetros, todos disponibles bajo licencia abierta Apache 2.0 en plataformas como Hugging Face, GitHub y ModelScope. [Xataka]

Innovaciones clave de Qwen3

- Arquitectura Mixture of Experts (MoE): Dos de los modelos más grandes, Qwen3-30B-A3B y Qwen3-235B-A22B, utilizan una arquitectura MoE que activa solo una pequeña parte del modelo en cada consulta. Esto permite una mayor eficiencia y costes de implementación más bajos, superando en relación eficiencia-capacidad a modelos como DeepSeek V3. [Alibaba]

- Modo de razonamiento híbrido: Qwen3 alterna inteligentemente entre un "modo de pensamiento" profundo para tareas complejas y un "modo rápido" para respuestas sencillas, optimizando el uso de recursos según la necesidad.

- Entrenamiento masivo: Los modelos han sido entrenados con 36 billones de tokens, el doble que su predecesor Qwen2.5, utilizando datos de libros, código, preguntas y respuestas, y contenido sintético. Esto mejora significativamente sus capacidades de razonamiento, seguimiento de instrucciones y uso de herramientas.

- Dominio multilingüe: Qwen3 soporta 119 idiomas y dialectos, facilitando aplicaciones globales y traducciones de alta calidad

- Capacidades avanzadas para agentes: Incorporan soporte nativo para Model Context Protocol (MCP) y funciones avanzadas de llamada a funciones, permitiendo controlar flujos de trabajo o dispositivos como ordenadores y smartphones.

Rendimiento destacado

Qwen3 destaca especialmente en tareas de programación y matemáticas. En benchmarks como Codeforces y AIME'25, el modelo estrella Qwen3-235B-A22B supera a OpenAI o3-mini y Google Gemini 2.5 Pro. En concreto, logra un 81,5% en AIME'25, frente al 70% de DeepSeek R1 y el 86,7% de Gemini 2.5 Pro. [LinkedIn]

Una comparación destacada es que Qwen3-30B-A3B, con solo 3.000 millones de parámetros activos, ofrece un rendimiento muy similar al modelo denso Qwen3-32B (con 32.000 millones de parámetros activos), demostrando la eficiencia de la arquitectura MoE sin sacrificar capacidad.

Implicaciones para profesionales del derecho y asesoría

La disponibilidad de modelos como Qwen3 bajo licencia abierta Apache 2.0 permite a despachos profesionales, asesores y abogados integrar soluciones de inteligencia artificial avanzadas en sus flujos de trabajo, mejorando la eficiencia en tareas como análisis de documentos, generación de informes y asistencia en la toma de decisiones.