Programación accesible

Web de la comunidad programación accesible

Alibaba lanza Qwen3-Coder su modelo open source avanzado para desarrolladores

Autor: Miguel Barraza.
En la categoría: noticias
Publicado:

Alibaba presentó el 22 de julio de 2025 Qwen3‑Coder, su modelo de inteligencia artificial open source más avanzado hasta la fecha. Está especialmente diseñado para generación automática de código y flujos de trabajo complejos con capacidades de IA autónoma, posicionándose como competencia de modelos como GPT‑4 o Claude.

  • Qué hace: Qwen3‑Coder permite generar código, completar fragmentos y resolver tareas de programación complejas sin intervención humana constante. Es un modelo “agentic AI coding”, lo que significa que actúa de forma autónoma en tareas como refactorización o depuración.
  • Características técnicas: Su versión más potente, Qwen3‑Coder‑480B‑A35B‑Instruct, utiliza arquitectura Mixture‑of‑Experts (MoE) con 480 mil millones de parámetros, de los cuales 35 mil millones se activan por tarea. Soporta ventanas de contexto nativas de hasta 256.000 tokens y se extiende hasta 1 millón mediante técnicas de extrapolación ([Qwen][2]).
  • Rendimiento y benchmarks: En pruebas como SWE‑Bench Verified, supera a modelos competidores como los de DeepSeek y Moonshot AI, y ofrece rendimiento comparable a Claude Sonnet 4 de Anthropic y GPT‑4.1 de OpenAI en tareas agentic.
  • Herramienta complementaria: Alibaba publicó Qwen Code, un CLI adaptado de Gemini Code con prompts y soporte de llamada a funciones para flujos agentic, integrándose sin problemas con herramientas comunes de desarrollo.

Explicación sencilla de los conceptos técnicos

  • IA para generar código: es un sistema que transforma descripciones en lenguaje natural (“crea una función que ordene un arreglo”) en código funcional en lenguajes populares como Python, Java, JavaScript o Rust.
  • Agentic AI: la IA no se limita a responder comandos, sino que puede ejecutar tareas completas de forma autónoma, como planificar, depurar o refactorizar sin necesidad de supervisión continua.
  • Open source: tanto el código como los pesos del modelo están disponibles públicamente bajo licencia Apache 2.0, lo que permite su revisión, adaptación y uso sin licencias restrictivas.
  • Mixture‑of‑Experts (MoE): una arquitectura que activa solo un subconjunto de redes especializadas para cada entrada, lo que mejora eficiencia y rendimiento.
  • Context window: la cantidad de texto (tokens) que el modelo puede procesar de una vez; en este caso, entre 256,000 y hasta 1 millón con extrapolación, útil para trabajar con bases de código grandes.

fuentes: