Qwen 3.6 Plus Preview es la nueva apuesta de Alibaba Cloud en el terreno de los modelos de lenguaje. Lanzado el 30 de marzo de 2026, este modelo llega con especificaciones que superan con creces a su predecesor y lo posicionan como una alternativa seria a las opciones que dominan el mercado actual.
La principal novedad es su ventana de contexto de un millón de tokens, lo que equivale aproximadamente a 750.000 palabras o un libro de 1000 páginas. A esto se suma una capacidad de salida de 65.000 tokens, permitiendo generar documentos extensos o procesar fuentes masivas sin truncamientos. Para ponerlo en perspectiva: la mayoría de modelos actuales ofrecen entre 100K y 128K tokens de contexto, pero Qwen 3.6 triplica esa cifra.
Razonamiento encadenado y arquitectura eficiente

El modelo incorpora razonamiento de cadena de pensamiento de forma nativa, mostrando los pasos lógicos intermedios que sigue para llegar a una respuesta. No hace falta activar esta función con promesas especiales: el modelo la utiliza automáticamente en tareas complejas como depuración, refactorización de código o análisis de documentos densos.
La arquitectura subyacente es MoE disperso (mixture of experts), no un transformador denso tradicional. Esto significa que solo activa un subconjunto de parámetros para cada token, lo que reduce la latencia y el consumo energético manteniendo la calidad de la salida.
Otro punto destacable es el soporte para 201 idiomas, con español incluido desde la base sin necesidad de aprendizaje adicional.
Gratuito y accesible desde el primer día
Alibaba ha lanzado Qwen 3.6 Plus Preview de forma completamente gratuita a través de OpenRouter, sin necesidad de verificar tarjeta de crédito. El proceso de acceso es sencillo: registrarse en OpenRouter, obtener una clave API, y usar el identificador del modelo qwen/qwen3.6-plus-preview:free. Es compatible con la API de OpenAI, por lo que cualquier cliente existente configurado para GPT funciona cambiando el punto final y la clave.
También es posible ejecutarlo localmente mediante Ollama o LM Studio si la privacidad es una prioridad, aunque la versión preview aún no está optimizada para baja latencia en GPUs de consumo.
La comunidad elige: Qwen 3.6 de 27B será de código abierto
Pero la noticia no termina ahí. Chujie Zheng, director del proyecto Qwen, publicó en X una encuesta preguntando a la comunidad sobre la apertura del código de las versiones de tamaño medio de Qwen 3.6, orientadas al despliegue local y la personalización para desarrolladores.
Los resultados han sido claros: de 2550 votos, el 39% se ha pronunciado por la versión de 27.000 millones de parámetros como la preferida. Este tamaño ofrece un equilibrio entre rendimiento y requisitos de hardware, permitiendo correr el modelo en GPUs con 16-24 GB de VRAM con cuantización adecuada.
La decisión de Alibaba de consultar a la comunidad antes de lanzar estas versiones sugiere un cambio de estrategia hacia una relación más directa con desarrolladores y entusiastas que quieren experimentar con modelos potentes sin depender de la nube.
Dónde queda Qwen frente a la competencia

Con estas especificaciones, Qwen 3.6 se posiciona como un contendiente serio. Su contexto de un millón de tokens lo pone por delante de Claude (100K tokens) y GPT-4 (128K tokens teóricos, menor rendimiento en práctica) en tareas que requieren procesar documentos extensos. El razonamiento de cadena de pensamiento nativo compite directamente con lo que ofrecen otros modelos de razonamiento del mercado.
Para usuarios en España y Latinoamérica, el soporte nativo de español sin degradación respecto al inglés es un punto a favor que no todos los modelos ofrecen.
Qwen 3.6 Plus Preview está disponible ahora mismo en OpenRouter de forma gratuita. La versión de 27B de código abierto, elegida por la comunidad, es posible que llegue en las próximas semanas.

Creador de contenido especializado en realidad virtual, realidad aumentada, inteligencia artificial y tecnologías inmersivas. Noticias, análisis y opiniones sobre el mundo de la VR/AR/MR/IA sin perder de vista lo que realmente importa: que la tecnología tenga sentido para quien la usa.

Relacionadas
Snap y Qualcomm confirman su alianza para las gafas AR de consumo en 2026
Unsloth Studio: cómo afinar modelos de IA como Gemma 4
Meta impulsa el desarrollo de VR con IA y el Immersive Web SDK