Google DeepMind ha presentado Gemma 4, una nueva familia de modelos abiertos con un mensaje claro: ofrecer más inteligencia por parámetro y hacerla accesible en hardware mucho más barato. La compañía lanza cuatro variantes, desde tamaños pensados para ejecución local y dispositivos edge hasta modelos mayores para estaciones de trabajo, todo bajo licencia Apache 2.0.
Más inteligencia con menos hardware
La propuesta de Gemma 4 combina dos lecturas. Por un lado, es una buena noticia para el ecosistema abierto porque Google no se limita a publicar un modelo menor o experimental, sino una familia con razonamiento avanzado, soporte multimodal, ventanas de contexto largas, función de agentes y ejecución en entornos muy diversos. Por otro, también deja claro que la compañía sigue entendiendo estos modelos como complemento de Gemini, no como sustituto.
Los tamaños pequeños, E2B y E4B, están diseñados para preservar memoria y batería y apuntan directamente a teléfonos, Raspberry Pi o dispositivos edge. Los modelos mayores, 26B MoE y 31B Dense, quieren ofrecer razonamiento más serio en hardware todavía relativamente accesible, incluso con versiones cuantizadas para GPUs de consumo.
El mercado de modelos abiertos se caldea

El anuncio llega en un momento en que el mercado de modelos abiertos se está volviendo mucho más competitivo. El foco ya no está solo en quién tiene más parámetros, sino en quién logra combinar razonamiento, programación, multimodalidad y menor coste de despliegue. El 31B de Gemma 4 ya ocupa el tercer puesto en el ranking de modelos abiertos de Arena AI, y el 26B el sexto, superando a modelos veinte veces más grandes.
Google quiere que la inteligencia artificial local gane peso en el móvil y en dispositivos cotidianos para tareas donde la latencia, la privacidad o el coste importan más que la potencia bruta. No hace falta llamar a un gran modelo en la nube para crear una tarea en el calendario, resumir algo breve, controlar un dispositivo doméstico o resolver una consulta simple en un teléfono. Gemma 4 parece diseñada precisamente para empujar esa capa de inteligencia práctica, local y de baja fricción.
Especificaciones técnicas
Gemma 4 llega con razonamiento paso a paso, soporte nativo para JSON estructurado y llamadas a funciones, generación de código, contexto de hasta 256K en los modelos grandes, más de 140 idiomas y capacidades multimodales que incluyen imagen y, en los tamaños pequeños, audio. Es una familia bastante completa para ser abierta, con soporte desde el primer día en herramientas como Hugging Face, Ollama, vLLM o llama.cpp.
Eso sí, conviene leer el anuncio con realismo. Google presenta Gemma 4 como complemento de Gemini, lo que significa que la compañía sigue manteniendo una jerarquía clara. La apertura existe, pero tiene límites estratégicos evidentes. Aun así, el movimiento es positivo: Gemma 4 mejora la posición de Google en el mercado abierto, refuerza su apuesta por la eficiencia y allana el terreno para que la inteligencia artificial local funcione en cada vez más dispositivos, desde móviles hasta estaciones de trabajo.

Creador de contenido especializado en realidad virtual, realidad aumentada, inteligencia artificial y tecnologías inmersivas. Noticias, análisis y opiniones sobre el mundo de la VR/AR/MR/IA sin perder de vista lo que realmente importa: que la tecnología tenga sentido para quien la usa.

Relacionadas
Meta abandona el desarrollo del Meta XR Audio SDK para Quest
Android XR recibe su mayor actualización con cinco novedades para Galaxy XR
GLM-5.1: el modelo de Zhipu AI que roza el nivel de Claude Opus