AI Tools🛠 Builder
googlellm

Gemma 4: el modelo open source de Google que cambia las reglas (y por qué importa para builders)

Pablo Bernabeu7 min lectura
Compartir:

Google acaba de hacer algo que merece atención: lanzar una familia de modelos de IA de calidad real, con licencia completamente libre para uso comercial. No freemium. No con condiciones. Apache 2.0 sin restricciones.

Eso es Gemma 4. Y lleva unos días procesándose lo que significa.

Qué es Gemma 4 en la práctica

Gemma 4 es la última generación de modelos open source de Google, lanzada entre el 3 y el 6 de abril de 2026. No es un modelo único sino una familia: cuatro tamaños diseñados para cubrir desde inferencia en dispositivo móvil hasta cargas de trabajo de servidor.

Lo más relevante de un vistazo:

  • Multimodal nativo: todos los modelos procesan texto e imágenes. Las variantes E2B y E4B añaden vídeo y audio de forma nativa, no como un add-on.
  • Ventana de contexto de 256k tokens: eso es aproximadamente 200.000 palabras. Para un workflow que necesita analizar documentos largos o mantener contexto de conversaciones extensas, es un cambio significativo.
  • 140+ idiomas: incluyendo español con buena cobertura.
  • Function calling y JSON estructurado nativos: no hay que hacer trucos de prompting para sacar outputs estructurados. El modelo los soporta de forma nativa.
  • Licencia Apache 2.0: puedes usarlo en producción, monetizarlo, integrarlo en tu producto sin pagar royalties ni pedir permiso.

Por qué la licencia importa más de lo que parece

Hay modelos open source buenos desde hace tiempo — Llama 3, Mistral, Qwen. Pero los términos de uso siempre tienen matices: restricciones de uso comercial por encima de cierto número de usuarios, cláusulas sobre competencia directa con el proveedor, limitaciones en aplicaciones específicas.

Gemma 4 sale con Apache 2.0 limpio. Sin asteriscos.

Para alguien que construye workflows de producción o productos sobre modelos de IA, eso simplifica mucho la conversación con clientes sobre qué herramientas usas y bajo qué condiciones.

Lo que más me interesa como builder

Tres cosas concretas me llaman la atención de esta release:

El function calling nativo. La mayoría de los casos de uso que monto con n8n implican que el modelo tome una decisión y devuelva datos en un formato que el siguiente nodo del workflow pueda consumir directamente. Con modelos que no tienen function calling nativo, hay que hacer capas de prompting defensivo para garantizar que el JSON salga bien formado. Con Gemma 4 eso debería funcionar de forma más predecible.

El tamaño pequeño con buena capacidad. Los modelos de 4B parámetros que corren en una sola GPU de consumo cambian lo que es viable self-hosteado. No necesitas infraestructura cloud cara para tener un modelo razonablemente capaz disponible 24/7. Para automatizaciones que corren cientos de veces al día, la diferencia de coste entre llamar a una API externa y correr un modelo local es real.

La multimodalidad sin complejidad extra. Que todos los modelos de la familia procesen imágenes por defecto, no solo los premium, es útil. Muchos workflows de extracción de información implican imágenes: facturas escaneadas, capturas de pantalla, fotos de productos. Tener eso disponible sin tener que cambiar de modelo según el tipo de input simplifica la arquitectura.

Cómo encaja con un stack real

La combinación más directa que veo es Gemma 4 + n8n en un servidor self-hosted, con Ollama como capa de serving local.

n8n tiene nodos nativos para Ollama desde hace tiempo. Con Gemma 4 disponible en Ollama, el flujo es: pull del modelo, configurar el nodo en n8n apuntando al endpoint local, y desde ahí el workflow puede llamar al modelo sin latencia de red y sin coste por token.

Para casos de uso donde el volumen es alto o los datos son sensibles y no quieres que salgan de tu infraestructura, esto tiene sentido. No es la solución para todo — para tareas de razonamiento complejo o generación de contenido de alta calidad, Claude sigue siendo mi elección — pero para clasificación, extracción de entidades, enriquecimiento de datos a escala, un modelo local capaz es perfectamente válido.

Comparación rápida con las alternativas

El espacio open source está más competido que nunca. ¿Qué aporta Gemma 4 que no tengan Llama 3 o Mistral?

Vs. Llama 3 (Meta): Llama 3 tiene restricciones de uso comercial por encima de 700 millones de usuarios activos mensuales — irrelevante para la mayoría, pero existe. La multimodalidad nativa de Gemma 4 en todos los tamaños es una ventaja clara. En calidad pura por parámetro, los benchmarks iniciales sugieren que Gemma 4 es competitivo o superior en la mayoría de tareas.

Vs. Mistral: Mistral tiene modelos muy eficientes y una buena reputación en razonamiento en idiomas europeos. La ventana de contexto de Gemma 4 (256k) es significativamente mayor. La licencia Apache 2.0 de Gemma 4 es comparable a la de Mistral 7B.

La realidad es que ningún modelo gana en todo. Lo que cambia con Gemma 4 es que Google entra con fuerza en la conversación de modelos open source de producción, con infraestructura de soporte (Google AI Studio, Vertex AI, Ollama, soporte day-0 en AMD y NVIDIA) que facilita el despliegue.

Gemini Nano 4 y lo que viene

Hay un detalle que me parece relevante para el futuro cercano: Google ha anunciado Gemini Nano 4, una versión on-device para Android basada en Gemma 4, que llegará a dispositivos flagship a finales de 2026. Cuatro veces más rápido que la generación anterior, 60% menos consumo de batería.

Lo que eso implica: modelos de calidad comparable corriendo directamente en el teléfono, sin conexión a internet, sin coste por inferencia. Para aplicaciones móviles que necesitan capacidades de IA, eso cambia el modelo de negocio completamente.

No es para hoy, pero es la dirección en la que va todo esto.

Por qué esto importa más allá del modelo concreto

Cada vez que un proveedor grande libera un modelo competitivo con licencia libre, el punto de referencia de lo que se puede construir sin presupuesto se desplaza hacia arriba.

Hace tres años, tener un modelo capaz de entender lenguaje natural y devolver JSON estructurado requería acceso a GPT-3 o similares con sus costes asociados. Hoy ese nivel de capacidad está disponible para correr en local con hardware de consumo.

No estoy sugiriendo que los modelos propietarios vayan a desaparecer — para muchos casos de uso siguen siendo la mejor opción. Lo que cambia es la negociación de valor: los proveedores de modelos propietarios tienen que justificar su precio con calidad o velocidad o facilidad de uso que los modelos open source no igualen todavía.

Esa presión es buena para todos los que construimos con estas herramientas.

Si te interesa ver cómo integrar modelos de IA en workflows de automatización reales, el post sobre cómo diseño un workflow de automatización desde cero da una buena base del método que uso.

Y si quieres entender el ecosistema de agentes autónomos donde modelos como Gemma 4 van a tener un papel cada vez más importante, el artículo sobre cómo tengo montado mi sistema de agentes IA es un buen punto de partida.


Gemma 4 no es una revolución en sí mismo. Es otro paso en una dirección que lleva tiempo siendo evidente: los modelos de IA capaces se están convirtiendo en infraestructura básica, disponible para cualquiera que sepa usarlos.

Eso es exactamente el tipo de cambio que merece atención.

¿Te ha resultado útil?

Compartir:

¿Quieres montar algo similar?

Automatizamos procesos con IA para que te centres en lo que importa.

Hablamos

No te pierdas nada

Recibe artículos sobre IA y automatización directamente en tu email.

Artículos relacionados