Google presentó Gemma 4 a principios de abril de 2026: es una familia de modelos diseñados para correr localmente en teléfonos, con capacidades de texto, audio y visión en tiempo real y disponibles en variantes que van desde modelos pequeños hasta decenas de miles de millones de parámetros (mencionadas como E2B, E4B, 31B y 26B A4B en el anuncio) —según Google y la cobertura técnica publicada el 6/4/2026—. Lo central es que Gemma 4 puede descargarse y ejecutarse offline mediante la app Google Edge Gallery, de código abierto, lo que cambia la ecuación de latencia y privacidad para usos en terreno.

¿Qué es Gemma 4 y por qué importa?

Gemma 4 es la apuesta de Google por llevar IA potente al dispositivo: según el anuncio oficial y la cobertura de la semana del 6/4/2026, la familia incluye cuatro tamaños de modelo (4 variantes) pensadas para equilibrar capacidad y uso energético (según Google). Eso importa por tres razones prácticas: 1) velocidad: al procesar localmente no dependemos de la red; 2) privacidad: los datos pueden quedarse en el dispositivo; 3) disponibilidad: funciona en modo avión o en zonas sin cobertura, un punto clave para regiones con conectividad irregular. Técnicamente, las variantes más pequeñas apuntan a tareas cotidianas y las más grandes a necesidades complejas, pero con un coste en batería y memoria. Este enfoque refuerza la tendencia que vimos en el último año de mover inferencia hacia el borde, compitiendo con alternativas como Llama o modelos de Mistral (según comunicados de desarrolladores y medios especializados).

¿Se puede usar Gemma 4 en mi celular argentino?

La instalación requiere Google Edge Gallery, la app que maneja modelos locales y que, según la nota técnica del lanzamiento, está firmada por Google y es de código abierto. Google afirma que Gemma 4 puede ejecutarse en teléfonos móviles —la compañía detalla variantes entre 2B y 31B parámetros efectivos— pero no todos los teléfonos correrán las versiones más grandes: las variantes de mayor tamaño consumen más memoria RAM y energía. Para el usuario medio la recomendación práctica será descargar las variantes más pequeñas o usar la gestión automática que proponga la app. Desde la perspectiva de América Latina esto es prometedor: la posibilidad de usar IA offline en vuelos o zonas rurales reduce la barrera de conectividad. Al mismo tiempo, exigimos a Google y a los fabricantes que publiquen requisitos mínimos de hardware y documentación en español para evaluar compatibilidad real en mercado argentino.

¿Qué limita a los modelos locales frente a la nube?

Los modelos en el dispositivo convienen por latencia y privacidad, pero no son sustitutos totales de la nube. Las limitaciones son claras: actualización de conocimiento en tiempo real, acceso a APIs externas y potencia para tareas muy grandes siguen siendo dominio de modelos en servidores. Técnicamente, una variante local de 31B parámetros tendrá capacidad mayor que una de 2B, pero también requerirá más recursos (según el propio desglose de variantes en el anuncio de Google). Además, ejecutar todo en servidores sigue siendo costoso; la presión por reducir costos operativos es una de las razones por las que las empresas exploran inferencia en el borde. En la práctica eso significa que Gemma 4 será un complemento: ideal para búsquedas locales, transcripciones y funciones de privacidad, pero limitado para consultas que requieren datos actualizados o cómputo masivo.

¿Qué pedimos como periodistas y ciudadanos?

Apoyamos la disponibilidad de herramientas de IA locales —facilitan acceso y privacidad— pero mantenemos tres exigencias concretas: 1) métricas públicas y comparables (latencia, consumo de CPU/RAM y huella energética por variante) —pedimos que Google publique esos números de forma verificable—; 2) documentación en español y ejemplos prácticos para mercados como Argentina, para que usuarios y desarrolladores sepan requisitos y límites; 3) gobernanza con revisión humana: que funciones sensibles cuenten con controles humanos y transparencia sobre qué se ejecuta offline y qué depende de la nube. Nuestra postura es coherente con lo expresado sobre otras plataformas de IA: apoyamos la disponibilidad, pero exigimos datos y regulación práctica antes de adopción masiva.

En resumen: Gemma 4 es un paso importante para llevar IA al bolsillo. Tiene ventajas reales en latencia y privacidad, pero su impacto dependerá de la transparencia técnica y de que Google publique métricas y documentación en español para que usuarios, empresas y reguladores puedan evaluarlo adecuadamente.