DeepMind y partes de Google están usando fuera de la pila propia modelos de Anthropic, y eso ha provocado un choque operativo interno que la compañía ahora intenta apagar: según Steve Yegge, citado por Business Insider, la adopción interna de IA se reparte en 20% que la rechaza, 60% que la usa de forma básica y 20% que la usa intensivamente (dato publicado por Business Insider, 23/4/2026). Este reparto es el dato que explica por qué una prohibición formal sobre Claude ha generado amenazas de salida y una respuesta directa de la cúpula.
¿Por qué se armó este lío dentro de Google?
Lo esencial es operativo: algunos ingenieros de DeepMind pudieron usar Claude Code y modelos de Anthropic, mientras que en otras unidades se prohibió esa herramienta porque compite con Gemini. Esa diferencia creó fricción y riesgo de fuga de talento. Vemos dos hechos concretos: primero, la denuncia pública de Steve Yegge sobre la adopción 20/60/20 (citado por Business Insider, 23/4/2026); segundo, la reacción de liderazgo —Demis Hassabis respondió públicamente contra esas afirmaciones, y The Information reportó un memo interno de Sergey Brin que pide acelerar la ejecución agéntica. Estas discrepancias ilustran una tensión típica cuando la gobernanza central choca con las necesidades tácticas de equipos especializados.
La sección resume por qué la política de bloquear herramientas externas puede salir caro: fragmenta flujos de trabajo, requiere controles para seguridad y propiedad intelectual, y puede motivar resistencias cuando la alternativa externa es percibida como mejor por usuarios expertos.
¿Qué dice esto sobre Gemini versus Claude?
El episodio no es solo de gestión: es un termómetro competitivo. The Information informó que Sergey Brin creó un ‘equipo de asalto’ para cerrar la brecha en capacidades agénticas entre Gemini y Claude, lo que admite implícitamente que, hoy, Gemini pierde frente a Anthropic en ciertos usos avanzados (The Information, 23/4/2026). Para nosotros, esto confirma que las diferencias entre modelos ya no son solo benchmarks académicos: afectan decisiones de ingeniería y la elección de herramientas por usuarios dentro de la misma compañía.
Además, la situación muestra que tener un modelo propio no garantiza adopción si la experiencia de desarrollo es peor. Frente a meses atrás, cuando la narrativa pública favorecía la supremacía de los grandes jugadores, hoy vemos que equipos punteros evalúan alternativas externas por productividad y calidad del output.
Riesgos operativos y de gobernanza que revela la pelea
La fragmentación operativa puede traducirse en tres riesgos claros: fuga de talento, inconsistencias en seguridad y costes duplicados. El uso de herramientas externas también choca con compras de hardware masivas: según un análisis citado en la nota relacionada de Xataka, el 95% de muchas granjas de GPUs estaban inactivas en ciertos picos de demanda (Xataka, 2026), lo que expone desajustes entre inversión de infraestructura y prácticas reales de ingeniería. Vemos que estas tensiones obligan a decisiones rápidas de liderazgo, como el memo de Brin y la formación de equipos especiales, pero esas soluciones tácticas no sustituyen una política pública y medible sobre adopción de IA.
Por eso insistimos en métricas verificables: rendimiento por caso de uso, tasa de adopción por unidad, y seguimiento de incidentes de seguridad. Sin esos números públicos y auditables, la discusión queda en manos de rumores y filtraciones.
¿Cómo impacta esto en Argentina y qué pedimos?
Para empresas y equipos en Argentina la lección es clara: no basta con elegir un proveedor por marca si no hay métricas y documentación en el idioma del equipo. Exigimos tres requisitos mínimos antes de adoptar soluciones a escala: 1) métricas públicas sobre seguridad y rendimiento (por caso de uso), 2) documentación técnica y guías operativas en español, y 3) gobernanza con revisión humana y mecanismos de auditoría. Estos puntos ya los venimos planteando frente a anuncios de grandes proveedores y deben aplicarse también a despliegues internos en corporaciones multinacionales con presencia local.
Finalmente, la pelea interna de Google del 23/4/2026 (reportes de Business Insider y The Information) nos recuerda que la competencia entre modelos impacta el trabajo cotidiano de ingenieros y las decisiones estratégicas de las empresas. Si queremos que la adopción sea responsable en la región, esas adopciones deben ser medibles, transparentes y comprensibles para los equipos que las usan.