Se filtró por error el mapa de código fuente (.map) de Claude Code: 59,8 MB incluidos en la versión 2.1.88 del paquete @anthropic-ai/claude-code, según la propia comunicación de Anthropic. La empresa sostiene que no se expusieron credenciales ni datos de clientes, pero el archivo permitió descargar más de 500.000 líneas de código y generó más de 50.000 bifurcaciones desde un repositorio público de GitHub, según la nota publicada.

¿Qué se filtró exactamente y por qué importa?

El archivo expuesto es un source map: no contiene los pesos del modelo, pero mapea el código minimizado a su forma original, por eso permite leer estructuras internas, nombres de funciones y flujos de control. Anthropic atribuyó la causa a “un problema de empaquetado de la versión causado por un error humano” y retiró el paquete afectado, según su comunicado. El volumen no es menor: 59,8 MB y más de 500.000 líneas accesibles ilustran que la filtración fue amplia y rápida, y las 50.000 bifurcaciones en GitHub son una medida directa de la propagación, según el repositorio público.

Esto importa porque, aunque el modelo en sí no se filtró, la hoja de ruta, herramientas internas y funciones no lanzadas quedaron expuestas. Para una empresa que se posiciona en seguridad, es un revés reputacional y un riesgo de propiedad intelectual.

¿Qué pueden hacer ahora los competidores y actores maliciosos?

Con source maps completos, los competidores pueden acelerar ingeniería inversa: replicar flujos de trabajo, adaptar interfaces y priorizar funciones que Anthropic tenía planeadas. Eso reduce tiempo de desarrollo para rivales y facilita la identificación de debilidades. La difusión masiva —50.000 forks en horas— convierte la filtración en algo prácticamente irreversible, según la publicación del incidente en GitHub.

Desde el punto de vista de seguridad, el riesgo no es inmediato sobre datos de usuarios si la empresa confirma ausencia de credenciales. Pero sí facilita crear exploits sobre herramientas internas o desarrollar imitaciones que no cumplen los mismos estándares de seguridad. En resumen: ventaja competitiva regalada y exposición de la arquitectura operativa.

¿Cómo afecta esto a desarrolladores y usuarios en Argentina?

En términos prácticos para desarrolladores locales, la filtración puede significar acceso adelantado a patrones que antes se aprendían probando la herramienta en producción. Claude Code ya tiene tracción: de acuerdo con SemiAnalysis, el 4% de todos los commits públicos en GitHub se crean con esta herramienta (base: commits públicos en GitHub), y se proyecta que alcance 20% en 2026, según el mismo informe. Esa proyección muestra que cualquier fallo de seguridad en una herramienta con esa adopción potencial puede tener alcance global.

Para usuarios y empresas argentinas la recomendación es doble: evaluar riesgos antes de integrar herramientas en producción y exigir documentación en español y métricas de seguridad. En particular, si una herramienta gana cuota de mercado rápidamente —de 4% a una proyección de 20%—, las organizaciones deben pedir garantías técnicas, auditorías independientes y protocolos de gobernanza humana antes de adoptar soluciones críticas.

Qué debería hacer Anthropic y qué pedimos al ecosistema

Primero, medidas técnicas: auditoría forense del paquete afectado, publicación de un informe público con la cadena de suministro del paquete y mejora de procesos de empaquetado. Anthropic ya retiró la versión y publicó correcciones, según su comunicado, pero las 50.000 bifurcaciones muestran que la información ya circuló. Segundo, transparencia: publicar métricas públicas de impacto, vulnerabilidades y mitigaciones en un formato accesible, preferentemente con documentación en español para América Latina.

Tercero, gobernanza: exigir revisión humana en despliegues críticos y mecanismos de reporting claros. No pedimos castigos por defecto, sino estándares: métricas públicas, documentación en español y gobernanza con revisión humana antes de adopción masiva. Ese marco protege a usuarios, desarrolladores y al propio mercado de IA.

En definitiva, el leak de Claude Code es serio pero también una lección operativa: la ingeniería de productos de IA necesita controles de cadena de suministro tan estrictos como los de cualquier software crítico. Mientras tanto, vemos que la discusión ya no es si una filtración puede ocurrir, sino cómo las empresas y reguladores van a exigir transparencia y garantías antes de confiarles sistemas que ahora empiezan a jugar un papel central en desarrollo y operaciones.