Se trata del impacto inmediato: el 28 de febrero las desinstalaciones de la app ChatGPT en Estados Unidos subieron 295% respecto al día anterior (Sensor Tower). Vemos que esa reacción masiva no fue un ruido técnico: fue una sanción de usuarios ante un acuerdo percibido como éticamente problemático entre OpenAI y el Departamento de Defensa.

¿Qué pasó y por qué importó?

El salto de 295% en desinstalaciones (28/02 vs 27/02) no es un número aislado: lo normal es que la tasa diaria de desinstalaciones ronde el 9% entre días (Sensor Tower), así que el pico fue anómalo. Además, las reseñas de una estrella aumentaron 775% ese sábado y subieron otro 100% el domingo; las de cinco estrellas cayeron alrededor de 50% (Sensor Tower). Appfigures reportó que, como consecuencia, la app Claude de Anthropic superó a ChatGPT en descargas en EE. UU. ese día y fue la más descargada en al menos seis países europeos y norteamericanos (Appfigures). El detonante fue el reemplazo de Claude por ChatGPT en contratos del Pentágono, después de que Anthropic se negara a eliminar limitaciones sobre vigilancia y armas (informes públicos citados por Reuters y medios tech). Esa combinación de ética percibida y reacción inmediata volvió visible un riesgo reputacional que hasta ahora muchas empresas tecnológicas subestimaban.

¿Cómo impacta esto en el mercado y la confianza?

La lección es directa: la confianza es un activo medible y volátil. Cuando una app pasa de liderar descargas a sufrir un éxodo en 48 horas, se truncan métricas clave como retención, NPS y ARPU; Appfigures y Sensor Tower muestran cómo la preferencia del usuario puede virar rápido hacia competidores que proyectan valores distintos. Para inversores y clientes corporativos eso significa riesgo de cadena de suministro: Reuters reportó además que la posición de Anthropic frente al Pentágono podría poner en cuestión contratos y relaciones comerciales si los reguladores empiezan a etiquetar riesgos en proveedores. En términos prácticos para un negocio, un cambio de reputación afecta conversiones y costos de adquisición: si una app pierde visibilidad y reputación en una semana, su costo por adquisición puede subir y el CLTV bajar. Vemos que no se trata sólo de tecnología, sino de gobernanza ambiental y reputacional con impacto económico medible.

¿Cómo impacta esto a las pymes en Argentina y la región?

No hay cifras públicas específicas para LATAM sobre este episodio; esa información no está disponible en las fuentes citadas. Pero la deriva es relevante para pymes locales que integran modelos externos: si un proveedor sufre crisis reputacional, las integraciones pueden fallar, las políticas de privacidad cambiar y los términos comerciales variar. Para una pyme que usa un chatbot para ventas por WhatsApp o para atención, la recomendación práctica es exigir cláusulas contractuales mínimas: límites de uso militar, auditorías de terceros, SLA claros y opciones de migración. Pedir estos controles no es lujo: es gestión de riesgo. Además, hay una lección operativa: probar en pequeña escala, medir impacto en conversión y soporte, y valorar la exposición reputacional como parte del ROI antes de comprar a ciegas.

¿Qué deberían exigir los compradores y los reguladores?

Vemos que los compradores —desde pymes hasta grandes empresas— deben exigir contratos con cláusulas sobre usos prohibidos, auditorías periódicas y transparencia sobre clientes estratégicos. Los reguladores, por su parte, tienen que pedir pruebas sobre seguridad, privacidad y cadenas de suministro antes de aprobar contratos críticos; Reuters ya mencionó la posibilidad de que agencias etiqueten a proveedores como riesgos para la cadena de suministro. En la práctica esto implica: 1) cláusulas contractuales que prohiban usos militares o de vigilancia masiva, 2) derecho a auditoría y logs, 3) planes de continuidad y migración, y 4) métricas públicas sobre despliegues sensibles. Si no se exigen estas medidas, la adopción masiva de IA puede llevar a pérdidas reputacionales y operativas que superen cualquier ahorro operativo que la IA prometa.

En resumen, la reacción de usuarios al acuerdo entre OpenAI y el Pentágono muestra que la ética y la confianza son variables económicas reales. Vemos que las pymes y reguladores deben exigir contratos, controles y pruebas antes de normalizar el uso de modelos de IA, porque la tecnología sin gobernanza puede costar más que la implementación misma.