NVIDIA presentó resultados que dejan poca duda: ingresó US$68.100 millones en el cuarto trimestre y alcanzó US$120.000 millones de beneficio en los últimos doce meses (según la presentación de resultados de NVIDIA, 26/2/2026). Esos números muestran que la demanda por chips de IA no se frena; se escala. En pocas palabras: la eficiencia en modelos no ha sustituido la necesidad de hardware, la ha multiplicado. Este primer párrafo resume la información central y permite seguir a quien quiere ir directo al dato.

¿Qué muestran los números?

Los datos son contundentes y vienen con ritmo. NVIDIA atribuye US$62.300 millones de ventas en su segmento de centros de datos en el trimestre, un incremento del 71% interanual (presentación de NVIDIA, 26/2/2026). En el mismo informe se detalla que los chips Blackwell subieron de US$32.600 millones a US$51.300 millones en el periodo citado; las soluciones de redes pasaron de US$3.000 millones a US$11.000 millones (presentación de NVIDIA, 26/2/2026). El margen bruto reportado fue 75% y el beneficio por acción GAAP casi se duplicó a US$1,76 (presentación de resultados de NVIDIA, 26/2/2026).

Vemos una comparación temporal llamativa: hace tres años el beneficio anual era US$4.400 millones; ahora es US$120.000 millones (presentación de NVIDIA, 26/2/2026). Esa velocidad redefine expectativas de mercado y riesgo; no es una subida lenta y orgánica, es una concentración de ingresos hacia quien controla la arquitectura de cómputo.

¿Por qué no explotó la “burbuja IA” y qué explica esta carrera por chips?

La explicación no es mágica: se parece a la paradoja de Jevons aplicada al cálculo. Cada mejora en eficiencia reduce el coste por token y abarata el despliegue, lo que impulsa más aplicaciones y, por ende, más uso de cómputo. NVIDIA lo resume diciendo que los agentes de IA requieren muchos más ciclos de inferencia que un chatbot, y eso traduce eficiencia en volumen de demanda (presentación de NVIDIA, 26/2/2026).

Además, la previsión para el próximo trimestre de la compañía fue de US$78.000 millones sin contar ingresos significativos desde China, y la firma también menciona que los grandes proveedores de nube planean seguir invirtiendo en capex —más de US$500.000 millones en conjunto en 2026 para centros de datos de IA, según la misma llamada con inversores (presentación de NVIDIA, 26/2/2026). Hay riesgos: las ventas de chips H20 en China son aún marginales, alrededor de US$60 millones desde autorizaciones parciales en 2025 (documentos presentados ante la SEC, 2026). Esa dependencia geopolítica es la principal fricción.

¿Y para las pymes argentinas, qué significa esto?

Vemos tres consecuencias prácticas. Primera: la infraestructura física quedará mayoritariamente en manos de grandes nubes y fabricantes; armar un centro de cómputo propio rara vez tendrá sentido económico para una pyme. Segunda: la IA seguirá siendo útil como herramienta para automatizar atención, marketing y operaciones, pero no es un atajo sin riesgos. Recomendamos exigir contratos con SLA, cláusulas de confidencialidad y controles sobre datos antes de integrar modelos en procesos críticos. Tercera: preferir imágenes reales y datos propios en productos de alta implicación sigue siendo mejor práctica —las imágenes generadas por IA ayudan en prototipos, pero para decisiones de compra con riesgo, la foto real reduce reclamaciones.

Un cálculo práctico: si hoy un responsable atiende 2 horas diarias de consultas y una solución con IA reduce eso a 30 minutos, la pyme recupera 45 horas al mes (ejemplo ilustrativo). Eso se traduce en ahorro directo de tiempo y costo. Para implementarlo, conviene integrar IA a través de los proveedores que ya usan MercadoLibre y WhatsApp Business en la región, y no intentar competir en infraestructura. En resumen: la explosión de la demanda beneficia al ecosistema de cómputo, pero para una pyme la estrategia es usar esa potencia de terceros con contratos, controles y cifras claras en el ROI.