La carrera de la IA dejó de ser solo quién entrena el modelo más grande: ahora gana quien despliega un “OpenClaw” más sencillo y seguro. En 2026 un proyecto open‑source llamado OpenClaw se volvió viral en menos de dos meses y forzó respuestas de compañías como Perplexity, NVIDIA y OpenAI (según la nota del 14/3/2026). Esa velocidad obliga a discutir no solo tecnología, sino transparencia, disponibilidad en nuestro idioma y gobernanza.
¿Por qué OpenClaw cambió las reglas?
OpenClaw demostró que un agente agéntico potente y de código abierto puede crecer más rápido que los productos cerrados: el proyecto pasó de ser una curiosidad a un fenómeno en menos de dos meses (según la nota del 14/3/2026). Eso ocurre por dos razones concretas: primero, la modularidad del software libre facilita que la comunidad experimente y amplíe funciones; segundo, los agentes resuelven tareas compuestas (buscar, ejecutar, resumir) que antes requerían múltiples herramientas. Sin embargo, la barrera práctica sigue siendo la seguridad y los conocimientos técnicos: el texto original señala que OpenClaw “requiere ciertos conocimientos técnicos” y que su imprevisibilidad fue un problema clave. Si un proyecto open‑source escala sin controles formales, el beneficio colaborativo puede convertirse en riesgo operativo.
El movimiento de las grandes: ¿qué significa que NVIDIA, Perplexity y OpenAI se suban al tren?
La reacción fue rápida. Perplexity anunció Computer hace un mes y prepara Personal Computer, que promete una interfaz más “user‑friendly” y controles de seguridad —por ejemplo, “cada acción sensible requiere tu aprobación” y un interruptor de apagado— según su comunicado citado en la nota del 14/3/2026. NVIDIA anunció NemoClaw, una plataforma open‑source para agentes empresariales, lo que marca un giro de proveedor de hardware a competidor de software (según el anuncio referido en la nota). OpenAI, por su parte, compró el proyecto y contrató a su creador cuando el proyecto no había cumplido ni tres meses (según la nota del 14/3/2026). El resultado es claro: la pista de competición pasa de solo rendimiento de modelos a facilidad de uso, seguridad y capacidad de gobernanza.
¿Cómo impacta esto en el mercado argentino?
Para empresas y organismos en Argentina esto implica oportunidades y riesgos distintos a los de Silicon Valley. Por un lado, agentes que se ejecutan localmente —la nota menciona que Personal Computer puede correr en un Mac Mini— reducen dependencia de la nube y potencialmente mejoran latencia y control de datos. Por otro, la adopción masiva choca con falta de documentación en español y métricas públicas sobre seguridad y uso de datos. En nuestro contexto, donde la contratación pública exige transparencia y donde muchas pymes no cuentan con equipos técnicos grandes, la usabilidad y la documentación en castellano no son un lujo: determinan adopción. Exigimos que los proveedores publiquen métricas verificables y guías en español antes de que estas plataformas se integren a procesos críticos.
Qué deberían pedir gobiernos y empresas antes de desplegar estos agentes
La discusión no es técnica o política: es ambas cosas. Primero, métricas públicas: tasas de fallos, ejemplos de comportamientos no deseados y cobertura de pruebas, con fechas y metodología claras (las empresas ya están moviéndose en semanas, según la cronología de la nota del 14/3/2026). Segundo, documentación e interfaz en español y pruebas en condiciones locales para que la herramienta sea auditada por equipos regionales. Tercero, gobernanza: registros de acciones, interruptores de apagado, trazabilidad y políticas claras sobre qué datos se almacenan y cómo se revisa la intervención humana. Valoramos la utilidad técnica de estos agentes, pero exigimos transparencia y reglas antes de incorporarlos a servicios críticos o datos sensibles.
En definitiva, el ganador ya no será solo quien entrene modelos más grandes: será quien demuestre que su agente open‑source o comercial es fácil de usar, medible y gobernable. Esa exigencia debe venir de usuarios, reguladores y clientes, y debe incluir métricas públicas, documentación en español y mecanismos operativos de revisión humana.