OpenAI lanzó una actualización mayor de Codex que lo convierte en un asistente que puede operar tu computadora, usar más apps, generar imágenes y recordar preferencias; según el comunicado oficial, más de 3 millones de desarrolladores usan Codex cada semana, y la compañía destaca que estas funciones conectan el agente con todo el ciclo de vida del desarrollo. Esto significa que Codex ya no es solo un autocompletador de código, sino una plataforma que puede ver, hacer clic y tipear con su propio cursor en apps de escritorio, ejecutar automaciones en segundo plano y proponer trabajo proactivo, con disponibilidad inicial en macOS y despliegues paulatinos hacia la UE y el Reino Unido.

¿Qué cambia con esta actualización?

La novedad central es que Codex puede interactuar directamente con aplicaciones locales y con la web desde un navegador integrado, lo que facilita iterar sobre frontend, mockups y juegos sin depender de APIs expuestas; además, la integración con gpt-image-1.5 permite generar y refinar imágenes dentro del mismo flujo de trabajo, y OpenAI añade más de 90 plugins para ampliar integraciones con servicios como Jira, CircleCI y GitLab. Estas capacidades transforman tareas puntuales —escribir fragmentos de código— en flujos continuos de trabajo donde el agente revisa PRs, abre múltiples terminales, conecta por SSH y muestra vistas ricas de PDFs y hojas de cálculo, todo dentro de la app. Para equipos, la posibilidad de que agentes trabajen en paralelo en una Mac pretende acelerar testing y QA en entornos que no exponen APIs.

¿Cómo impacta esto en el mercado argentino?

Para desarrolladores y equipos en Argentina, las mejoras son relevantes pero condicionadas: la función de uso de computador está disponible inicialmente en macOS, lo que limita adopción inmediata dado que no todos los equipos locales usan macOS; OpenAI aclara el rollout a la UE y Reino Unido próximamente, sin calendario exacto. En términos de escala, la empresa dice que el producto llega tras un año desde su lanzamiento inicial, período en el que el uso semanal superó 3 millones de desarrolladores, pero no publica métricas de adopción por país ni latencia en español, lo que complica evaluar su utilidad en LATAM. Por eso, además del interés técnico, los equipos locales deberán exigir documentación en español y métricas de rendimiento y privacidad que permitan comparar experiencia en redes y hardware típicos de la región.

Riesgos, privacidad y límites técnicos

Las funciones que permiten al agente ver y controlar aplicaciones plantean riesgos concretos: acceso a datos sensibles en pantallas, ejecución de comandos por SSH y memoria persistente que guarda preferencias y correcciones. OpenAI describe una preview de memoria que llegará a Enterprise, educación y regiones EU/UK pronto, sin detallar retención, encriptación o controles de acceso. Tampoco publica benchmarks públicos sobre precisión al ejecutar acciones en apps sin API ni métricas sobre errores al intervenir en interfaces gráficas. En la práctica, esto obliga a equipos a auditar qué datos pueden procesarse, exigir logs auditable y políticas claras de borrado de memoria, y mantener revisión humana en loop antes de que agentes tomen decisiones con impacto en producción.

Qué pedimos y cómo debería regularse

Apoyamos la integración técnica responsable de estas funciones porque aceleran el desarrollo, pero exigimos transparencia: métricas públicas de rendimiento, tasas de error al interactuar con interfaces, documentación completa en español y controles de gobernanza con revisión humana, en línea con nuestra postura sobre otras plataformas de IA. Pedimos a OpenAI publicar benchmarks reproducibles, políticas de datos sobre memoria y un roadmap público de despliegue por regiones; a equipos y empresas argentinas recomendamos pruebas controladas en entornos de staging, evaluación de riesgos legales y contratos que exijan responsabilidad y trazabilidad. Si no se cumplen estos requisitos, la adopción generalizada debería esperar hasta tener garantías técnicas y regulatorias claras.