Meta empezó a instalar una herramienta interna llamada Model Capability Initiative (MCI) en computadoras de empleados con base en Estados Unidos para registrar movimientos del mouse, clics, pulsaciones de teclas y capturas de pantalla y usar esos registros para entrenar sus agentes (Reuters, 22/04/2026). La compañía dice que los datos no se usarán para evaluaciones de desempeño, pero el anuncio —y el memo del CTO Andrew Bosworth sobre acelerar la transformación hacia agentes que “principalmente hacen el trabajo”— obliga a preguntarnos por la transparencia, la seguridad y el control humano.

¿Qué está haciendo Meta y por qué importa?

Meta ha formalizado una recolección que opera dentro de aplicaciones laborales y sitios web para crear ejemplos reales del uso humano del computador: la empresa enumera cuatro tipos de entradas que MCI captura (mouse, clicks, keystrokes y capturas) según el reporte de Reuters (22/04/2026). La intención técnica es razonable: los agentes aprenden mejor con datos de interacción real; el problema es la escala y el contexto. Cuando una compañía con alcance global y decenas de miles de empleados prueba agentes que automatizan tareas, estamos hablando de efectos sistémicos sobre privacidad, propiedad de los datos y sesgos operativos. Meta ya viene publicando investigaciones sobre agentes, pero la diferencia ahora es que la fuente de entrenamiento son actividades laborales internas, no datos sintetizados o anónimos.

¿Cómo impacta esto en el mercado argentino?

La decisión de Meta tiene implicancias locales porque toca temas regulatorios que aplican a empresas que operan en Argentina o que procesan datos de argentinos. En nuestro país rige la Ley 25.326 de Protección de Datos Personales (2000), que exige principios de finalidad y proporcionalidad sobre el tratamiento de datos personales (Ley 25.326, Boletín Oficial, 2000). Además, la normativa europea —el Reglamento General de Protección de Datos (RGPD), vigente desde el 25/05/2018— ya condiciona prácticas de empresas con presencia global (Comisión Europea, 2018). Para empresas y clientes argentinos que usan herramientas de Meta o integran agentes, esto significa que hay que verificar si los datos empleados provienen de usuarios locales, si fueron tratados conforme a ley y si existen mecanismos claros para ejercer derechos ARCO (acceso, rectificación, cancelación, oposición).

¿Qué riesgos y qué salvaguardas hacen falta?

Los riesgos combinan técnico y humano: exposición accidental de datos sensibles en capturas de pantalla; reconstrucción de actividades laborales; y la posibilidad de que modelos automatizados propaguen errores o sesgos observados en workflows internos. El aspecto legal no es menor: el uso de registros interiores puede chocar con requisitos de minimización y finalidades claras establecidos por la Ley 25.326 y por el RGPD (Comisión Europea, 2018). Las salvaguardas mínimas que debemos exigir incluyen: auditorías independientes publicadas, métricas públicas sobre qué datos se capturan y cuánto tiempo se retienen, pruebas de anonimización efectivas, y revisión humana obligatoria antes de cualquier acción automatizada que afecte tareas laborales. Además, la documentación y las políticas deben estar disponibles en español para equipos y reguladores en LATAM.

Qué pedimos y cuál es la postura editorial

Apoyamos la integración técnica responsable de datos internos para mejorar agentes que realmente ayuden a las personas, pero exigimos reglas claras: 1) métricas públicas sobre tipos y volúmenes de datos recopilados y su retención (transparencia), 2) documentación técnica y política en español, y 3) gobernanza con revisión humana antes de desplegar automatizaciones que afecten empleos o evaluaciones. Pedimos además que Meta permita auditorías externas y que informe, en plazos públicos razonables, el alcance de MCI en términos de usuarios afectados. En resumen: la ingeniería detrás de estos agentes no es mala per se, pero su despliegue sin métricas públicas ni control humano sería una mala política empresarial y regulatoria.

Meta puede tener argumentos técnicos válidos para entrenar agentes con datos reales; la sociedad y las empresas en Argentina deben pedir garantías concretas antes de aceptar que flujos de trabajo sensibles se integren en modelos que aprenden de la actividad cotidiana. Exigir transparencia y control humano no es un freno al progreso; es la condición para que el progreso sea útil y legítimo.