Meta está enviando contenidos capturados por las gafas Ray‑Ban Meta para etiquetado humano en centros como Sama en Kenia, según un reportaje publicado por Svenska Dagbladet el 4/3/2026; fuentes del artículo relatan que trabajadores ven desde escenas cotidianas hasta material íntimo y sensible, y que parte de ese material se usa para entrenar la IA que acompaña al hardware.

¿Qué dice la investigación y qué procesos describe?

El reportaje de Svenska Dagbladet (4/3/2026) documenta cómo las grabaciones y transcripciones que generan las gafas pasan por un flujo que incluye anonimización automática, limpieza y luego revisión manual para «etiquetado» por contratistas como Sama en Kenia, donde empleados identificaron objetos, contornos y contextos que luego alimentan modelos de entrenamiento; los términos de servicio de Meta reconocen que “en algunos casos” la revisión puede ser manual. Esta cadena es técnicamente comprensible, pero plantea interrogantes operativos: ¿qué tanto se difuminan las caras y cuándo fallan los algoritmos?, ¿qué controles tienen los contratistas sobre el acceso a clips sensibles? El reportaje también recoge que, si el usuario no acepta el procesamiento para mejorar productos, no puede usar Meta AI, una condición que convierte el consentimiento en una elección con consecuencias reales.

¿Esto me afecta en Argentina y qué riesgos concretos hay?

Sí: aunque los servidores estén en países que «cumplen requisitos» regulatorios, las tareas de etiquetado y revisión pueden ocurrir fuera de la jurisdicción local, lo que implica riesgos reales para usuarios argentinos que usen las gafas; el problema no es solo la grabación accidental en probadores o baños, sino la posibilidad de que algoritmos no anonimicen correctamente en condiciones de baja iluminación, dejando exposiciones completas visibles para revisores humanos. Además, Xataka recuerda contextos previos de moderación con altos volúmenes de contenido y estrés laboral —hasta 800 vídeos al día en algunos centros—, lo que explica la probabilidad de filtraciones humanas o de manejo negligente (según Xataka). En términos personales, la combinación de grabación persistente, consentimiento condicionado y revisión humana incrementa la superficie de riesgo para privacidad y seguridad de datos personales.

¿Qué gravedad tiene esto comparado con casos anteriores y qué exige la gobernanza?

No es la primera vez que plataformas grandes enfrentan críticas por revisión humana de datos sensibles; el episodio de Cambridge Analytica en 2018 mostró cómo datos aparentemente inocuos pueden usarse con fines opacos (caso documentado en los reportes de 2018). Hoy la novedad es la convergencia entre hardware wearable y IA persistente: Meta busca competir por el «nuevo smartphone» y alimenta modelos con datos del mundo real mientras externaliza trabajo de etiquetado a países en desarrollo, un patrón que ya involucra a al menos 60 países firmantes de una iniciativa por una IA «abierta e inclusiva» frente a 2 grandes ausentes —EEUU y Reino Unido— según Xataka, lo que hace urgente un marco internacional de gobernanza que exija trazabilidad, métricas de calidad y auditorías independientes sobre uso y transferencia de datos.

Qué deberían pedir usuarios, reguladores y la propia Meta

Exigimos tres cosas concretas: transparencia operativa (qué datos se envían, a quién y durante cuánto tiempo), métricas públicas sobre fallas de anonimización y volumen de revisiones manuales, y gobernanza contractual que proteja a las personas que etiquetan y a las personas filmadas; además, el consentimiento no puede ser una puerta única: hace falta un opt‑out granular para exclusión del training y límites por defecto de retención. A nivel práctico, Meta debería publicar un informe con números —qué porcentaje de interacciones son revisadas manualmente, tasas de fallos de anonimización y países donde ocurre el etiquetado— y permitir auditorías independientes. Valoramos la apuesta por hardware y capacidad de IA, pero la transparencia regional y la gobernanza clara son imprescindibles para que esa apuesta no desplace derechos básicos.