La Oversight Board de Meta concluye que los métodos de la compañía para identificar deepfakes “no son lo suficientemente robustos” y pide una revisión amplia, según su comunicado del 10 de marzo de 2026 (Meta Oversight Board, 10/03/2026).
Qué dijo la Junta y por qué importa
La Junta encontró que el sistema actual de Meta depende demasiado de la autodeclaración de uso de IA y de revisiones escaladas, y que eso no funciona cuando la desinformación circula rápido durante conflictos armados (Meta Oversight Board, 10/03/2026). En el caso investigado, un video falso sobre daños a edificios surgió en TikTok y luego apareció en Facebook, Instagram y X, lo que muestra proliferación interplataforma (4 plataformas mencionadas; Meta Oversight Board, 10/03/2026). La Junta emitió al menos 6 recomendaciones claras: mejorar reglas de desinformación, crear un estándar específico para contenido AI, desarrollar mejores detectores, transparentar sanciones, escalar el etiquetado y fomentar la adopción de C2PA (Meta Oversight Board, 10/03/2026). Ese listado es útil porque convierte una crítica general en pasos concretos.
¿Cómo impacta esto en pymes y medios argentinos?
Vemos que la discusión no es solo para grandes compañías: las pymes y los medios locales dependen de Facebook e Instagram como canales principales de difusión y atención. Meta reportó 3.18 mil millones de personas activas diarias en la familia de apps en el cuarto trimestre de 2023, lo que explica la capacidad de amplificación del problema (Meta Q4 2023 results). Si una pyme argentina recibe un video viral falso en su canal de ventas, el riesgo es reputacional y operativo: clientes piden reembolsos, se saturan los canales de atención y se genera desconfianza. Por eso cualquier solución técnica debe mostrar dos cosas antes de adoptarla: 1) que reduce tiempo de gestión en X% o libera Y horas al mes, y 2) cuánto cuesta implementarla y mantenerla. Sin esos números, la automatización puede ser un gasto más que una herramienta que