Dos jurados están deliberando juicios que podrían obligar a Meta a pagar más de US$2.000.000.000 por daños relacionados con la seguridad de menores en Facebook e Instagram (The Verge, 24/3/2026).
¿De qué acusan a Meta?
La acusación principal en Nuevo México sostiene que Meta diseñó y operó sistemas que facilitaron la interacción de predadores con cuentas que aparentaban ser menores. La fiscalía presentó evidencia interna y operativos encubiertos que, según la nota, derivaron en el arresto de tres sospechosos (The Verge, 24/3/2026). Además, los fiscales calculan la posible sanción máxima usando un tope de US$5.000 por cada adolescente supuestamente engañado, una cifra que, aplicada a la base de usuarios que el estado atribuye a la plataforma, llevaría la suma por encima de los US$2.000.000.000 (The Verge, 24/3/2026). Meta niega las acusaciones y sostiene que sus sistemas se explicitan y que la Sección 230 protege la plataforma frente a responsabilidad por contenido de terceros (The Verge, 24/3/2026).
El argumento central: diseño algorítmico y negligencia
Los fiscales articularon el caso alrededor de una idea concreta: Meta “elige cómo programar su algoritmo” y podría priorizar seguridad sobre engagement, pero no lo hizo, según la acusación (The Verge, 24/3/2026). Durante los juicios se expusieron discusiones internas y documentación que, según la fiscalía, muestran conocimiento de problemas con menores. En lo procesal, las sesiones en Nuevo México duraron seis semanas y en Los Ángeles cinco semanas; la deliberación en Los Ángeles llevaba más de una semana al cierre de la nota (The Verge, 24/3/2026). La defensa replicó que la fiscalía seleccionó fragmentos y que muchos métodos de investigación fueron artificiales —argumento que busca preservar la inmunidad que ofrecen las normas sobre responsabilidad por contenido.
¿Qué cambia esto para la responsabilidad legal de plataformas?
Si un jurado acepta el marco de “representaciones engañosas” y no queda protegido por la Sección 230, el precedente sería importante: podría abrir la puerta a demandas que pidan reparar no sólo contenido concreto sino decisiones de diseño de producto. El potencial de multas superiores a US$2.000.000.000 (The Verge, 24/3/2026) y el uso de sanciones por usuario (US$5.000, The Verge, 24/3/2026) eleva el riesgo económico. Esto es distinto a demandas anteriores que fracasaron; además llega tras filtraciones de 2021 (Frances Haugen) que pusieron foco público sobre prácticas internas, lo que ha intensificado la scrutiny regulatoria desde entonces (The Verge, 24/3/2026). Para las plataformas, la pregunta práctica es técnica y económica: ¿es más barato cambiar algoritmos y controles que afrontar daños reputacionales y legales?
¿Cómo impacta esto en el mercado argentino?
Vemos tres efectos concretos para empresas y anunciantes en Argentina. Primero, si los veredictos obligan a rediseñar sistemas por seguridad, las plataformas pueden priorizar cambios de producto que reduzcan métricas de engagement; eso puede encarecer la adquisición de clientes para pymes que pagan por alcance en redes. Segundo, los costos regulatorios y de cumplimiento suben: una sanción tipo US$5.000 por usuario (The Verge, 24/3/2026) es simbólica para la discusión, pero demuestra que los juicios pueden traducirse en obligaciones de diseño y auditoría técnica. Tercero, en LATAM donde WhatsApp y MercadoLibre son infraestructura cotidiana, muchas pymes podrían migrar parte de su atención al cliente y ventas a canales más controlables (axioma: WhatsApp Business + IA), reduciendo exposición al feed algorítmico. No hay cifras oficiales para la Argentina en la nota, pero la lógica es clara: mayor riesgo legal en EE. UU. empuja a plataformas globales a ajustar producto y políticas que terminan afectando cómo se compra y se atiende al cliente en la región.
Conclusión breve
No es sólo dinero: si los jurados aceptan el argumento de que Meta priorizó engagement sobre seguridad, el fallo cambiará incentivos de diseño de productos y abrirá la puerta a más demandas. Para emprendedores en LATAM la variable a monitorear es práctica: qué controles exige la plataforma, cuánto cuestan y si compensa migrar atención de canales públicos a canales controlados y medibles.