OkCupid y su casa matriz, Match Group, acordaron resolver una denuncia de la Comisión Federal de Comercio de EE. UU. (FTC) por haber compartido fotos de usuarios con la empresa de reconocimiento facial Clarifai sin ofrecer una opción de exclusión, según informó The Verge. La denuncia alega que el acceso incluyó casi 3 millones de fotos y datos demográficos y de ubicación, y que la práctica violó la propia política de privacidad de la app.

¿Qué pasó exactamente?

Según la denuncia de la FTC reportada por The Verge, Clarifai contactó a uno de los fundadores de OkCupid en 2014 y la app le dio acceso a casi 3 millones de fotografías de usuarios, además de datos demográficos y de ubicación. Esa cifra, “casi 3 millones”, aparece en la propia presentación que cita la investigación; la fecha clave es 2014, cuando comenzó la relación, y la conducta habría continuado sin un opt‑out claro para los usuarios. La acusación también sostiene que Match Group intentó luego minimizar o ocultar el vínculo con Clarifai cuando el New York Times preguntó por el acceso. Esos hechos son relevantes porque mezclan datos biométricos (fotos) con metadatos que permiten perfiles más precisos.

¿Qué hizo la FTC y qué no?

La FTC llegó a un acuerdo con OkCupid y Match Group anunciado el 31/03/2026, según The Verge, que obliga a las empresas a no volver a hacer las mismas supuestas prácticas y las somete a monitoreo de cumplimiento. El acuerdo no contiene una multa económica ni una admisión de culpa por parte de las compañías, según la nota. En términos cuantitativos, la novedad visible es la imposición de vigilancia del cumplimiento en vez de sanción financiera; la resolución deja abierta la puerta a acciones futuras si se detectan violaciones. Para la protección efectiva de usuarios eso es insuficiente: sin métricas verificables o auditorías independientes, el monitoreo interno rara vez detecta fallos reales.

¿Cómo impacta esto en Argentina?

Vemos tres efectos directos para emprendedores y reguladores argentinos. Primero, la filtración de fotos combinada con metadatos es exactamente el riesgo que enfrentan apps locales que manejan perfiles: una sola integración de IA puede amplificar exposición de datos personales. Segundo, la ausencia de sanciones económicas en este caso debilita el disuasivo público; el acuerdo de 31/03/2026 ofrece supervisión pero no multa inmediata, lo que es distinto a acciones más costosas que podrían cambiar comportamientos. Tercero, hay una ventana temporal que importa: la relación Comercial empezó en 2014 y desembocó en un acuerdo 12 años después (2014 vs. 2026), lo que muestra que la respuesta regulatoria puede llegar muy tarde respecto al daño potencial. En mercados LATAM donde el cumplimiento es desigual, eso es un llamado de atención.

Qué deberíamos exigir: transparencia, métricas y auditorías

La lección es clara y coincide con posiciones previas: hay que exigir transparencia, métricas verificables y auditorías independientes a proveedores de IA que acceden a datos sensibles. En la práctica proponemos tres medidas concretas: 1) exigir que cualquier uso de biometría tenga opt‑in documentado y registro auditado; 2) publicar métricas verificables sobre qué datos se comparten y con qué propósito, actualizadas al menos anualmente; 3) que reguladores puedan mandar auditorías independientes con acceso técnico completo al flujo de datos. Los acuerdos como el del 31/03/2026 (según The Verge) prueban que la FTC puede forzar revisión contractual, pero sin auditorías externas y métricas públicas, quedamos con promesas.

En resumen, este caso no es sólo una anécdota estadounidense: confirma por qué en LATAM debemos regular integraciones de IA con criterios técnicos y exigencias verificables. Las empresas que quieran operar aquí tienen que entender que la transparencia no es un costo prescindible, sino la condición mínima para mantener la confianza del cliente y evitar contingencias mayores.