Un desarrollador llamado Aloshdenny asegura haber “reverse-engineered” SynthID y documenta un proceso que usó 200 imágenes generadas con Gemini para exponer patrones del watermark; Google, sin embargo, dice que no es correcto afirmar que la marca pueda eliminarse sistemáticamente (declaración a The Verge, 14/4/2026).
¿Qué dijo y cómo lo hizo?
Aloshdenny publicó en Medium y en GitHub el paso a paso: generar 200 imágenes completamente negras o blancas con Gemini, realzar contraste y saturación, reducir ruido de saturación para dejar aflorar patrones, promediar las señales por canal y frecuencia, y luego atacar esas frecuencias en imágenes objetivo. El autor enfatiza que “no neural networks. No proprietary access” y que lo que logró fue, sobre todo, confundir decodificadores —hacer que el lector de la marca “se rinda”— pero no borrar la firma por completo (según su post en Medium y repo en GitHub). Ese dato concreto —200 imágenes— es el que el desarrollador destaca como suficiente para su análisis.
¿Se puede eliminar realmente el watermark?
Google respondió a la nota publicada el 14/4/2026 por The Verge rechazando que exista una herramienta capaz de eliminar SynthID de forma sistemática; la portavoz Myriam Khan dijo que la afirmación es incorrecta y defendió la robustez del sistema. Técnicamente, lo que describe el experimento es un ataque por análisis de frecuencia: detectar la magnitud y fase de la señal incrustada y luego intentar neutralizarla en el mismo ángulo en que fue insertada. El hecho de que el autor no haya logrado una eliminación completa y haya quedado en un nivel de “confusión” apunta a que SynthID fue diseñado para elevar el costo técnico del abuso, no para ser invulnerable. Esa diferencia —confundir vs. eliminar— es la que define el riesgo inmediato.
¿Cómo impacta esto en Argentina?
Para medios, creadores y plataformas en Argentina la noticia obliga a revisar dos cosas: la eficacia práctica de las marcas digitales y la capacidad de moderación automática. Google aplica SynthID a outputs de Gemini y, según la nota, a modelos como Nano Banana y Veo 3 y a elementos de YouTube; eso significa que contenido distribuido globalmente puede llevar una señal que facilite atribución técnica, pero también que existen vectores para intentar ocultarla. Si un actor local probara técnicas similares con 200 imágenes, podría complicar la detección automatizada en cascada de plataformas; la pregunta para equipos de moderación es si prefieren medidas basadas en huellas técnicas, verificación humana o una combinación. En la práctica, esto implica costos operativos: más revisores humanos o herramientas complementarias para mantener la confianza en identificaciones automáticas.
Qué pedirle a Google, a las plataformas y al regulador
Vemos con interés el esfuerzo técnico de Google, pero pedimos tres requisitos mínimos antes de confiar la atribución técnica como única herramienta: métricas públicas que midan tasa de falsos positivos y falsos negativos (con metodología y benchmarks), documentación en español para equipos de moderación en la región, y mecanismos de gobernanza con revisión humana antes de adopción amplia. Esos tres puntos responden al deber de transparencia: si una marca pretende ser la última línea de defensa contra el abuso, debe acompañarse de datos públicos que permitan reproducibilidad y auditoría. Mantener la postura crítica no es rechazo al avance técnico; es exigir condiciones para su uso responsable y efectivo en contextos como el argentino.
Conclusión
El experimento de Aloshdenny —200 imágenes, procesamiento de frecuencia y un resultado que confunde pero no borra— abre una discusión legítima sobre robustez operativa y transparencia. Google dice que SynthID sigue siendo efectivo (declaración a The Verge, 14/4/2026), y hasta que haya métricas públicas y documentación accesible en nuestro idioma, lo responsable es tratar estos hallazgos como una llamada a auditar y gobernar, no como una refutación definitiva del sistema.