Se trata de la difusión por parte de Donald Trump de imágenes de ocho mujeres que él afirmó iban a ser ejecutadas en Irán, y de la rápida reacción iraní que niega ejecuciones y acusa que parte del material fue generado por inteligencia artificial.
Qué pasó y por qué importa
El 23 de abril de 2026, un mensaje público de Donald Trump difundió fotos de ocho mujeres y pidió a Irán frenar supuestas ejecuciones; en cuestión de horas Trump declaró haber logrado su objetivo, mientras Teherán negó que hubiera ejecuciones previstas y afirmó que algunas imágenes eran generadas por IA (según la publicación original del 23/4/2026). Esto importa porque mezcla diplomacia pública, presión política y pruebas visuales en un teatro estratégico: el Estrecho de Ormuz y las tensiones entre Irán y EEUU. El contexto no es inocuo: tras las protestas internas en Irán existen denuncias sobre juicios sin garantías y detenciones masivas, un marco que amplifica el impacto de cualquier imagen — según The Times, las protestas dejaron miles de detenidos y denuncias continuas.
¿Cómo se verifica si una foto es real o fue generada por IA?
Verificar requiere varias capas: metadata y origen del archivo, búsqueda inversa por versiones previas, análisis técnico en borde (anomalías en sombras, reflejos, patrones faciales) y cotejo con fuentes locales independientes. Las agencias de seguridad digital recomiendan combinar herramientas automáticas con verificación humana y documentación del proceso; en escenarios políticos la automatización sola no alcanza (recomendaciones generales de agencias como CISA y centros de verificación). Además, la disponibilidad y transparencia de las herramientas importan: si los modelos que generan imágenes no publican métricas ni documentación en español, la verificación para medios en Latinoamérica se vuelve más difícil. Requerimos métricas públicas, documentación en español y revisión humana para dar valor probatorio a cualquier imagen atribuida a hechos de alto impacto.
¿Puede pasar algo así en Argentina?
Sí: la combinación de actores políticos con amplificadores digitales y herramientas accesibles de generación de imágenes puede reproducir dinámicas locales. En Argentina ya vimos cómo una fotografía o un video —sin contexto o sin verificación— puede alterar debates públicos y campañas electorales; no hace falta un conflicto internacional para que una imagen falseada tenga consecuencias reales en opinión pública y decisiones políticas. Por eso la alfabetización mediática y protocolos en medios y gobiernos son cruciales: exigir cadenas de custodia, fuentes primarias y transparencia en las herramientas de verificación reduce el margen para manipulaciones. La lección es práctica: no autorizar decisiones públicas sobre bases visuales sin verificación independiente.
Qué pedimos: transparencia, gobernanza y revisión humana
No se trata de frenar la investigación ni la competencia tecnológica; se trata de exigir reglas mínimas cuando la IA entra en la arena diplomática. Apoyamos el desarrollo técnico siempre que venga acompañado de métricas públicas, documentación en español y gobernanza con revisión humana antes de su adopción amplia — la misma posición que hemos sostenido respecto de proveedores y hardware en otras notas recientes. Además, los medios deben aplicar estándares claros: identificar la fuente original, reportar incertidumbres y pedir evidencia complementaria. La historia muestra que las narrativas pueden adelantarse a los hechos (caso Nayirah en 1990; acusaciones sobre armas en 2003) y hoy la IA facilita fabricar esas narrativas — por eso exigimos transparencia técnica y procesos verificables para no convertir imágenes en decisiones geopoliticas sin base.