Senadores demócratas están preparando un proyecto para convertir en obligación legal las “líneas rojas” que Anthropic impuso sobre el uso militar de sus modelos: prohibir armas totalmente autónomas y evitar la vigilancia masiva dentro de EEUU, y la propuesta podría salir en “una o dos semanas”, según The Verge (25/3/2026).
En pocas palabras: buscan que la decisión sobre vida o muerte la tome siempre un humano y no un algoritmo, y pretenden codificar eso en ley para no depender solo de acuerdos de empresa o de decisiones administrativas.
¿Qué proponen exactamente?
El borrador que menciona el senador Adam Schiff prioriza el principio “human in the loop”: cuando una tecnología pueda quitar una vida, tiene que haber un operador humano en la cadena de mando. Según The Verge (25/3/2026), Schiff aún define qué se considera “arma autónoma” y cómo aplicar las protecciones a residentes no ciudadanos.
Paralelamente, la senadora Elissa Slotkin presentó el AI Guardrails Act, que restringe al Departamento de Defensa el uso de IA para detonar armas nucleares o rastrear personas o grupos dentro de EEUU, aunque contempla un mecanismo de notificación al Congreso para “circunstancias extraordinarias”. Ambos textos buscan límites claros sobre dos aplicaciones concretas: letalidad automatizada y vigilancia masiva.
¿Por qué importa para la industria y la seguridad?
La disputa crece después de que la administración federal designó a Anthropic como riesgo en la cadena de suministro por rechazar ciertos usos militares, lo que motivó que Anthropic demandara al Gobierno por violaciones constitucionales, según The Verge (25/3/2026). Ese choque expone un problema mayor: confiar en contratos o en la buena fe de CEOs no protege a la ciudadanía de riesgos tecnológicos.
Si el Congreso codifica reglas, las empresas sabrán desde la ley qué usos quedan prohibidos y cuáles requieren revisión humana. Eso cambia incentivos comerciales: firmar acuerdos cerrados con el Pentágono tendría que cuadrar con restricciones legales, no solo con términos comerciales negociados entre multinacionales.
¿Cómo impacta esto en Argentina y América Latina?
Aunque la iniciativa es estadounidense, abre un precedente regulatorio relevante para la región. Países de América Latina suelen adaptar marcos jurídicos de EEUU y la UE; una ley norteamericana que limite usos militares y de vigilancia masiva de IA puede servir de referencia técnica y política para regulaciones locales. Además, los debates sobre transparencia y gobernanza influyen en organismos multilaterales y en las compras públicas.
Para empresas y gobiernos de la región esto implica exigir métricas públicas de seguridad y documentación en español — dos condiciones que ya hemos sostenido como necesarias para adoptar herramientas de IA importadas— y establecer procesos de revisión humana en sistemas sensibles.
Qué pedimos desde esta nota
Apoyamos que el Congreso establezca límites legales frente a armas autónomas y vigilancia masiva: no alcanza con la buena voluntad de una empresa, hace falta norma pública. Exigimos además tres requisitos complementarios antes de una adopción masiva por parte de gobiernos: métricas públicas de seguridad, documentación en español y gobernanza que incluya revisión humana en decisiones críticas. El texto de Schiff y el AI Guardrails Act podrían incorporarlos si los legisladores y la sociedad civil los reclaman.
En calendario político, la ventana para avanzar este año es estrecha: las elecciones de mitad de mandato son en noviembre de 2026, según la Comisión Federal de Elecciones de EEUU (FEC), y los autores del proyecto evalúan usar la National Defense Authorization Act (NDAA), que, según Congress.gov, se tramita anualmente como vehículo legislativo. Eso hace urgente discutir contenido técnico y garantías públicas ahora, no después.
Fuentes: The Verge, artículo sobre Schiff y Slotkin (25/3/2026); calendario electoral de la FEC; Congress.gov sobre la NDAA.