La IA puede ayudar a redactar textos y resumir formularios, pero no es seguro dejar que rellene y presente tu declaración sin supervisión. Si la herramienta se equivoca, sos vos quien responde ante la autoridad tributaria; además, muchos modelos guardan datos en servidores externos, lo que añade riesgo de privacidad y problemas regulatorios. Por eso la recomendación clara: no subir documentos fiscales completos a chatbots públicos y usar la IA solo como apoyo —con trazabilidad y plan de salida— antes de formalizar la presentación.
¿Por qué es peligroso dejar que la IA haga la declaración?
Vemos tres fallas concretas. Primero, las alucinaciones: los modelos pueden inventar números o mezclar reglas y eso se traduce en errores en los campos de la declaración. Segundo, las fuentes: si la IA toma información de páginas no oficiales, la respuesta puede estar desactualizada o ser errónea. Tercero, la privacidad: un borrador con CUIL, cuentas bancarias y montos subido a un servicio en nube queda fuera de tu control. Recordá un dato de contexto: modelos como ChatGPT alcanzaron 100 millones de usuarios mensuales en enero de 2023, lo que muestra lo extendido del uso pero también la magnitud del riesgo si se usan sin protocolos (The New York Times, enero 2023). Además, en la Unión Europea las sanciones por gestión indebida de datos personales pueden llegar al 4% de la facturación global anual o €20 millones, lo que ilustra la gravedad de una filtración (Reglamento (UE) 2016/679, art. 83).
¿Me puede multar la AFIP si uso la IA para la declaración?
La responsabilidad de la veracidad de la declaración recae en la persona que la presenta, no en la herramienta que la generó. Eso significa que si un error del borrador automático lleva a subdeclarar ingresos o deducciones, la multa y los intereses correrán por vuestra cuenta. En Argentina, además, hay un marco de protección de datos personales (Ley 25.326) que regula el tratamiento de información sensible; exponer datos sin controles puede implicar sanciones administrativas y complicar reclamos futuros. Por otra parte, muchas administraciones fiscales recomiendan el uso de canales oficiales para presentar datos; si tenés dudas, consultá por teléfono o presencialmente con un profesional. Como referencia de contexto, el acceso a internet en América Latina y el Caribe llegó al 73.6% en 2021, lo que facilita el uso de estas herramientas pero también multiplica los puntos de exposición (World Bank, “Individuals using the internet, 2021”).
Cómo usar la IA de forma segura (si querés usarla)
Si optás por usar IA para ahorrar tiempo, hacelo con reglas claras. 1) Nunca subas documentos fiscales completos a chatbots públicos. 2) Usá modelos locales o herramientas que permitan restringir la base de datos a tus documentos y con registro de auditoría (por ejemplo, opciones que permiten “respuesta solo desde documento X”) —esto reduce fugas y mejora trazabilidad. 3) Guardá versiones: exportá y fechá el borrador antes y después de pedir sugerencias a la IA; así tenés evidencia de qué cambió. 4) Controlá permisos y plan de salida: sabé cómo recuperar y borrar tus datos de la plataforma. Finalmente, si la tarea es compleja (múltiples fuentes de ingreso, impuestos fuera de lo común), conviene pagar un profesional: la IA puede servir para redactar descripciones o resumir documentos, pero no debe reemplazar la revisión final. Recordá también que la legislación y las políticas de proveedores evolucionan; mantené registros de cuándo y qué usaste.
Conclusión: tres decisiones prácticas
Si buscás eficiencia, usá la IA solo como ayudante y no como responsable. Prioritizá alternativas gratuitas y locales cuando existan, exigí trazabilidad y guardá pruebas antes de presentar. Si algo te suena complicado, la opción más segura sigue siendo el canal oficial o el profesional: es más lenta pero evita multas y dolores de cabeza.
Si llegaste hasta acá, ya tenés lo más difícil: un plan básico para usar IA con seguridad en tu declaración sin convertir una ayuda en un problema legal o de privacidad.