En Amazon están forzando el uso de su IA interna (Kiro) y, según empleados consultados por The Guardian, los desarrolladores pasan más tiempo corrigiendo código generado por esa IA que escribiendo el suyo. En los últimos meses la compañía recortó 30.000 puestos, equivalentes al 10% de su fuerza corporativa, y más de 1.000 trabajadores firmaron una petición contra el despliegue agresivo de estas herramientas, según The Guardian.
Qué pasa dentro de Amazon
El caso expuesto por The Guardian muestra una cadena clara: la empresa impulsa Kiro, Kiro genera código con fallos (‘‘alucinaciones’’) y los ingenieros terminan revisando y corrigiendo esos errores. Dina, una desarrolladora citada, se incorporó hace dos años para programar y hoy dedica gran parte de su jornada a limpiar lo que la IA rompió; días después fue despedida, según el mismo reportaje. Además, informes internos vinculan al menos dos caídas de servicio con cambios realizados mediante herramientas de IA, de acuerdo con The Guardian. Los equipos están monitorizados: hay paneles que registran quién usa la IA y con qué frecuencia, y documentos internos fijan metas como que el 80% del equipo la use semanalmente, según la nota.
¿Tiene sentido forzar el uso de IA?
La pregunta clave para cualquier negocio es simple: ¿esto ahorra plata o la genera? En Amazon, la respuesta operativa no está clara. Forzar el uso de Kiro puede reducir horas en tareas repetitivas si la herramienta es fiable; sin embargo, cuando genera código defectuoso el costo es doble: tiempo de revisión más riesgo reputacional por caídas de servicio. Además está el efecto laboral: más de 1.000 firmas contra el despliegue sugieren deterioro moral y riesgo de fuga de talento (The Guardian). Obligar a usar una herramienta inmadura convierte a los empleados en entrenadores forzados de su reemplazo, lo cual no es sustentable si la métrica de evaluación es la adopción en vez del impacto real sobre productividad.
¿Cómo impacta esto en el mercado argentino?
Si Amazon presiona con metas del 80% de uso y recortes del 10% en plantilla (The Guardian), el mensaje llega a LATAM: muchas plataformas globales considerarán obligatorio integrar IA en flujos de trabajo. Para pymes argentinas eso representa un doble peligro: costo de implementación y exposición a fallos. No es lo mismo abrir un piloto en una startup que depender de una herramienta que puede provocar caídas. Además, la presión por mostrar ‘‘adopción’’ puede llevar a decisiones prematuras. Desde la perspectiva regional, las empresas pequeñas necesitan medir ROI en pesos, considerar integraciones con canales locales (WhatsApp, MercadoPago) y exigir a proveedores métricas claras de fiabilidad y soporte.
Qué deberían hacer las pymes y los reguladores
Primero: pilotos controlados y métricas claras. Antes de imponer una IA en la operación, exigir pruebas independientes sobre tasa de error, tiempo ahorrado y costo por incidente. Segundo: transparencia laboral. Si el uso de IA afecta evaluaciones y promociones, eso debe estar documentado y discutido con sindicatos o representantes. Tercero: regulación mínima: reporte de incidentes relacionados con IA que afecten servicios críticos (como las dos caídas vinculadas a cambios con IA en Amazon, según The Guardian). Para las pymes, la recomendación práctica es simple: probar, medir horas ahorradas vs horas invertidas en corrección, y sólo escalar si el ahorro es neto. No hay atajos: la IA debe demostrar su ROI antes de convertirse en requisito cultural o de RRHH.
En resumen, lo que pasa en Amazon sirve como advertencia: imponer tecnologías sin pruebas y sin métricas transforma una promesa de eficiencia en trabajo adicional, riesgo operativo y coste humano. Las pymes deben exigir números y transparencia antes de adoptar en serio.