Pasaba ocho horas al día mirando pornografía y describiendo cada escena para que una IA aprendiera a reconocerla; al terminar la jornada, trabajaba en chats sexuales simulando relaciones íntimas. El testimonio corresponde a Michael, un trabajador keniano que hoy es secretario de la Data Labelers Association of Kenya y que contó su experiencia a 404media (17/3/2026). Según Time, algunas empresas pagaban entre 1,3 y 2 dólares netos por hora por este tipo de tareas.
¿Qué hacen exactamente estos trabajadores y por qué importa?
Etiquetar imágenes y mantener conversaciones sexuales con usuarios no es contenido aislado: es la base de muchos sistemas que dicen ser “IA”. Los moderadores describen escenas, marcan violencia o consentimiento y, en chats, generan respuestas que luego sirven para entrenar modelos. En el caso relatado, la rutina eran jornadas de 8 horas frente a la pantalla (según 404media, 17/3/2026) y episodios continuos que derivaron en insomnio, estrés y disfunción sexual. Empresas como Sama y plataformas como Remotasks (vinculada a Scale AI) aparecen en las investigaciones; Time documentó pagos de 1,3–2 USD/h. Si llegaste hasta acá, ya tenés lo más difícil: entender que detrás de un mensaje “generado por IA” puede haber un trabajador expuesto a daño psicológico.
¿Cómo impacta esto en Argentina y en la región?
Aunque la historia es de Kenia, el modelo laboral atraviesa cadenas globales de entrenamiento de IA que contratan mano de obra remota. Para comparar: el salario mínimo federal de Estados Unidos es de 7,25 USD por hora (Departamento de Trabajo de EE. UU., vigente desde 2009), lo que sitúa los 1,3–2 USD/h reportados a una fracción de ese nivel. Eso importa para Argentina porque empresas locales y plataformas internacionales pueden replicar esquemas que externalizan riesgos y reducen costes a costa de salud mental y derechos laborales. La alternativa honesta es exigir cláusulas contractuales, auditorías y capacidad de exportar metadatos y registros de trabajo para trazabilidad —sin esos elementos, se reproduce explotación invisible.
¿Qué debería pedirse reglamentariamente y qué pueden hacer las empresas ya?
Primero: trazabilidad. Cada tarea de etiquetado debe dejar un rastro exportable (metadatos, horas, contenido revisado) para auditorías externas. Segundo: limitar permisos y anonimizar usuarios, pero sin ocultar quién realizó la revisión —control no significa opacidad. Tercero: recursos de salud mental y pausas obligatorias; el testimonio indica daño tras meses de exposición (404media). Estas medidas no son solo éticas: reducen riesgos legales y reputacionales. Si esto te parece mucho, hay alternativas técnicas más simples: filtrar primero con modelos automáticos y reservar revisión humana solo para casos límite, siempre con protección laboral y pago digno.
Conclusión: lo que hay que mirar antes de adoptar “IA” que promete milagros
La lección es clara: si una IA funciona gracias a revisiones humanas en condiciones que dañan a quienes la entrenan, no es ética ni responsable. Priorizar trazabilidad, control de permisos y revisión humana coherente con condiciones laborales dignas es imprescindible. Además, exigir transparencia sobre quién hace el trabajo y cuánto se paga evita externalizar costos sociales. Si optás por herramientas de IA o subcontratás etiquetado, pedí pruebas cortas, exportación de datos y plan de acompañamiento psicológico: esas son las pruebas de que una solución tecnológica respeta a las personas detrás de la pantalla.