Es sobre entrevistas laborales conducidas por avatares o bots de IA que hacen videollamadas, preguntan y analizan tus respuestas: Hayden Field probó tres entrevistadores automatizados y contó la experiencia (The Verge, 11/3/2026).
¿Qué le pasó a la periodista y por qué importa?
Hayden Field, reportera de IA desde hace más de cinco años, probó tres entrevistadores distintos en video y describió una mezcla de naturalidad técnica y frustración humana (The Verge, 11/3/2026). El dato concreto: la prueba incluyó tres herramientas distintas y varias posiciones, y la sensación recurrente fue que, pese a la promesa de escala, la interacción rara vez reemplazó la confianza que genera una conversación con una persona real (The Verge, 11/3/2026). Esto importa porque “millones” de personas buscan trabajo en simultáneo y las compañías que escalan procesos con IA pueden cambiar quién accede a la siguiente etapa de selección (The Verge, 11/3/2026). Si llegaste hasta acá, ya tenés lo más claro: la tecnología escala, pero no elimina la necesidad de transparencia.
¿Cómo impacta esto en el mercado laboral argentino?
En la práctica, estas herramientas prometen filtrar a todos los postulantes de forma homogénea, pero la equidad no está garantizada. Al menos tres empresas mencionadas como referentes en la nota son CodeSignal, Humanly y Eightfold, que ofrecen entrevistas automatizadas o cribas técnicas (The Verge, 11/3/2026). Comparado con hace cinco años, cuando estas soluciones eran poco visibles en procesos masivos, hoy su presencia es mucho mayor, lo que implica que más vacantes podrían usar IA en fases iniciales (The Verge, 11/3/2026). Para el postulante argentino eso significa: prepararse para formatos de video pregrabado, criterios automatizados y, sobre todo, preguntar cómo se evalúan las respuestas y cuánto tiempo retendrán tus datos. Si esto te parece excesivo, pedí una entrevista humana: es una alternativa válida y, a veces, más eficiente.
Riesgos de sesgo, privacidad y trazabilidad
Los creadores suelen afirmar que sus modelos reducen prejuicios porque analizan respuestas, no solo apariencia, pero un sistema totalmente libre de sesgo es inalcanzable si se entrena con datos humanos y del internet, que contienen prejuicios históricos (The Verge, 11/3/2026). Además del sesgo, está la pregunta práctica: ¿quién guarda tu video, por cuánto tiempo y con qué permisos? Recomendamos explícitamente tres medidas: exportar un respaldo de lo que vos compartiste cuando la plataforma lo permita; limitar permisos (por ejemplo, evitar dar acceso a toda la libreta de contactos o archivos); y exigir que exista una revisión humana antes de tomar decisiones finales. Estas medidas siguen nuestra posición previa sobre priorizar trazabilidad y control de datos antes de automatizar procesos.
Qué deberían hacer las empresas y qué podés pedir como candidato
Para las empresas: transparencia sobre criterios, auditorías periódicas de sesgo, políticas claras de retención y canales para solicitar la eliminación de datos. Para vos como candidato, pedí información concreta sobre qué métricas evalúan, cuánto tiempo almacenan tu material y si habrá revisión humana. Practicá con simuladores de entrevistas en video y guardá un registro (fecha y plataforma) de cada prueba: esos respaldos sirven si necesitás cuestionar una decisión. Si la empresa no ofrece transparencia, considerá rechazar la fase automatizada: no conviene dejar tu información en sistemas sin trazabilidad. En resumen, la IA puede agilizar la búsqueda, pero siempre con controles: exportá respaldos, limitá permisos y exigí revisión humana antes de aceptar automatizaciones.