En principios de junio, Amanda Claypool buscaba trabajo en un restaurante de comida rápida de Asheville, Carolina del Norte. Pero se encontró con un obstáculo inesperado y molesto: los chatbot de los reclutadores. Algunos ejemplos: "Olivia", el chatbot de contratación de McDonald's, dio el visto bueno a Claypool para una entrevista en persona, pero luego no pudo concertarla por problemas técnicos.
Un bot de Wendy's consiguió concertarle una entrevista en persona, pero era para un trabajo que ella no podía desempeñar. Luego, un chatbot de Hardees la envió a una entrevista con un gerente de la tienda que estaba de vacaciones, lo que no es una estrategia de reclutamiento perfecta.
"Me presenté en Hardees y se quedaron un poco sorprendidos. El equipo que operaba el restaurante no tenía ni idea de qué hacer conmigo o cómo ayudarme", dijo a Forbes Claypool, que finalmente aceptó un trabajo en otro lugar.
"Parecía algo más complicado de lo que tenía que ser". (McDonald's y Hardees no respondieron a la solicitud de comentarios. Un portavoz de Wendy's dijo a Forbes que el bot crea "eficiencias de contratación", añadiendo que "la innovación es nuestro ADN").
Los chatbots de RRHH como los que encontró Claypool se utilizan cada vez más en sectores como la sanidad, el comercio y la restauración para filtrar a los candidatos no cualificados y programar entrevistas con los que podrían ser adecuados para el puesto.
¿Qué empresas están haciendo la prueba?
McDonalds, Wendy's, CVS Health y Lowes utilizan Olivia, un chatbot desarrollado por la empresa de IA Paradox, con sede en Arizona y valorada en 1.500 millones de dólares. Otras empresas, como L'Oreal, confían en Mya, un chatbot de IA desarrollado en San Francisco por una startup del mismo nombre. (Paradox no respondió a una solicitud de comentarios sobre la experiencia de Claypool).
La mayoría de los chatbots de contratación no son tan avanzados o elaborados como los chatbots conversacionales contemporáneos como ChatGPT. Se utilizaron principalmente para seleccionar puestos de trabajo con un gran volumen de solicitantes: cajeros, empleados de almacén y asistentes de atención al cliente.
Son rudimentarios y hacen preguntas bastante sencillas: "¿Sabes utilizar una carretilla elevadora?" o "¿Podes trabajar los fines de semana?". Pero, como descubrió Claypool, estos robots pueden tener fallos y no siempre hay un humano al que recurrir cuando algo va mal.
Y las respuestas tan claras que exigen muchos de los robots podrían significar el rechazo automático de algunos candidatos cualificados que no respondan a las preguntas como un gran modelo lingüístico quiere que lo hagan.
Según los expertos, esto podría suponer un problema para las personas con discapacidad, las que no dominan el inglés y los solicitantes de empleo de más edad.
Aaron Konopasky, abogado asesor sénior de la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) de EE.UU., teme que chatbots como Olivia y Mya no ofrezcan a las personas con discapacidades o afecciones médicas opciones alternativas de disponibilidad o funciones laborales.
"Si es un ser humano con el que estás hablando, hay una oportunidad natural para hablar sobre ajustes razonables", dijo a Forbes. Si el chatbot es demasiado rígido, y la persona necesita poder solicitar algún tipo de exención, entonces el chatbot podría no darle la oportunidad de hacerlo
"Es algo parecido a cómo Netflix te recomienda películas basándose en otras que te gustan".
Jeremy Schiff, CEO y fundador de RecruitBot
La discriminación es otro motivo de preocupación. Los prejuicios subyacentes en los datos utilizados para entrenar la IA pueden introducir sesgos y discriminación en las herramientas en las que se despliega.
"Si el chatbot se fija en cosas como cuánto tardas en responder, o si utilizas la gramática correcta y frases complejas, ahí es donde empezás a preocuparte por los prejuicios", explica Pauline Kim, profesora de Derecho Laboral de la Universidad de Washington, cuya investigación se centra en el uso de la IA en herramientas de contratación.
Pero este sesgo puede ser difícil de detectar cuando las empresas no son transparentes sobre los motivos por los que se rechaza a un posible candidato.
Recientemente, las autoridades gubernamentales introdujeron legislación para supervisar y regular el uso de la automatización en las herramientas de contratación.
A principios de julio, la ciudad de Nueva York promulgó una nueva ley que exige a los empleadores que utilizan herramientas automatizadas como escáneres de currículum y entrevistas de chatbot que auditen sus herramientas para detectar sesgos de género y raciales.
En 2020, Illinois aprobó una ley que exige a los empleadores que aplican IA para analizar entrevistas en vídeo que notifiquen a los solicitantes y obtengan su consentimiento.
Aun así, para las empresas que buscan recortar costes de contratación, los agentes de selección por IA parecen una opción obvia.
Los departamentos de recursos humanos suelen ser uno de los primeros lugares en los que se reducen las plantillas, según Matthew Scherer, asesor principal sobre derechos de los trabajadores y tecnología del Centro para la Democracia y la Tecnología. "Los recursos humanos siempre fueron un centro de costes para una empresa, nunca generan ingresos", explicó.
"Los chatbots son un primer paso muy lógico para intentar quitar parte de la carga a los reclutadores".
Esa es parte de la razón de ser de Sense HQ, que proporciona a empresas como Sears, Dell y Sony chatbots de IA basados en mensajería de texto que ayudan a sus reclutadores a abrirse paso entre miles de candidatos.
La empresa afirma que ya la utilizaron unos 10 millones de solicitantes de empleo, y su cofundador, Alex Rosen, dijo a Forbes que esas cifras significan una reserva mucho mayor de candidatos viables.
"La razón por la que construimos un chatbot en primer lugar fue para ayudar a los reclutadores a hablar con una gama más amplia de candidatos de lo que podrían hacer por sí mismos", dijo, añadiendo la advertencia obligatoria: "No creemos que la IA deba tomar la decisión de contratación por sí sola. Ahí es donde se vuelve peligroso. No creemos que haya llegado todavía a ese punto".
RecruitBot pone la IA al servicio de la contratación utilizando el aprendizaje automático para cribar una base de datos de 600 millones de solicitantes de empleo extraídos de LinkedIn y otros mercados de trabajo, con el objetivo de ayudar a las empresas a encontrar candidatos similares a sus empleados actuales.
"Es como si Netflix te recomendara películas basándose en otras que te gustan", explica a Forbes Jeremy Schiff, CEO y fundador de la empresa. Pero acá también el sesgo es una preocupación obvia; contratar más de lo mismo tiene sus trampas.
En 2018, Amazon retiró su sistema de seguimiento de currículos basado en aprendizaje automático que discriminaba a las mujeres porque sus datos de entrenamiento estaban compuestos en su mayoría por currículos de hombres.
"Los chatbots son un primer paso muy lógico para intentar quitar parte de la carga a los reclutadores".
Matthew Scherer, asesor político principal del Centro para la Democracia y la Tecnología
Urmila Janardan, analista de políticas de Upturn, una organización sin ánimo de lucro que investiga el impacto de las tecnologías en las oportunidades de las personas, señaló que algunas empresas también recurrieron a los tests de personalidad para descartar candidatos, y que las preguntas para seleccionar a los candidatos pueden no estar relacionadas en absoluto con el puesto de trabajo.
"Incluso es posible que te rechacen por preguntas sobre gratitud y personalidad", afirma.
En el caso de Rick Gned, pintor y escritor a tiempo parcial, un test de personalidad formaba parte de la entrevista que le hizo un chatbot para un trabajo por horas en un supermercado australiano, Woolworths.
El chatbot, creado por la empresa de selección de personal Sapia AI (antes conocida como PredictiveHire), le pidió que respondiera a cinco preguntas de entre 50 y 150 palabras y, a continuación, analizó sus respuestas en busca de rasgos y aptitudes que coincidieran con las preferencias de los seleccionadores.
Concluyeron que Gned "lidia bien con el cambio" y está "más centrado en el panorama general, lo que le hace mirar por encima de los detalles", y lo hicieron pasar a la siguiente ronda de entrevistas.
Aunque Sapia AI no exige a los candidatos que respondan a las preguntas con un límite de tiempo, el sistema mide la estructura de las frases, la legibilidad y la complejidad de las palabras empleadas en las respuestas de texto, explica Barb Hyman, CEO y cofundadora de Sapia AI, en un correo electrónico.
Gned consideró que todo el asunto era deshumanizante y preocupante, según declaró a Forbes. "Pertenezco a un grupo demográfico en el que no me afecta, pero me preocupan las personas que pertenecen a minorías, que constituyen predominantemente el mercado laboral de menores ingresos".
Para un solicitante de empleo, que pidió el anonimato para hablar con libertad, chatear con un bot tuvo al menos un aspecto positivo.
Cuando rellena cientos de solicitudes de empleo, a menudo nunca recibe respuesta, pero el bot al menos le aseguraba que su solicitud había sido recibida. "Fue una inyección de moral en muchos sentidos", afirma. Pero si tuviera que hacer esto (enviar mensajes de texto con un chatbot) con cada trabajo al que me presentara, sería una verdadera molestia.
*Con información de Forbes US