El CEO de OpenAI, Sam Altman, pidió a Scarlett Johansson que fuera la voz detrás de ChatGPT-4. Al ella negarse, se fabricó algo casi idéntico a su voz, lo que provocó la indignación de los medios de comunicación por el descarado robo de identidad y el parecido con la actriz, además del presagio de una tecnología cuyo crecimiento desenfrenado parece importar más que crecer de la forma correcta.
Pero la razón por la que quería su voz puede ser tan problemática como los medios que utilizó para conseguirla: crear un producto cuya voz fuera más reconfortante para sus usuarios.
Una voz reconfortante suena atractiva en un momento en el que el trabajo atraviesa una etapa oscura. El engagement de los empleados se encuentra en su nivel más bajo en 11 años, siendo los trabajadores más jóvenes los más afectados. Los trabajadores estadounidenses de todos los niveles están desconectados y se sienten solos, independientemente de si trabajan en persona o a distancia.
La IA es muy prometedora para aliviar las cargas diarias del trabajo, aprovechando una amplia gama de datos con notable eficacia. Sin embargo, las empresas se apresuran a adoptarla, y la velocidad rara vez engendra una toma de decisiones meditada.
Con su voz tranquilizadora y su engagement similar al humano, los líderes pueden verse tentados a utilizarla para sustituir funciones de forma que altere significativamente la cultura y el bienestar en el lugar de trabajo. Las decisiones que tomen en este momento aliviarán o exacerbarán la creciente desafección de un personal estresado y, en última instancia, su propio futuro.
Cómo aprovechan los lugares de trabajo una herramienta que suena y se siente humana es, en última instancia, una cuestión ética. La investigación nos dice que una IA más antropomórfica aumenta la probabilidad de aceptación por parte del consumidor. Y desde luego aumenta la probabilidad de confusión.
Con su habilidad lingüística y un tono tranquilizador, la IA puede parecer una herramienta conveniente para cosas que los humanos evitan de forma natural, como los encuentros interpersonales que provocan conflicto o incomodidad.
Sin embargo, cuando se trata de interacciones humanas basadas en la confianza, nuestro propio futuro pende de un hilo. Hay una razón por la que se le llama inteligencia “artificial”. Hay algunas cosas que simplemente no se pueden fingir o sustituir con máquinas humanoides.
Tres lugares/áreas críticas que los empresarios deben conservar en manos de los humanos no delegar en IA, por muy tentadora que resulte:
Los empleados quieren ser “vistos” por los colegas de carbono, no por los de silicio
Dar retroalimentación significativa y revisar el trabajo de los empleados puede ser una de las partes más estresantes del trabajo de un líder. Incluso ante necesidades claras de desarrollo, los jefes de equipo se contienen, muchas veces, por miedo a dañar las relaciones laborales y perder a empleados valiosos.
Muchas organizaciones están recurriendo a la IA generativa para que las ayude a desarrollar y ofrecer revisiones y comentarios a los empleados, aparentemente para impulsar resultados objetivos, claramente comunicados y basados en datos.
Pero las bases de datos en las que se basa carecen, con frecuencia, de la flexibilidad necesaria para tener en cuenta circunstancias especiales u honrar las contribuciones sobresalientes o innovadoras, midiendo forzosamente a los trabajadores con respecto al statu quo. Además, muchos empleados recelan de ser medidos por un algoritmo, percibiendo la orientación humana activa como el ingrediente crítico de un proceso justo y personalizado.
Fuera del ciclo de revisión del rendimiento, muchas empresas confían en la tecnología para reconocer a los trabajadores, utilizando aplicaciones y software de reconocimiento de empleados para elevar la moral de los empleados.
Estas plataformas ofrecen puntos virtuales por un trabajo bien hecho, muchas veces canjeables por plata u otros beneficios. Pero tienen un costo. Los investigadores cuestionan su valor porque pueden amplificar las expectativas tradicionales o predeterminadas sobre el éxito, apoyando a algunos trabajadores mientras pasan por alto a otros. En última instancia, pierden el norte.
Para elevar eficazmente la moral se requiere intención y esfuerzo humanos, no sólo una marca digital en una casilla. Para sentirse valioso, el reconocimiento debe tener rostro. Los empleados quieren ser vistos por ojos humanos. Quieren que sus colegas se tomen el tiempo de notar y celebrar sus contribuciones.
No hay sustituto para la empatía humana
Resulta que la IA es realmente buena en el apoyo emocional. Tan buena, de hecho, que los destinatarios de un servicio de apoyo emocional generado por IA lo calificaron de superior a las respuestas humanas. Hasta que descubrieron que se trataba de IA.
Aunque la IA puede generar respuestas que hacen que la gente se sienta escuchada, las personas con problemas humanos anhelan el apoyo humano, no el de una máquina tranquilizadora.
La combinación de humanos e IA, sin embargo, resulta ser el tónico más poderoso. Recurriendo a un vasto acervo de datos, los humanos apoyados por la IA en contextos de asesoramiento entre iguales proporcionan un 20% más de respuestas empáticas que los humanos solos. Un poderoso ejemplo del ingenio de ambos.
Esta asociación entre humanos e IA en contextos emocionales tiene implicaciones fructíferas en el lugar de trabajo. La empatía es un comportamiento complejo y de múltiples capas.
En situaciones difíciles, la IA puede sobresalir en empatía cognitiva, pero no puede generar la respuesta humana necesaria para la empatía emocional o incluso visceral.
Las empresas que delegan las líneas de ayuda al control de la IA, corren el riesgo de enfadar a sus trabajadores, destruir su confianza y perjudicar las posibilidades de una resolución útil.
Pero utilizar la IA como entrenador, ayudando a las personas a escuchar con más atención y empatía las señales importantes, demostró que mejora el apoyo a los empleados, así como la contratación, la retención y el servicio al cliente.
Si gestionás a las personas con máquinas, actuarán como máquinas
Cuando mis hijos estaban en la escuela primaria, ganaban méritos por sus buenas acciones y deméritos por sus transgresiones. Al principio, eran cuidadosos con sus acciones, deseosos de agradar y atentos a evitar comportamientos no deseados. Pero a los pocos deméritos, dejaban de preocuparse.
Las investigaciones revelan sentimientos casi idénticos en las empresas que utilizan la IA para gestionar a sus empleados. La gestión algorítmica utiliza la recopilación de datos y la vigilancia para alimentar decisiones total o parcialmente automatizadas.
Muy extendida en los sectores minorista y de servicios, la gestión mediante IA reduce significativamente el apoyo interpersonal (la ciencia lo llama motivación prosocial), un motor fundamental de la productividad, la colaboración y el bienestar en el lugar de trabajo. Esta reducción es más pronunciada cuando los algoritmos supervisan y evalúan el rendimiento de los empleados.
El coste es elevado. Los grupos gestionados por IA dieron un 20% menos de consejos a sus compañeros que los grupos gestionados por humanos, y los consejos fueron de peor calidad.
Además, los trabajadores gestionados por IA se sintieron más cosificados porque sus empleadores priorizaron las capacidades no humanas sobre las humanas. Ellos, a su vez, cosificaron a sus compañeros.
El daño resultante podría reducirse, pero sólo en entornos laborales que dieran prioridad a la interacción social, en los que los trabajadores tuvieran tiempo para establecer relaciones de apoyo mutuo.
Aunque la gestión algorítmica tiene cabida en determinadas funciones empresariales de gran volumen, debe equilibrarse con la implicación humana y la conexión social. Las personas se necesitan mutuamente para aportar lo mejor de sí mismas al trabajo. El mensaje es claro: si gestiona a las personas con máquinas, actuarán como máquinas.
Los empresarios se apresuran a desplegar el poder de la IA para impulsar la productividad y reducir la monotonía. A medida que adquiere un comportamiento y una voz más parecidos a los humanos, los dirigentes deben sopesar cuidadosamente el valor de aprovechar la IA frente a sus costos humanos.
Estas decisiones éticas siguen siendo competencia exclusiva de los humanos. Sólo porque la IA pueda hacer algo no significa que deba hacerlo. Cuando se trata del delicado trabajo de gestionar y apoyar a las personas, el punto fuerte de la IA es su capacidad para apoyar la eficacia humana, agilizar los procesos, recopilar datos y liberar a los humanos para que se traten con respeto y dignidad, sin engaños.
Sencillamente, no se puede fingir la humanidad. No hay aplicación para eso.