Los algoritmos guían la selección de personal en las empresas y eso puede ser un problema

(Por Elene Igoa Iraola, Universidad de Deusto y Fernando Díez Ruiz, Universidad de Deusto) “No soy un producto de mis circunstancias. Soy un producto de mis decisiones”. Los siete hábitos de las personas altamente efectivas (Stephen Covey).

Desde que abrimos los ojos para despertarnos hasta que se acaba el día estamos constantemente tomando decisiones. Muchas son inconscientes. No las pensamos, simplemente actuamos.

Nuestro cerebro no está dispuesto a gastar energía en cosas tan simples como una primera impresión de una persona o contexto. Por lo general, no pensamos o reflexionamos sobre estas decisiones que tomamos de manera rápida.

La realidad es que estas decisiones impulsivas pueden tener consecuencias negativas, como la discriminación en una entrevista de trabajo.

En psicología decimos que juzgar rápidamente a una persona por su apariencia es como juzgar un libro por su tapa. Es fácil hacerlo, pero puede ser fácil fallar. En los procesos de selección de personal puede estar sucediendo lo mismo, aunque sea un algoritmo el que tome las decisiones.

Tenemos que saber que no tomamos todas las decisiones de manera independiente. La gran mayoría están apoyadas en la tecnología. Esto es así por la economía de esfuerzo. Muchas veces para decisiones complejas hay que manejar un gran volumen de datos, y esto nos genera un gasto de energía importante. La confianza hacia estas tecnologías suele ser ciega: todo lo tecnológico nos da cierta sensación de veracidad.

Pero, ¿cómo es posible que un algoritmo esté sesgado?

El sesgo es una inclinación hacia una persona, cosa o grupo que produce un desequilibrio que perjudica a la otra parte. Estamos sesgados cuando no somos neutros ante una persona, grupo, situación, etc. Eso produce un error.

Estos errores, que se pueden dar en las interpretaciones de diferentes contextos, individuos o información, se pueden ver reflejados tanto en la toma de decisiones humanas como en la inteligencia artificial (IA). Al ser los humanos los que diseñan esta tecnología, es posible que estén reproduciendo datos sesgados o manipulados.

Introducción de la IA en los puestos de trabajo

El razonamiento más común para la introducción de nuevas tecnologías en nuestros trabajos suele ser la objetividad y la eficiencia. Se podría decir que, a nivel social, todo lo tecnológico nos da más seguridad. Ante una tarea compleja, tendemos a fiarnos más de los algoritmos que de nosotros mismos.

Así, el aumento de la utilización de la IA está siendo exponencial. Por ejemplo, en el área de los recursos humanos estas nuevas tecnologías se están aplicando en el reclutamiento y selección del personal, la evaluación del desempeño y desarrollo del personal. Estos recursos están ayudando a la automatización de diferentes tareas que se puede interpretar como eficiencia organizacional.

En el mercado actual tenemos herramientas digitales que nos ayudan a escoger al mejor candidato utilizando una búsqueda semántica automatizada basada en la información escrita por el candidato en su currículum. Pero también teniendo en cuenta el número de palabras técnicas que utiliza en la entrevista o en la conversación que puede llegar a mantener con un chatbot.

Ejemplos de la actuación de los sesgos en la IA

Existen plataformas de búsquedas de empleo que hacen uso de la IA para poder ofrecer un resultado objetivo a la hora de escoger al candidato idóneo para un puesto de trabajo específico.

La realidad es que la selección final que hacen estos algoritmos hacia los candidatos seleccionados está sesgada. Se ha visto que los algoritmos pueden generar discriminación étnica y de género para ofrecer, en el 85 % de los casos, puestos de trabajo de cajera de supermercado a mujeres, o puestos de taxista al 75 % de perfiles afroamericanos.

A su vez, los algoritmos pueden tener en cuenta las tendencias de búsqueda del reclutador y sus interacciones con perfiles específicos. Y, así, recomendar perfiles de empleados con características similares. En estos casos no es una sorpresa encontrarnos con perfiles muy similares a las características personales del reclutador. Por ejemplo, haber estudiado en la misma universidad, ser de la misma etnia, tener un estilo de vida similar, mismo aspecto físico y lugar de residencia.

La explicación se debe a que la IA aprende a tomar decisiones basándose en la reproducción de datos que se pueden apoyar en el aprendizaje de las decisiones humanas. Estas últimas puede que estén sesgadas y, en consecuencia, reflejar disparidades históricas o sociales. A su vez, eliminar algunas variables sensibles como el género, la etnia o la orientación sexual puede llevar a la reproducción de resultados sesgados.

No hay que tener fe ciega en la IA

Se están dando muchos avances en la inteligencia artificial. A raíz de la pandemia, los procesos de e-recruitment (reclutamiento por medios digitales) han experimentado cierto crecimiento apoyado en estas tecnologías.

Se han creado algoritmos que interpretan semánticamente el contenido escrito (carta de recomendación o currículum) o verbal (entrevista por plataformas digitales). Como resultado se ofrece un diagnóstico del candidato (perfil de personalidad, inteligencia) que es determinante para la toma de decisiones en el proceso de selección.

Sin embargo, hay que tener en cuenta que, como sucede en casi toda la tecnología, la parte vulnerable es la persona. Es decir, el algoritmo no falla, pero puede fallar la persona que lo programa. Esto se puede producir por un error humano, por falta de conocimiento psicológico, por influencias externas y por intereses de empresas.

La tecnología nos está ayudando en el campo de los recursos humanos, al igual que en otros como salud, marketing, automoción, sector jurídico y asegurador y banca. Su implementación ha crecido en los últimos años e irá a más.

¿Significa esto que no debemos dejarnos guiar por la inteligencia artificial? Podemos apoyarnos en ella, pero siempre con reservas. Debemos entender que un algoritmo no es un genio mágico y sabelotodo, sino que detrás tiene, como sucedía en El mago de Oz, a una persona imperfecta.

Elene Igoa Iraola, Investigadora Predoctoral, Universidad de Deusto y Fernando Díez Ruiz, Profesor doctor Facultad de Educación y Deporte, Universidad de Deusto

Este artículo fue publicado originalmente en The Conversation. Lea el original.

The Conversation

Tu opinión enriquece este artículo:

Dos marcas, una misión: Satisfyer y GESKE abren sus primeras tiendas insignia en España

Tras la apertura simultánea de tres tiendas monomarca en Berlín, Satisfyer y GESKE German Beauty Tech marcan el inicio de una nueva era del autocuidado en España. La primera tienda insignia abre hoy en Madrid (Fuencarral 54, 28004 Madrid), seguida de destacadas inauguraciones en Barcelona y Valencia. Estos lanzamientos representan la entrada oficial de ambas marcas en el mercado español, consolidando su ambiciosa estrategia de expansión global en el comercio minorista.

Ferrero Rocher reúne a los alcaldes de los 5 pueblos que pasan de fase en la 12ª edición de “Juntos Brillamos más” y muestra un ajustado ranking de votos

A pocos días de que se cierre el plazo de votación de la segunda fase, Ferrero ha logrado reunir hoy en un evento especial a los cinco alcaldes de las localidades finalistas de la iniciativa “Juntos Brillamos Más”. En un ambiente marcado por la complicidad y el espíritu colaborativo, los representantes de A Guarda (Pontevedra), Bullas (Murcia), Cudillero (Asturias), Fuente del Maestre (Badajoz) y Tejeda (Las Palmas) han defendido sus candidaturas con la ilusión de conseguir la esperada iluminación navideña de Ferrero Rocher.

El cine inspira a viajar: más de la mitad de los españoles elige destinos por películas o series

Más de la mitad de los españoles ha elegido en alguna ocasión un destino de vacaciones influenciado por una película o serie, según desvela un estudio realizado por HomeExchange la plataforma líder mundial de intercambio de casas. El 40% de los encuestados identifica las películas y series como su principal fuente de inspiración para viajar, por delante de agencias de viajes (16%) e influencers (11%).

LEVEL se hace Mayor: inicia una nueva etapa como aerolínea y empieza a operar con su propio código IATA “LL”

LEVEL inicia una nueva etapa como aerolínea. Desde esta semana, ha empezado a operar con su propio código IATA “LL”, un nuevo hito en la historia de la compañía que impulsará su crecimiento y consolidará su posición como una de las aerolíneas de referencia en el largo radio desde Barcelona. Con este logro, LEVEL, que nació en 2017 como una marca comercial operada por Iberia, culmina su proceso de autonomía operativa como una aerolínea más de International Airlines Group (IAG).

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de cookies.