Los algoritmos guían la selección de personal en las empresas y eso puede ser un problema

(Por Elene Igoa Iraola, Universidad de Deusto y Fernando Díez Ruiz, Universidad de Deusto) “No soy un producto de mis circunstancias. Soy un producto de mis decisiones”. Los siete hábitos de las personas altamente efectivas (Stephen Covey).

Desde que abrimos los ojos para despertarnos hasta que se acaba el día estamos constantemente tomando decisiones. Muchas son inconscientes. No las pensamos, simplemente actuamos.

Nuestro cerebro no está dispuesto a gastar energía en cosas tan simples como una primera impresión de una persona o contexto. Por lo general, no pensamos o reflexionamos sobre estas decisiones que tomamos de manera rápida.

La realidad es que estas decisiones impulsivas pueden tener consecuencias negativas, como la discriminación en una entrevista de trabajo.

En psicología decimos que juzgar rápidamente a una persona por su apariencia es como juzgar un libro por su tapa. Es fácil hacerlo, pero puede ser fácil fallar. En los procesos de selección de personal puede estar sucediendo lo mismo, aunque sea un algoritmo el que tome las decisiones.

Tenemos que saber que no tomamos todas las decisiones de manera independiente. La gran mayoría están apoyadas en la tecnología. Esto es así por la economía de esfuerzo. Muchas veces para decisiones complejas hay que manejar un gran volumen de datos, y esto nos genera un gasto de energía importante. La confianza hacia estas tecnologías suele ser ciega: todo lo tecnológico nos da cierta sensación de veracidad.

Pero, ¿cómo es posible que un algoritmo esté sesgado?

El sesgo es una inclinación hacia una persona, cosa o grupo que produce un desequilibrio que perjudica a la otra parte. Estamos sesgados cuando no somos neutros ante una persona, grupo, situación, etc. Eso produce un error.

Estos errores, que se pueden dar en las interpretaciones de diferentes contextos, individuos o información, se pueden ver reflejados tanto en la toma de decisiones humanas como en la inteligencia artificial (IA). Al ser los humanos los que diseñan esta tecnología, es posible que estén reproduciendo datos sesgados o manipulados.

Introducción de la IA en los puestos de trabajo

El razonamiento más común para la introducción de nuevas tecnologías en nuestros trabajos suele ser la objetividad y la eficiencia. Se podría decir que, a nivel social, todo lo tecnológico nos da más seguridad. Ante una tarea compleja, tendemos a fiarnos más de los algoritmos que de nosotros mismos.

Así, el aumento de la utilización de la IA está siendo exponencial. Por ejemplo, en el área de los recursos humanos estas nuevas tecnologías se están aplicando en el reclutamiento y selección del personal, la evaluación del desempeño y desarrollo del personal. Estos recursos están ayudando a la automatización de diferentes tareas que se puede interpretar como eficiencia organizacional.

En el mercado actual tenemos herramientas digitales que nos ayudan a escoger al mejor candidato utilizando una búsqueda semántica automatizada basada en la información escrita por el candidato en su currículum. Pero también teniendo en cuenta el número de palabras técnicas que utiliza en la entrevista o en la conversación que puede llegar a mantener con un chatbot.

Ejemplos de la actuación de los sesgos en la IA

Existen plataformas de búsquedas de empleo que hacen uso de la IA para poder ofrecer un resultado objetivo a la hora de escoger al candidato idóneo para un puesto de trabajo específico.

La realidad es que la selección final que hacen estos algoritmos hacia los candidatos seleccionados está sesgada. Se ha visto que los algoritmos pueden generar discriminación étnica y de género para ofrecer, en el 85 % de los casos, puestos de trabajo de cajera de supermercado a mujeres, o puestos de taxista al 75 % de perfiles afroamericanos.

A su vez, los algoritmos pueden tener en cuenta las tendencias de búsqueda del reclutador y sus interacciones con perfiles específicos. Y, así, recomendar perfiles de empleados con características similares. En estos casos no es una sorpresa encontrarnos con perfiles muy similares a las características personales del reclutador. Por ejemplo, haber estudiado en la misma universidad, ser de la misma etnia, tener un estilo de vida similar, mismo aspecto físico y lugar de residencia.

La explicación se debe a que la IA aprende a tomar decisiones basándose en la reproducción de datos que se pueden apoyar en el aprendizaje de las decisiones humanas. Estas últimas puede que estén sesgadas y, en consecuencia, reflejar disparidades históricas o sociales. A su vez, eliminar algunas variables sensibles como el género, la etnia o la orientación sexual puede llevar a la reproducción de resultados sesgados.

No hay que tener fe ciega en la IA

Se están dando muchos avances en la inteligencia artificial. A raíz de la pandemia, los procesos de e-recruitment (reclutamiento por medios digitales) han experimentado cierto crecimiento apoyado en estas tecnologías.

Se han creado algoritmos que interpretan semánticamente el contenido escrito (carta de recomendación o currículum) o verbal (entrevista por plataformas digitales). Como resultado se ofrece un diagnóstico del candidato (perfil de personalidad, inteligencia) que es determinante para la toma de decisiones en el proceso de selección.

Sin embargo, hay que tener en cuenta que, como sucede en casi toda la tecnología, la parte vulnerable es la persona. Es decir, el algoritmo no falla, pero puede fallar la persona que lo programa. Esto se puede producir por un error humano, por falta de conocimiento psicológico, por influencias externas y por intereses de empresas.

La tecnología nos está ayudando en el campo de los recursos humanos, al igual que en otros como salud, marketing, automoción, sector jurídico y asegurador y banca. Su implementación ha crecido en los últimos años e irá a más.

¿Significa esto que no debemos dejarnos guiar por la inteligencia artificial? Podemos apoyarnos en ella, pero siempre con reservas. Debemos entender que un algoritmo no es un genio mágico y sabelotodo, sino que detrás tiene, como sucedía en El mago de Oz, a una persona imperfecta.

Elene Igoa Iraola, Investigadora Predoctoral, Universidad de Deusto y Fernando Díez Ruiz, Profesor doctor Facultad de Educación y Deporte, Universidad de Deusto

Este artículo fue publicado originalmente en The Conversation. Lea el original.

The Conversation

Tu opinión enriquece este artículo:

Los españoles llegan al Black Friday más preparados que nunca: el 94% planifica sus compras

El Black Friday ya no se vive como una avalancha de compras impulsivas, sino como una búsqueda calculada del mejor precio. Aunque casi la mitad de los consumidores aún no sabe si comprará este año (48%), quienes sí tienen previsto participar (41%) llegan con la lección bien estudiada: cerca del 94% planifica sus adquisiciones con antelación, compara opciones y analiza precios antes de hacer el clic final. Klarna, el banco digital global y plataforma de pagos flexibles, radiografía en su último estudio el comportamiento del comprador español y confirma que la estrategia pesa más que el impulso.

La inversión tecnológica en España crecerá un 18% en 2025 hasta los 2.000 millones de dólares

España consolida su resiliencia y capacidad de crecimiento dentro del ecosistema tecnológico europeo. Según la undécima edición del informe State of European Tech, elaborado por la firma de capital riesgo Atomico, se espera que nuestro país alcance 2.000 millones de dólares en inversión tecnológica en 2025, frente a los 1.700 millones registrados el año anterior, lo que supone un incremento interanual del 18%. España ocupa así el séptimo puesto en Europa por volumen de inversión.

El 42% de las pymes españolas prioriza la seguridad a la hora de plantear su gestión financiera

La transformación digital avanza entre las pequeñas y medianas empresas españolas, pero la seguridad sigue siendo un eje central en sus decisiones financieras. Según el Estudio sobre tecnología y finanzas en las pymes españolas elaborado por Qonto, la confianza (48%), las comisiones (48%) y la seguridad en las operaciones financieras (42%) son los factores más valorados a la hora de elegir un banco, lo que refleja una creciente preocupación por la protección de sus operaciones en un entorno cada vez más digital. 

Cataluña presenta la nueva estrategia de inteligencia artificial del Gobierno en el AI Office de la UE

La Estrategia Cataluña IA 2030 , aprobada por el Gobierno de Cataluña hace una semana, ya ha llegado a manos del European AI Office, la máxima autoridad europea en materia de inteligencia artificial (IA). La ha presentado la secretaria de Políticas Digitales del Departamento de Empresa y Trabajo, Maria Galindo , que se ha reunido con Lucilla Sioli , la directora de este organismo responsable de la implementación de la política de IA en la UE, adscrito a la Dirección General CONNECT de la Comisión Europea.

Mango Home refuerza su presencia en el mercado nacional con su llegada a Madrid

Mango Home, la línea de hogar de Mango, refuerza su presencia en el sector del hogar con la inauguración mañana sábado de una tienda en Alcobendas, la cuarta a nivel mundial y la primera en la Comunidad de Madrid. Ubicada en el centro comercial Moraleja Green, el nuevo local cuenta con una superficie de venta de 255 m² y un equipo de más de 10 personas, y está concebido como un auténtico hogar donde los clientes pueden descubrir propuestas para todas las estancias y disfrutar de una experiencia de compra cálida e inspiradora.

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de cookies.