La IA irrumpe en la gestión del capital humano

La Voz

ACTUALIDAD

ia.Una clase sobre IA en la UDC
Una clase sobre IA en la UDC CESAR QUIAN

La tecnología entra en los procesos de contratación y selección de personal, aunque existe el riesgo de infringir la normativa europea que vela por la privacidad de los candidatos

11 may 2024 . Actualizado a las 17:43 h.

La Inteligencia Artificial (IA) se expande a velocidad de vértigo, convirtiéndose a marchas forzadas en la principal protagonista de la última revolución tecnológica. Que no hay sectores económicos ajenos a ella lo demuestra que incluso ha irrumpido en la gestión del capital humano, especialmente en los procesos de selección, tanto para escanear currículos y analizarlos, como para cribar bases de datos y encontrar a los candidatos idóneos que se ajusten a ciertas características. Según un estudio de Infojobs, el pasado año solamente un 5 % de las empresas españolas utilizaban la IA en sus procesos de selección, aunque esa cifra ha aumentado hasta el 15 %, tal y como quedó remarcado en una encuesta realizada por Randstad Research

Sobre este crecimiento se posiciona Marcelo dos Reis, director general del Grupo SPEC, empresa que desarrolladora de software: «La previsión es que la IA se extienda más y se vaya convirtiendo en un recurso más común entre las compañías». Eso sí, apunta a que hay que velar por ciertas cuestiones para no caer en irregularidades, ya que «hay que tener en cuenta los riesgos que puede comportar esta tecnología, especialmente cuando se trata de los procesos de retención de talento, búsqueda y selección de personal». 

Entre las amenazas a las que se refiere, destaca que ciertas aplicaciones de IA pueden atentar contra la intimidad de los candidatos, así como discriminarlos por razones de sexo o género, o incumplir las leyes de protección de datos. Es por ello que la Comisión Europea movió ficha a finales del 2023 para fijar una normativa que tiene como epicentro la propuesta presentada en el Parlamento Europeo y en el Consejo Europeo en el 2021. El objetivo, tal y como resume Dos Reis, es el de «garantizar que los sistemas de IA usados en la UE sean seguros y respeten los derechos de los ciudadanos».

En esa documentación se clasifican las prácticas de riesgo en tres categorías. La primera, inadmisibles, que corresponde con aquellas que utilizan sistemas de IA que violan derechos fundamentales, como algunas de reconocimiento de voz o análisis de lenguaje corporal. En segunda posición se encuentran las prácticas de alto riesgo, que corresponden con aquellas que pueden caer en sesgos discriminatorios. En último lugar aparecen las de riesgo limitado, que podrían ser aquellas que se usen chatbots para realizar el primer contacto con los candidatos a modo de evaluación, y sin haber avisado antes al pretendiente.

«La realización de estas prácticas durante los procesos de selección de personal pueden acarrear consecuencias económicas elevadas», apunta Dos Reis, ya que las multas del futuro Reglamento de Inteligencia Artificial se han fijado en base a un porcentaje del volumen de negocios anual de la empresa o un importe determinado. Serían los siguientes: 35 millones de euros o el 7% del volumen de negocios anual por aplicar IA prohibidas; 15 millones de euros o el 3% por incumplir las obligaciones del reglamento; o 7,5 millones o el 1,5% por presentar información inexacta.

Aunque estas cifras se ajustarán en el caso de las pymes y de las empresas emergentes, Dos Reis informa de que «la normativa empezará a aplicarse en 2026 según los plazos europarlamentarios, pero es importante que las compañías empiecen ya a tomar conciencia de los riesgos que pueden comportar sus prácticas durante la captación de talento». Por esta razón, desde su grupo recomiendan siempre apostar por herramientas innovadoras e inteligentes, pero sobre todo, que velen por la protección de los datos personales, la intimidad y la no discriminación de los trabajadores. Usar la IA sin conocimiento, además de peligroso, podrá acarrear multas. Y, en ciertos casos, multimillonarias.