domingo. 05.05.2024
El 15% de las empresas hace uso de la IA para procesos de selección: ¿qué riesgos tiene?
El 15% de las empresas hace uso de la IA para procesos de selección: ¿qué riesgos tiene?

La IA está impactando cada vez más fuerte en los recursos humanos y más concretamente, en los procesos de selección. Desde filtrar bases de datos según ciertas características hasta escanear currículums y analizarlos, el número de empresas que se apoyan en las aplicaciones de este recurso es cada vez mayor. Un estudio de Infojobs revelaba el año pasado que solamente el 5% de las empresas españolas aplicaban la IA en los procesos de selección. Sin embargo, esta cifra ha aumentado hasta el 15%, según los resultados de una encuesta de Randstad Research. En relación a este crecimiento, Marcelo dos Reis, CEO del Grupo SPEC, empresa líder en el desarrollo de soluciones de gestión horaria y acceso, explica que “la previsión es que la IA se extienda más y se vaya convirtiendo en un recurso más común entre las compañías. Sin embargo, hay que tener en cuenta los riesgos que puede comportar esta tecnología, especialmente cuando se trata de los procesos de retención de talento, búsqueda y selección de personal”.

Entre las amenazas que presenta la IA están las que atentan contra la intimidad de los candidatos, los discriminan por razones de sexo o género o no cumplen con la protección de sus datos personales. Ante la posibilidad de que se den estos casos, en diciembre de 2023 la Comisión Europea llegó a un acuerdo para fijar una normativa que tendría como base la propuesta del Parlamento Europeo y del Consejo de 2021. El objetivo de esta propuesta, según apunta Dos Reis, es “garantizar que los sistemas de IA usados en la UE sean seguros y respeten los derechos de los ciudadanos/as”. Para ello, han clasificado las prácticas de riesgo en tres categorías: inadmisibles -sistemas de IA que violan los derechos fundamentales, como los sistemas de reconocimiento de voz o análisis del lenguaje corporal para realizar entrevistas-, las prácticas de alto riesgo -sistemas de IA destinados para la contratación o selección de personas físicas que puedan conllevar sesgos discriminatorios- y las prácticas de riesgo limitado - como usar chatbots como primer contacto con los candidatos a modo de evaluación y sin avisar-.

¿CUÁLES SERÁN LAS SANCIONES?

“La realización de estas prácticas durante los procesos de selección de personal pueden acarrear consecuencias económicas elevadas”, apunta Dos Reis. Las multas por infracciones del Reglamento de Inteligencia Artificial se han fijado como un porcentaje del volumen de negocios anual de la empresa o un importe determinado y se clasifican de la siguiente forma: 

  • 35 M€ o el 7% del volumen de negocios anual por aplicar IA prohibidas.
  • 15 M€ o el 3%, por incumplir las obligaciones del reglamento.
  • 7,5 M€ o el 1,5% por presentar información inexacta.

Cabe destacar que estas cifras se ajustarán en el caso de las pymes y de las empresas emergentes. Marcelo dos Reis informa de que “la normativa empezará a aplicarse en 2026 según los plazos europarlamentarios, pero es importante que las compañías empiecen ya a tomar conciencia de los riesgos que pueden comportar sus prácticas durante la captación de talento”. Por esta razón, Grupo SPEC recomienda siempre apostar por herramientas innovadoras e inteligentes, pero sobre todo, que velen por la protección de los datos personales, la intimidad y la no discriminación de los trabajadores.

El 15% de las empresas hace uso de la IA para procesos de selección: ¿qué riesgos tiene?