La inteligencia artificial en la selección de personal
El uso de Inteligencia Artificial (IA) en la selección de personal se ha convertido en una tendencia creciente en el ámbito de los recursos humanos. Desde sistemas que analizan currículos hasta algoritmos que puntúan entrevistas automatizadas, estas herramientas prometen agilidad y eficiencia. Sin embargo, su implementación plantea riesgos legales, especialmente relacionados con la discriminación algorítmica, el cumplimiento del RGPD y la transparencia en los procesos de contratación.
En este artículo exploramos la regulación aplicable al uso de IA en RRHH, los principales riesgos que conlleva y las buenas prácticas para garantizar un proceso de selección legal, ético y respetuoso con la privacidad de los candidatos.
Marco legal: ¿qué normas regulan la IA en procesos de selección?
Reglamento General de Protección de Datos (RGPD)
El RGPD regula la protección de datos en procesos de contratación digital. En particular, prohíbe decisiones automatizadas con efectos significativos (como contratar o no a una persona) sin una intervención humana significativa. Por tanto:
- Las empresas deben informar al candidato de que está siendo evaluado por un sistema automatizado.
- Deben explicar la lógica del algoritmo, su finalidad y las consecuencias previstas.
- El candidato tiene derecho a solicitar una evaluación humana alternativa.
El Reglamento Europeo de Inteligencia Artificial (AI Act)
Este reglamento, ya aprobado y en vigor algunos de sus artículos desde febrero de este año, cataloga los sistemas de IA en recursos humanos como «alto riesgo». Por ello, impone obligaciones tanto a proveedores como a desplegadores del sistema como:
- Mecanismos para minimizar sesgos.
- Documentación clara y trazabilidad de las decisiones.
- Intervención humana
Riesgos legales en el uso de algoritmos en recursos humanos
1. Discriminación algorítmica
Los algoritmos pueden perpetuar sesgos existentes si se entrenan con datos históricos discriminatorios. Por ejemplo, si un sistema ha aprendido que se contrataban más hombres que mujeres en ciertas posiciones, puede reproducir ese sesgo. Esto podría vulnerar la igualdad de oportunidades y dar lugar a reclamaciones legales por discriminación.
2. Falta de transparencia
Muchos sistemas de IA operan como «cajas negras», lo que dificulta explicar por qué se eligió o descartó a un candidato. Esto choca con el principio de transparencia exigido por el RGPD y el Reglamento de Inteligencia Artificial.
3. Responsabilidad legal
En caso de errores, sesgos o filtración de datos, la empresa usuaria del sistema puede ser responsable, aunque no haya desarrollado el sistema o modelo de IA. Es fundamental contar con mecanismos de evaluación ética de la inteligencia artificial y con un asesoramiento legal adecuado.
Buenas prácticas para el uso legal y ético de la IA en selección
- Realizar una auditoría del sistema antes de su implementación.
- Garantizar la supervisión humana en todas las decisiones relevantes.
- Formar a los responsables de RRHH en el uso de IA y en legislación de protección de datos.
- Documentar los criterios de selección y conservar registros de las decisiones.
Conclusión
El uso de IA en la selección de personal ofrece ventajas, pero implica también riesgos que deben ser gestionados desde el punto de vista legal, ético y organizativo. El cumplimiento del RGPD, la prevención del sesgo de automatización, expresamente previsto en el Reglamento de Ia y la garantía de transparencia son claves para implementar estas tecnologías de forma responsable.
En DiG Abogados, contamos con un equipo experto en protección de datos, derecho laboral y regulación de IA en RRHH. Si tu empresa está adoptando soluciones de inteligencia artificial en sus procesos de contratación, podemos ayudarte a garantizar su legalidad y ética.
Preguntas frecuentes
¿Puedo utilizar un sistema automatizado para filtrar CVs?
Sí, pero debes informar al candidato, permitir revisión humana y, en su caso, evitar que la decisión final sea exclusivamente automatizada.
¿Cuáles son los principales riesgos legales del uso de IA en contratación?
Discriminación, falta de transparencia y vulneración de la protección de datos, además de posibles responsabilidades legales.
¿Qué dice el RGPD sobre la toma de decisiones automatizadas?
Que solo pueden llevarse a cabo, si tienen efectos jurídicos o afectan significativamente a la persona, si se dan algunas de las excepciones como el consentimiento, la necesidad para la ejecución de un contrato o la previsión legal.
¿Está regulada la IA en selección de personal en Europa?
Sí, mediante el RGPD y el Reglamento de Inteligencia Artificial, que considera de alto riesgo estos sistemas.
¿Cómo puedo asegurarme de cumplir la ley al usar IA en RRHH?
Contando con asesoramiento legal, realizando auditorías, informando a los candidatos y supervisando las decisiones del sistema.