McKinsey: ¿cómo abordar las limitaciones y riesgos éticos de la IA en la gestión de personal?

Si no se gestionan con rigor, los avances en IA pueden comprometer la equidad, la confianza y los derechos de los colaboradores.

La inteligencia artificial llegó para quedarse. Ya no es una novedad, ni sorprende que las áreas de Recursos Humanos se beneficien con la aplicación de sus modelos.

En ediciones anteriores hemos analizado cómo procesos como las evaluaciones de desempeño, la capacitación de personal y la selección de candidatos se han automatizado gracias a la IA.

¿Y la otra cara de la moneda? Hablemos de los desafíos éticos de la IA en RR. HH.: desde la privacidad y seguridad de los datos hasta los riesgos de discriminación en los algoritmos de entrenamiento.

Son retos que pueden comprometer la equidad, la confianza y los derechos del personal. Si no se abordan a tiempo, el discurso de transformación digital puede volverse un arma de doble filo.

Para analizar los riesgos y limitaciones éticos de la IA en el sector, Sectoriales GDP conversó con Carlos Zuzunaga, partner de McKinsey & Company en Lima, quien lidera procesos de transformación digital y comercial en empresas de toda Latinoamérica.

¿Cuáles son hoy las principales limitaciones técnicas de los sistemas de IA aplicados a decisiones de RR. HH.? ¿Podrías compartir un ejemplo donde la tecnología haya fallado?

Las principales limitaciones de la IA en RR. HH. son la calidad y representatividad de los datos, lo que afecta la explicabilidad de los modelos y su capacidad de adaptación a contextos cambiantes.

En la práctica, estos sistemas pueden reproducir sesgos históricos o generar correlaciones falsas. Un caso emblemático fue el algoritmo de reclutamiento de Amazon, que debió ser retirado tras detectarse sesgos en contra de las mujeres.

El sesgo de datos es un riesgo recurrente. ¿Cómo pueden las empresas detectar y corregir sesgos en modelos que evalúan o perfilan personas? ¿Qué métricas utilizan para validar la imparcialidad?

Se puede aplicar un marco de IA responsable que contemple la identificación de variables sensibles, auditorías de equidad y métricas como la paridad demográfica y la igualdad de oportunidades.

También es posible entrenar modelos con datos balanceados y aplicar restricciones de equidad, garantizando siempre una supervisión humana en la fase final del proceso.

¿Qué problemas de calidad y gobernanza de datos afectan más la confiabilidad de la IA en el área de talento? ¿Cómo deberían abordarlos las compañías antes de implementar un sistema?

Los principales problemas provienen de datos inconsistentes entre sistemas de RR. HH., definiciones poco precisas —como “potencial” o “desempeño”— y registros incompletos.

Se recomienda estandarizar definiciones, crear catálogos de datos, establecer controles de calidad (completitud, unicidad y estabilidad) y definir lineamientos y permisos claros.

Desde McKinsey proponemos un modelo operativo en el que datos, tecnología y negocio se alineen bajo roles con responsabilidades explícitas.

En procesos que afectan la carrera de una persona —como contrataciones, promociones o despidos—, ¿qué decisiones deben mantenerse bajo juicio humano y cuáles podrían automatizarse con seguridad? ¿Dónde se traza la línea?

Las decisiones que impactan directamente los derechos de las personas —promociones, despidos o sanciones— deben permanecer bajo juicio humano. En cambio, pueden automatizarse, con supervisión, etapas como el screening inicial, el matching de habilidades o la planificación de la fuerza laboral.

La línea se traza donde disminuye la explicabilidad o el impacto es crítico para la persona. Siempre debe existir un human-in-the-loop (intervención humana) y el derecho de apelación.

¿Qué prácticas recomiendan para recopilar, almacenar y usar datos personales y comportamentales de empleados sin vulnerar derechos ni generar desconfianza?

Se recomienda aplicar principios de finalidad específica, recolección mínima y consentimiento informado y revocable. Los datos deben cifrarse, anonimizarse y someterse a auditorías periódicas.

En Perú, la Ley 29733 y la Ley 31814 de IA establecen estándares de transparencia y supervisión. Cada caso de uso debe contar con una evaluación de impacto (DPIA) y un control de acceso por rol, bajo el enfoque de privacy by design.

¿Cómo evaluar el trade off entre la eficiencia y los riesgos éticos? ¿Qué KPI o umbrales recomendarías para detener o rediseñar un proyecto de IA en RR. HH.?

El balance se gestiona mediante un tablero que combine métricas de calidad —como precisión y recall por grupo—, equidad (brechas ≤ 20%), explicabilidad y riesgo reputacional (quejas o apelaciones).

Si se superan los umbrales de inequidad o se pierde trazabilidad, el proyecto debe detenerse o rediseñarse. Los comités de IAresponsable son clave antes de cualquier escalamiento.

Para una empresa que recién comienza a experimentar con IA en talento, ¿qué barreras implementarías en los primeros 6 a 12 meses para minimizar riesgos y mantener la confianza?

  • 0-3 meses: nombrar un Product Owner de IA–RR. HH., un Data Steward y un líder de IA responsable; crear un inventario de modelos y un comité trimestral de ética.
  • 3-6 meses: desarrollar un playbook de gestión de riesgos de modelos, elaborar model cards, realizar pruebas de sesgo y establecer un proceso formal de apelación.
  • 6-12 meses: implementar auditorías semestrales, monitoreo continuo de equidad y drift, además de sesiones de transparencia con líderes y colaboradores. Todo debe anclarse en las capacidades operativas propuestas en Rewired, la guía de McKinsey.
Comparte:
Recibe consejos y recursos gratuitos directamente en tu bandeja de entrada.

Últimos artículos

¡Obtén tu informe en un instante!

Déjanos tus datos y descarga nuestro informe al instante.

¡Obtén tu informe en un instante!

Déjanos tus datos y descarga nuestro informe al instante.

¡Obtén tu informe en un instante!

Déjanos tus datos y descarga nuestro informe al instante.

¡Obtén tu informe en un instante!

Déjanos tus datos y descarga nuestro informe al instante.