IA en Reclutamiento: ¿reduce sesgos o puede amplificarlos?
reclutamiento

IA en Reclutamiento: ¿reduce sesgos o puede amplificarlos?

Álvaro Llovet25 de marzo de 2026

La inteligencia artificial ya está entrando a los procesos de reclutamiento y selección. Puede ayudar a hacerlos más ágiles, pero también puede reproducir o amplificar exclusiones si no se usa con criterios claros, supervisión humana y revisión constante. En este artículo exploramos qué significa usar IA en contratación, qué riesgos existen para empresas y equipos de RRHH, y qué prácticas permiten implementarla con más responsabilidad.

reclutamientoAIIntrare

La IA en reclutamiento: oportunidad y riesgo al mismo tiempo

La inteligencia artificial ya forma parte de varios procesos de reclutamiento. Hoy puede ayudar a filtrar postulaciones, redactar vacantes, clasificar perfiles, automatizar interacciones con candidatos e incluso apoyar evaluaciones previas a la entrevista. Organismos como la OIT y autoridades estadounidenses ya documentan que estas herramientas se están usando en distintas etapas de selección, desde el screening inicial hasta pruebas y entrevistas automatizadas.

En México, la conversación también ya empezó. Reportes retomados por Milenio y AMEDIRH muestran que cada vez más empresas están incorporando IA en procesos de contratación y que el tema empieza a discutirse desde recursos humanos no solo como innovación, sino como un asunto de eficiencia, transparencia y supervisión humana.

Pero aquí está el punto clave: que un proceso sea más automatizado no significa automáticamente que sea más justo. NIST advierte que la IA puede aumentar la velocidad y la escala de sesgos dañinos, y la OECD insiste en que el uso confiable de estas herramientas requiere supervisión humana, transparencia y respeto a derechos.

¿Qué significa usar IA en reclutamiento? 

Cuando hablamos de IA en reclutamiento no nos referimos a una sola herramienta, sino a varias aplicaciones dentro del proceso de contratación. Puede tratarse de sistemas que filtran CV o solicitudes, hacen matching entre vacantes y perfiles, operan chatbots para responder a candidatos, aplican pruebas automatizadas, analizan videoentrevistas o asignan rankings y scores para priorizar candidatos.
En teoría, esto ayuda a ahorrar tiempo, ordenar volúmenes altos de postulaciones y dar más consistencia al proceso. Pero la OIT señala que el verdadero problema no es solo la tecnología en sí, sino cómo se define su objetivo, con qué datos se entrena y bajo qué reglas opera. Si una herramienta está mal planteada desde el diseño, automatiza errores en vez de resolverlos.

¿La IA reduce sesgos o puede amplificarlos?

La respuesta honesta es que puede hacer ambas cosas.

Bien implementada, la IA puede ayudar a estandarizar ciertos filtros, quitar algo de subjetividad en etapas iniciales y ampliar la mirada hacia habilidades concretas. La OECD ha señalado que enfoques más orientados a habilidades pueden ampliar el pool de talento disponible, siempre que los instrumentos de evaluación estén bien diseñados y monitoreados. El World Economic Forum también identifica los diverse talent pools como una estrategia relevante para ampliar disponibilidad de talento.

Pero también puede pasar lo contrario. Si el sistema aprende de datos históricos sesgados, va a reproducir esos mismos patrones. NIST lo dice con claridad: la IA no solo puede perpetuar sesgos, también puede amplificarlos a mayor velocidad y escala.

El caso más conocido es el de Amazon. Reuters documentó cómo un sistema experimental de reclutamiento fue descartado después de que se detectara que penalizaba señales asociadas a mujeres, porque había sido entrenado con CV históricos en un entorno donde predominaban hombres. El problema no era que la IA “quisiera discriminar”, sino que aprendió del pasado y lo replicó.

Esto conecta con algo importante: la IA no llega a un proceso neutral. Llega a procesos ya atravesados por criterios, exclusiones, sesgos culturales y decisiones humanas. Por eso no basta con “usar tecnología”; hace falta preguntarse qué está aprendiendo esa tecnología y qué efectos produce.

¿Por qué le importa esto a RRHH y a las empresas?

Para RRHH, este tema no es solo técnico. Es estratégico.

Primero, porque afecta la calidad del talento que entra al pipeline. Si una herramienta filtra mal, una empresa puede estar descartando perfiles valiosos antes de que alguien los vea. SHRM reporta que entre los retos percibidos por organizaciones que usan automatización o IA está la exclusión accidental de candidatos calificados y la falta de transparencia sobre cómo decide la herramienta.

Segundo, porque también hay un riesgo reputacional y legal. La EEOC y el Departamento de Justicia de Estados Unidos han advertido que sistemas automatizados pueden generar discriminación, especialmente en temas de discapacidad, si no contemplan ajustes razonables o si excluyen personas por variables indirectas. Incluso si la herramienta la proporciona un tercero, la responsabilidad puede seguir recayendo en el empleador.

Tercero, porque hoy muchas empresas están tratando de ampliar su acceso a talento. Si la IA se usa sin cuidado, puede cerrar otra vez esa puerta que en teoría debería ayudar a abrir.

4 implicaciones prácticas para las empresas

1. Automatizar el filtro inicial puede automatizar sesgos previos

Si los datos históricos reflejan exclusiones o decisiones desbalanceadas, el sistema puede aprenderlas y repetirlas. La IA no corrige automáticamente un proceso sesgado; muchas veces lo replica con más velocidad.

2. La supervisión humana sigue siendo clave

La OECD y el marco europeo coinciden en que no se debería delegar toda la decisión a una herramienta automática. La revisión humana no es un lujo: es parte del uso responsable de IA en decisiones sensibles como contratación o descarte.

3. La transparencia del proveedor y del proceso importa

No basta con que una herramienta “funcione”. RRHH necesita saber qué evalúa, cómo prioriza perfiles, qué datos usa y qué límites tiene. SHRM ha reportado que muchas organizaciones ni siquiera perciben suficiente transparencia de sus proveedores en prevención de sesgo y discriminación.

4. La accesibilidad y la no discriminación deben estar dentro del diseño

Las autoridades estadounidenses han advertido que herramientas de evaluación o selección pueden excluir a personas con discapacidad u otras situaciones de vulnerabilidad (refugiados, jóvenes, madres solteras, comunidad LGBTQ+, etc), si no contemplan ajustes razonables o si su diseño parte de supuestos limitados sobre desempeño, comunicación o interacción.

¿Qué deberían hacer las empresas?

Antes de incorporar IA al reclutamiento, las empresas deberían preguntarse no solo si la herramienta ahorra tiempo, sino si está diseñada para tomar mejores decisiones.

Algunas acciones concretas serían:

  • Auditar herramientas antes de escalarlas, revisando objetivo, criterios, datos y contexto de uso;

  • Pedir trazabilidad y claridad al proveedor, especialmente sobre cómo funciona el modelo, qué variables usa y cómo se monitorea;

  • No dejar la decisión final al algoritmo, especialmente en procesos con alto impacto como contratación o descarte;

  • Monitorear resultados por grupos, para detectar si ciertos perfiles están siendo descartados de forma desproporcionada;

  • Garantizar accesibilidad y ajustes razonables, también cuando se usan herramientas de terceros.

En otras palabras: usar IA en reclutamiento no debería tratarse solo de automatizar, sino de gobernar bien esa automatización.

Cómo entra Intrare en esta conversación

En línea con esta conversación, en Intrare trabajamos en un punto donde inclusión laboral, acceso a oportunidades y decisiones de reclutamiento se cruzan todo el tiempo. Hablar de IA en contratación también implica hablar de criterios, de sesgos y de cómo se diseña un proceso para que sea más ágil y certero, pero sin perder el toque humano. 

Confiamos en que nuestra herramienta desarrollada con Inteligencia Artificial logrará conectar a personas con oportunidades reales de acuerdo a sus perfiles, pero no dejamos que la evaluación de un perfil, el resultado de una entrevista por Whatsapp o la recomendación de una terna dependan exclusivamente de un robot programado con código. Lo hacemos sin perder el acompañamiento personal y la transparencia. La asesoría para prepararse para una vacante, los cursos para lograr que accedan a más oportunidades (ejemplo: cómo realizar un buen CV, tips para buscar trabajo eficiente, etc), así como la revisión y validación de perfiles siempre son realizados con el mayor cuidado por un especialista que puede entender el contexto de cada persona y tomar decisiones de acuerdo a lo que considera que es mejor para ellos y para las empresas. En cuestión de transparencia, todas nuestras recomendaciones de candidatos contienen también una explicación clara de los criterios utilizados para apoyar al decisor a tener elementos claros al momento de elegir.

Conclusión 

La IA puede mejorar la eficiencia del reclutamiento, pero no garantiza justicia por sí sola. Sin criterios claros, supervisión humana y revisión constante, también puede amplificar sesgos que las empresas hoy ya no pueden darse el lujo de ignorar. Usarla bien no consiste solo en adoptar una herramienta, sino en construir un proceso de selección más transparente, más responsable y mejor diseñado.

Fuentes 

https://www.ada.gov/assets/pdfs/ai-guidance.pdf

https://www.justice.gov/archives/opa/pr/justice-department-and-eeoc-warn-against-disability-discrimination

https://data.aclum.org/storage/2025/01/EOCC_www_eeoc_gov_laws_guidance_americans-disabilities-act-and-use-software-algorithms-and-artificial-intelligence.pdf

https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf

https://nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270.pdf

https://www.oecd.org/en/publications/empowering-the-workforce-in-the-context-of-a-skills-first-approach_345b6528-en.html

https://www.oecd.org/en/topics/ai-principles.html

https://digital-strategy.ec.europa.eu/es/policies/regulatory-framework-ai

https://webapps.ilo.org/static/english/intserv/working-papers/wp154/index.html

https://www.shrm.org/content/dam/en/shrm/topics-tools/news/technology/SHRM-2022-Automation-AI-Research.pdf

https://www.shrm.org/about/press-room/fresh-shrm-research-explores-use-automation-ai-hr

https://www.amedirh.com.mx/rh40/recursos-humanos/si-a-la-ia-en-reclutamiento-pero-con-supervision-humana/

https://www.reuters.com/article/world/amazon-abandona-un-proyecto-de-ia-para-la-contratacin-por-su-sesgo-sexista-idUSKCN1MO0M4/

https://www.eeoc.gov/newsroom/itutorgroup-pay-365000-settle-eeoc-discriminatory-hiring-suit

https://www.weforum.org/publications/the-future-of-jobs-report-2025/digest/

Á

Álvaro Llovet

alvaro@intrare.mx

¿Listo para transformar tu proceso de reclutamiento?

Descubre cómo Intrare puede ayudarte a contratar mejor, más rápido y de forma más inclusiva

Town