Growth

Regulación de IA en RRHH: guía por país para España y LATAM (2026)

9 abr 2026

escrito por:

Equipo Próximo

Imagina que llevas dos años usando un ATS que puntúa automáticamente los currículums de los candidatos. El sistema descarta perfiles en función del historial de búsqueda de empleo, el tiempo que tardan en rellenar el formulario, o los patrones detectados en su vídeo de entrevista.

La empresa no sabe exactamente cómo funciona el algoritmo. El proveedor no lo explica con claridad en su documentación. Y los candidatos, por supuesto, desconocen que ese proceso automatizado los está evaluando.

¿Qué ocurre si ese sistema ya es ilegal en tu país?

No es una pregunta hipotética. En España, desde febrero de 2025, determinadas funcionalidades de este tipo de herramientas están sujetas a obligaciones concretas bajo el EU AI Act. En Chile, Colombia, Perú, México y Argentina, la regulación avanza a distintas velocidades. El panorama cambia más rápido de lo que la mayoría de los equipos de Recursos Humanos está siguiendo.

Esta guía explica el estado actual de la regulación de IA en RRHH país por país, qué sistemas están clasificados como de alto riesgo, y qué puede hacer el área de People para estar preparada.

 

 

La pregunta que los equipos de RRHH todavía no se están haciendo

El debate sobre IA en Recursos Humanos lleva años girando en torno a lo mismo: eficiencia, automatización, reducción de tiempo en el screening. Son conversaciones válidas. Pero hay una pregunta más urgente que muy pocos equipos se están planteando:

¿Qué hace exactamente el software de selección bajo el capó?

No el folleto de ventas del proveedor. La pregunta real es si la empresa tiene documentación técnica sobre cómo el algoritmo toma decisiones. Si puede explicarle a un candidato por qué fue descartado. Si existe supervisión humana real antes de que el sistema excluya a alguien del proceso.

Eso, dependiendo del país donde opera la empresa, ya no es una buena práctica opcional. En varios mercados, es una obligación legal con sanciones reales.

 

 

Mapa regulatorio por país: qué aplica y cuándo

El estado de la regulación de IA en RRHH varía significativamente según el mercado. Esta tabla resume la situación a abril de 2026:

 

 

País

Estado regulatorio

Plazo clave

Qué hacer ahora

España

EU AI Act en vigor (fases)

Agosto 2026: núcleo duro sistemas alto riesgo

Auditar software de selección, documentar procesos

Chile

Ley aprobada en Cámara, pendiente en Senado

Sin fecha definitiva

Revisar proveedores, preparar política interna

Colombia

Proyecto radicado en Senado

Pendiente de aprobación

Monitorear avances, construir gobernanza

Perú

Decreto vigente desde enero 2026

Ya en vigor

Verificar cumplimiento del marco vigente

México

Propuesta presentada, sin ley aprobada

Sin plazo

Gestión de riesgo reputacional y de sesgos

Argentina

Proyecto en Senado

Sin plazo

Sin obligación inmediata, prepararse

 

 

España: el reloj ya está corriendo

Para las empresas españolas, el EU AI Act no es algo que viene. Ya está vigente.

Desde febrero de 2025 están en vigor las prohibiciones del reglamento. Entre ellas, el reconocimiento de emociones en contextos laborales sin justificación objetiva y demostrable. Si el software de entrevistas en vídeo que utiliza la empresa analiza microexpresiones o genera puntuaciones de "nivel de confianza" o "idoneidad emocional", puede estar en zona prohibida.

Desde agosto de 2025, los chatbots de reclutamiento con scoring automático deben cumplir obligaciones de transparencia. Los candidatos tienen que saber que están interactuando con un sistema de inteligencia artificial.

En agosto de 2026 entra el núcleo duro para sistemas clasificados como de alto riesgo. Las obligaciones incluyen documentación técnica obligatoria, supervisión humana real y documentada, auditorías periódicas, y registro en la base de datos europea de sistemas de IA de alto riesgo.

El EU AI Act clasifica directamente como sistemas de alto riesgo en el ámbito laboral los siguientes:

  • ATS que filtran o rankean candidatos de forma automatizada

  • Sistemas de análisis de vídeos de entrevistas

  • Chatbots de reclutamiento con puntuación automática

  • Herramientas de evaluación de pruebas con decisión automática

  • Sistemas que recomiendan contrataciones o promociones sin supervisión humana suficiente

AESIA, la Agencia Española de Supervisión de la IA, activa desde 2023 con sede en A Coruña, publicó 16 guías de cumplimiento en diciembre de 2025. Están disponibles en su web. Son el documento de referencia que cualquier Director de RRHH en España debería conocer antes de agosto de 2026.

 

 

Chile: el primero de LATAM en regular IA en RRHH de forma explícita

El 13 de octubre de 2025, Chile aprobó su ley de IA en la Cámara de Diputados. Si el Senado la ratifica, Chile se convierte en el primer país de América Latina con una ley específica de inteligencia artificial.

La relevancia para Recursos Humanos es directa: el reclutamiento está explícitamente clasificado como proceso de alto riesgo en el texto aprobado. Las obligaciones propuestas incluyen:

  • Transparencia hacia los candidatos sobre el uso de IA en el proceso de selección

  • Trazabilidad del proceso automatizado

  • Control de sesgos documentado

  • Supervisión humana obligatoria en decisiones de contratación

Las sanciones previstas van de 5.000 a 20.000 UTM, lo que representa entre 400.000 y 1.600.000 euros aproximadamente al cambio actual.

Para los equipos de People en Chile, la recomendación es clara: no esperar a la aprobación definitiva para prepararse. La ley que llegue al Senado tendrá el mismo marco conceptual que la ya aprobada en Cámara. El tiempo de preparación es ahora.

 

 

Colombia: una ley que nombra directamente los procesos de HR

El 28 de julio de 2025, MinCiencias radicó en el Senado colombiano un proyecto de ley que regula explícitamente el uso de algoritmos para selección de personal y evaluación de desempeño.

Este matiz es importante: no es una ley genérica sobre IA. Es un proyecto que nombra de forma específica los procesos de Recursos Humanos.

El contexto explica por qué: el 56% de las empresas colombianas ya usan IA generativa, el 58% automatiza partes del onboarding, y el 42% aplica IA para optimizar la experiencia del candidato, según datos del ecosistema de transformación digital colombiano. La regulación llega porque la adopción ya ocurrió, no como medida anticipatoria.

La recomendación para equipos de People en Colombia es construir gobernanza interna ahora, sin esperar la aprobación del proyecto. El inventario de herramientas, las políticas de uso de IA, y la documentación de procesos son trabajo que hay que hacer independientemente del estado legislativo.

 

 

Perú: marco vigente desde enero de 2026

El 9 de septiembre de 2025, Perú publicó el Decreto Supremo 115-2025-PCM, reglamento de la Ley 31814. Entró en vigor el 22 de enero de 2026.

Perú es técnicamente el único país de LATAM con un marco regulatorio de IA ya vigente. Un matiz importante: la Ley 31814 es una ley de promoción y desarrollo de la IA, no una ley restrictiva del estilo del EU AI Act. Las obligaciones son menos exigentes. Pero establece principios y crea el marco institucional sobre el que vendrán regulaciones más específicas.

Para los equipos de RRHH en Perú, el primer paso es conocer este marco existente. Las regulaciones más específicas sobre uso de IA en procesos de selección y evaluación llegarán construidas sobre esta base.

 

 

México: sin ley aprobada, pero con riesgo real

En abril de 2025 se presentó en México la Ley Federal para el Desarrollo Ético de la IA, con un sistema semáforo de riesgo y una cláusula obligatoria sobre uso de IA en contratos laborales. A la fecha de este artículo, no está aprobada.

Sin embargo, el 56% de las empresas mexicanas ya usa IA en sus operaciones.

¿Cuál es el riesgo hoy en México sin ley aprobada? No es regulatorio por el momento. Es de dos tipos distintos:

Riesgo reputacional: si se hace pública la información de que un sistema descartó candidatos con base en criterios opacos o sesgados, el daño sobre la marca empleadora puede ser severo y duradero. La conversación sobre sesgos algorítmicos en selección ya existe en medios y redes sociales mexicanas.

Riesgo de sesgos acumulados: sin un marco que obligue a auditar, los sesgos del modelo se acumulan sin control. Los candidatos afectados no tienen mecanismo formal de reclamación, pero las historias se cuentan en redes sociales y comunidades profesionales.

Prepararse ahora tiene coste cero comparado con gestionar un escándalo reputacional después.

 

 

Argentina: ventana de preparación antes de la ley

El 5 de marzo de 2025 se presentó el proyecto S-0071/2025 en el Senado argentino. Propone un Registro Nacional de Sistemas de IA con cuatro niveles de riesgo. Sin fecha de aprobación a la vista.

Para los equipos de RRHH en Argentina, la situación es similar a México: no hay obligación inmediata, pero sí una ventana de preparación que conviene aprovechar. Construir gobernanza antes de que la ley llegue es más eficiente que adaptar procesos con presión regulatoria encima.

 

 

Los tres sistemas de RRHH que probablemente ya usas y son de alto riesgo

Más allá del marco regulatorio por país, hay tres categorías de herramientas que en España están explícitamente en la categoría de alto riesgo, y que en el resto de LATAM caerán en esa categoría cuando se aprueben sus respectivas leyes.

 

 

1. ATS con scoring automático

Workday, SAP SuccessFactors, Greenhouse, Lever, BambooHR. Todos tienen, en mayor o menor medida, funcionalidades de IA que rankean candidatos. La pregunta no es si las usan. La pregunta es: ¿puede el equipo de RRHH explicar cómo el sistema llegó a ese ranking? ¿Hay documentación técnica? ¿Un profesional revisa antes de la decisión final de descarte?

 

 

2. Plataformas de entrevistas en vídeo con análisis automático

HireVue, Spark Hire, Harver, myInterview. Si la plataforma analiza tono de voz, expresiones faciales, ritmo de habla o vocabulario para generar una puntuación, está en zona de alto riesgo. En España, el análisis de emociones en contexto laboral sin justificación objetiva está en la lista de prácticas prohibidas desde febrero de 2025.

 

 

3. Chatbots de reclutamiento con scoring integrado

Olivia de Paradox, Alli de Phenom, y equivalentes. Si el chatbot no solo agenda entrevistas sino que califica al candidato y decide si pasa a la siguiente fase sin revisión humana, el sistema necesita documentación de transparencia y supervisión humana real antes de cada decisión de avance o descarte.

 

 

Auditoría interna: las 5 preguntas que hay que responder con honestidad

No hace falta un consultor jurídico para empezar. El primer paso es responder estas cinco preguntas internamente:

1. ¿Qué herramientas de selección y evaluación usamos que toman decisiones automáticas sobre candidatos?

La mayoría de equipos de RRHH no tiene un inventario completo. Hay herramientas que el equipo no conoce en detalle, funcionalidades que el proveedor activó por defecto, o integraciones entre sistemas que nadie documentó. El inventario es el punto de partida.

2. ¿Conocemos cómo funciona el algoritmo de cada herramienta?

La documentación técnica del proveedor existe, aunque a veces hay que pedirla explícitamente. Si el proveedor no puede o no quiere proporcionar información sobre cómo funciona su modelo, ese es ya un dato muy relevante para la decisión de continuar o no con esa herramienta.

3. ¿Existe supervisión humana real antes de cada decisión de descarte o avance?

No supervisión nominal. Supervisión real, documentada y sistemática. Que un profesional de RRHH vea la recomendación del sistema y tome la decisión con criterio propio, y que eso quede registrado.

4. ¿Pueden los candidatos saber que usamos IA y solicitar una explicación si son descartados?

En España, esto es una obligación legal desde agosto de 2025 para los sistemas de chatbots de reclutamiento. Para los sistemas de alto riesgo, lo será desde agosto de 2026. ¿Hay un proceso definido? ¿Está en la política de privacidad?

5. ¿Hemos auditado sesgos en nuestras herramientas de selección en los últimos 12 meses?

La auditoría de sesgos no requiere equipo técnico propio. Algunos proveedores ofrecen informes de sesgo bajo petición. Organizaciones especializadas en equidad algorítmica pueden realizarla externamente. Lo primero es haberlo discutido.

Si hay más de dos preguntas sin respuesta clara, hay trabajo que hacer antes de agosto de 2026 en España, o antes de que se aprueben las leyes en LATAM.

 

 

Qué preguntar a los proveedores de software RRHH

Una vez completado el inventario interno, el siguiente paso es un vendor check con los proveedores clave. Estas son las preguntas concretas que hay que hacer:

Sobre clasificación de riesgo: ¿Han clasificado sus sistemas bajo el EU AI Act? ¿Están registrados o en proceso de registro en la base de datos europea de sistemas de alto riesgo?

Sobre documentación técnica: ¿Tienen un Technical File o documentación técnica accesible para el cliente? ¿Es posible acceder al log de decisiones de la cuenta de la empresa?

Sobre transparencia y explicabilidad: ¿Cómo informa el sistema al candidato de que hay IA en el proceso? ¿Existe un mecanismo para que el candidato solicite revisión humana de una decisión?

Sobre sesgos y auditorías: ¿El proveedor ha realizado auditorías de sesgo en sus modelos? ¿Con qué frecuencia? ¿Los resultados están disponibles para los clientes?

Sobre supervisión humana: ¿El sistema tiene override humano integrado? ¿Cómo está documentado ese mecanismo en el contrato?

Sobre roadmap regulatorio: ¿Tienen hoja de ruta de cumplimiento para agosto de 2026? ¿Tienen un programa de cumplimiento para los mercados de LATAM donde opera la empresa?

Si el proveedor no puede responder estas preguntas con claridad, ese dato es en sí mismo una señal importante para la toma de decisiones.

 

 

El cambio de mentalidad que la regulación exige

El EU AI Act, y las leyes que se están construyendo en LATAM siguiendo su mismo espíritu, no son únicamente normativa tecnológica.

Son normativa de derechos de candidatos y trabajadores.

El marco conceptual es claro: cuando una IA toma decisiones que afectan significativamente la vida laboral de una persona —si consigue empleo, si es promovida, si es evaluada positivamente—, esa persona tiene derecho a saber que ocurrió, a entender por qué, y a pedir que un profesional humano revise la decisión.

Eso transforma la forma en que RRHH diseña sus procesos. Ya no basta con elegir el mejor ATS del mercado. Hay que elegir el ATS que se pueda documentar, auditar y explicar. Y el Director de RRHH que lideró esa conversación internamente antes de que la ley lo exija, no después, está en una posición de ventaja.

Tres acciones concretas para esta semana:

  1. Hacer el inventario. Qué herramientas de IA se usan en selección y evaluación, qué decisiones automáticas toman, qué datos procesan sobre candidatos y empleados.

  2. Enviar el vendor check. Las preguntas de la sección anterior, dirigidas a los Account Managers de los proveedores principales. Las respuestas que se reciben son datos de decisión.

  3. Abrir la conversación interna. Legal, Tecnología y RRHH tienen que hablar de esto juntos. El equipo de RRHH que convoca esa conversación antes de que la presión regulatoria llegue, llega adelantado.

 

 

Qué relación tiene la formación en IA con la preparación regulatoria

Hay una conexión directa entre la capacidad de un equipo de RRHH para cumplir la regulación de IA y el nivel de formación que ese equipo tiene en IA.

El EU AI Act, el proyecto chileno, y los marcos en construcción en Colombia y Argentina exigen que las personas que supervisan sistemas de IA entiendan cómo funcionan esos sistemas. No a nivel técnico de ingeniería. Sí a nivel funcional: qué tipo de datos procesa el modelo, qué sesgos puede introducir, qué supervisión humana significa en la práctica.

Un equipo de RRHH que no tiene esa comprensión no puede hacer una supervisión real. Puede hacer una supervisión nominal, que es exactamente lo que la regulación pretende evitar.

La formación en IA para empresas que prepara a los equipos de Recursos Humanos para este escenario tiene que cubrir gobernanza, inventario de herramientas, políticas de uso, y los fundamentos para entender qué hace un sistema de IA cuando toma decisiones sobre personas.

Esto es exactamente lo que el módulo AI.setup de Próximo trabaja en el contexto del EU AI Act: dos semanas de preparación estructurada en gobernanza IA, inventario de herramientas, y políticas internas de uso responsable. Diseñado específicamente para equipos de RRHH y People sin perfil técnico.

Puedes profundizar también en cómo se aplica la formación en IA específicamente al área de RRHH, incluyendo recruiting y people analytics, y en qué son los agentes de IA y qué papel pueden jugar en la automatización de procesos de RRHH con las garantías regulatorias adecuadas.

 

 

Próximos pasos si quieres preparar tu equipo de People

Próximo es la plataforma española de formación en IA para empresas especializada en equipos no técnicos. El programa para equipos de RRHH parte de gobernanza y preparación regulatoria, avanza hacia automatizaciones prácticas, y culmina en la aplicación de agentes de IA a procesos específicos de People: recruiting, onboarding, people analytics, y gestión del desempeño.

Si quieres que tu equipo de RRHH esté preparado para operar con IA de forma responsable, efectiva, y dentro del marco regulatorio que aplica en tu mercado, puedes ver el programa completo en el AI VP of People Fractional Program o explorar los planes corporativos en weareproximo.com.

 

 

Preguntas frecuentes sobre regulación de IA en RRHH

 

 

¿Qué es el EU AI Act y cómo afecta a los departamentos de RRHH?

El EU AI Act es el Reglamento de Inteligencia Artificial de la Unión Europea, en vigor desde febrero de 2025. Clasifica los sistemas de IA por niveles de riesgo. Los sistemas usados en RRHH para filtrar candidatos, analizar vídeos de entrevistas, o puntuar automáticamente perfiles están clasificados como de alto riesgo. Esto implica obligaciones concretas: documentación técnica, supervisión humana real, auditorías periódicas, y transparencia hacia los candidatos. Las obligaciones más exigentes entran en vigor en agosto de 2026 para empresas en España y otros países de la UE.

 

 

¿Qué sistemas de selección de personal son considerados de alto riesgo según la regulación?

Según el EU AI Act, son sistemas de alto riesgo en el ámbito laboral: los ATS con scoring automático de candidatos, las plataformas de entrevistas en vídeo con análisis automático de comportamiento o emociones, los chatbots de reclutamiento que califican y filtran candidatos sin revisión humana, y los sistemas de evaluación de desempeño con decisión automática. Cualquier sistema que tome decisiones que afecten significativamente al empleo de una persona entra en esta categoría.

 

 

¿Qué países de LATAM ya tienen regulación de IA aplicable a RRHH?

A abril de 2026, Perú es el único país de LATAM con un marco regulatorio de IA en vigor, el Decreto Supremo 115-2025-PCM vigente desde enero de 2026. Es un marco de promoción, no restrictivo. Chile ha aprobado en Cámara una ley que clasifica el reclutamiento como proceso de alto riesgo, pendiente de ratificación en el Senado. Colombia tiene un proyecto radicado que regula explícitamente el uso de algoritmos en selección y evaluación. México y Argentina tienen proyectos en fases más iniciales, sin obligaciones inmediatas.

 

 

¿Cómo puedo auditar internamente si mis herramientas de RRHH cumplen la regulación?

El primer paso es hacer un inventario completo de las herramientas de IA que se usan en selección y evaluación, incluyendo qué decisiones automáticas toman y qué datos procesan. El segundo paso es verificar con cada proveedor si tienen documentación técnica del sistema, si existe supervisión humana integrada, y si han realizado auditorías de sesgo. El tercer paso es revisar si los candidatos están informados del uso de IA y si existe un proceso para que puedan solicitar revisión humana. Esta auditoría no requiere conocimiento técnico avanzado: requiere hacer las preguntas correctas.

 

 

¿Qué sanciones hay por incumplir el EU AI Act en el uso de IA en RRHH?

El EU AI Act establece multas de hasta 35 millones de euros o el 7% de la facturación global anual para las infracciones más graves, como el uso de sistemas prohibidos o el incumplimiento de obligaciones para sistemas de alto riesgo. AESIA, la Agencia Española de Supervisión de la IA, es el organismo encargado de supervisión y sanción en España. Las empresas que no cumplan las obligaciones para sistemas de alto riesgo antes de agosto de 2026 estarán expuestas a estas sanciones.

 

 

¿Cómo puede un equipo de RRHH sin perfil técnico prepararse para la regulación de IA?

La preparación regulatoria en IA no requiere conocimientos de programación. Requiere entender a nivel funcional cómo funcionan los sistemas que el equipo ya usa: qué tipo de datos procesan, qué decisiones automáticas toman, qué riesgos de sesgo pueden introducir, y qué supervisión humana es necesaria. La formación en IA diseñada para equipos de RRHH no técnicos cubre exactamente estos fundamentos, además de la construcción de políticas internas de uso de IA y la gestión del inventario de herramientas. Próximo, la plataforma española especializada en formación IA para equipos no técnicos, diseña su módulo de gobernanza específicamente para este perfil.

También te puede interesar