Growth

EU AI Act y Formación en IA: Todo lo que Tu Empresa Debe Cumplir en 2026

27 feb 2026

escrito por:

Equipo Próximo

Desde el 2 de febrero de 2025, el EU AI Act obliga a todas las empresas que operan en la UE a garantizar la alfabetización en IA de sus empleados. No es una recomendación. Es ley.

Y sin embargo, la mayoría de las empresas españolas aún no tienen un programa de formación en IA que cumpla con sus requisitos. Muchas ni saben que el plazo ya ha empezado a correr.

En este artículo encontrarás exactamente qué exige el EU AI Act en materia de formación, qué significa "sufficient AI literacy" en la práctica, cuáles son los plazos reales, las multas a las que te expones, y un checklist accionable para directores de RRHH que necesitan poner a su empresa en regla antes de que las sanciones lleguen.

 

 

Qué es el EU AI Act y por qué aplica a tu empresa (aunque no seas tech)

 

 

El Reglamento (UE) 2024/1689, conocido como EU AI Act, es el primer marco legal integral sobre inteligencia artificial en el mundo. Fue publicado en el Diario Oficial de la Unión Europea el 12 de julio de 2024 y entró en vigor el 1 de agosto de 2024, con una implementación progresiva que comenzó el 2 de febrero de 2025.

La pregunta más frecuente que recibimos en Próximo es esta: "¿Esto solo aplica a empresas que desarrollan IA?" La respuesta es no.

El EU AI Act aplica a cualquier organización que use sistemas de IA en sus operaciones dentro del mercado europeo. Y hoy prácticamente todas las empresas usan IA: desde el chatbot de atención al cliente hasta el software de RRHH con scoring automático de candidatos, pasando por las herramientas de productividad con IA integrada como Microsoft 365 Copilot o Google Workspace.

Dicho de otra forma: si tu empresa opera en la UE y tus empleados usan herramientas con IA, el EU AI Act aplica a ti.

Según la Comisión Europea, el reglamento afecta a más de 1,5 millones de empresas en la Unión Europea. Incluidas las PYMEs, que representan el 99% del tejido empresarial europeo.

 

 

Artículo 4: La obligación de AI Literacy desglosada

 

 

El Artículo 4 del EU AI Act establece literalmente:

"Providers and deployers of AI systems shall take measures to ensure, to their best extent, a sufficient level of AI literacy of their staff and other persons dealing with the operation and use of AI systems on their behalf, having regard to their technical knowledge, experience, education and training and the context the AI systems are to be used in, and taking into account the persons or groups of persons on whom the AI systems are to be used."

— Reglamento (UE) 2024/1689, Artículo 4

Traducido al español corporativo de verdad: tu empresa tiene la obligación legal de garantizar que las personas que trabajan con sistemas de IA tengan el conocimiento suficiente para hacerlo bien. Y eso aplica desde el 2 de febrero de 2025.

Hay cuatro elementos clave que el Artículo 4 exige considerar:

  1. Conocimiento técnico: El nivel de comprensión de la IA que tiene cada persona en función de su rol.

  2. Experiencia y formación previa: No puedes tratar igual a un ingeniero de datos que a un director de marketing.

  3. Contexto de uso: No es lo mismo usar IA para generar un email que para tomar decisiones sobre candidatos o créditos.

  4. Grupos afectados: Si la IA afecta a terceros (candidatos, empleados, clientes), el nivel de rigor debe ser mayor.

 

 

Qué significa "sufficient AI literacy" en la práctica

 

 

El EU AI Act habla de "sufficient AI literacy" pero no da una definición de examen. Eso significa que como empresa tienes que demostrar que has tomado medidas razonables y proporcionadas.

En la práctica, "suficiente alfabetización en IA" se traduce en cuatro capacidades básicas:

1. Entender qué es la IA y cómo funciona
No hace falta saber programar. Pero tus empleados deben saber distinguir entre IA generativa, IA de predicción, y automatización básica.

2. Identificar cuándo están usando un sistema de IA
El EU AI Act exige transparencia. Un empleado que no sabe que el software de RRHH que usa tiene scoring automatizado no puede supervisar ese proceso de forma responsable.

3. Aplicar criterio humano sobre las decisiones de la IA
Según el Artículo 14, los sistemas de IA de alto riesgo requieren supervisión humana efectiva. Para que esa supervisión sea real, el supervisor tiene que entender qué está supervisando.

4. Conocer los riesgos y sesgos de los sistemas que usan
Un recruiter que usa IA para filtrar CVs necesita saber que esos sistemas pueden tener sesgos de género, origen o edad. Y necesita saber cómo detectarlos y mitigarlos.

En los programas que impartimos en Próximo vemos consistentemente que las empresas confunden "formación en IA" con enseñar a usar ChatGPT. No es lo mismo. La alfabetización en IA que exige el EU AI Act requiere comprensión crítica, no solo habilidades de uso.

 

 

Plazos y calendario de cumplimiento 2025-2027

 

 

El EU AI Act no entró en vigor de golpe. Tiene una implementación progresiva en fases:

 

 

Fecha

Qué entra en vigor

Qué debes hacer

2 febrero 2025

Artículo 4 (AI Literacy), prohibiciones generales

Iniciar programa de formación en IA para empleados

2 agosto 2025

Prohibiciones de IA de riesgo inaceptable

Auditar y eliminar cualquier uso de IA prohibida

2 febrero 2026

Regulación de IA de propósito general (GPT-4, Claude, Gemini)

Verificar que los proveedores de IA que usas cumplen

2 agosto 2026

Obligaciones para sistemas de IA de alto riesgo

Documentar y supervisar todos los sistemas de alto riesgo

2 febrero 2027

Aplicación completa del reglamento

Cumplimiento total + auditorías posibles

 

 

El plazo más urgente ya pasó: el Artículo 4 es obligatorio desde el 2 de febrero de 2025. Si tu empresa aún no tiene un programa de alfabetización en IA, llevas más de un año en incumplimiento.

 

 

Los 4 niveles de riesgo del EU AI Act

 

 

El EU AI Act clasifica todos los sistemas de IA en cuatro categorías según el riesgo que representan:

 

 

Nivel de riesgo

Ejemplos

Obligaciones

Multa máxima

Riesgo inaceptable

Scoring social, reconocimiento emocional en trabajo

PROHIBIDO.

35M€ o 7% facturación

Alto riesgo

IA en RRHH (screening, evaluación), crédito, educación

Documentación, supervisión humana, formación obligatoria

15M€ o 3% facturación

Riesgo limitado

Chatbots, deepfakes, IA generativa

Obligación de transparencia

7,5M€ o 1,5% facturación

Riesgo mínimo

Filtros de spam, recomendaciones

Sin obligaciones específicas

 

 

Para los directores de RRHH, el dato más importante: el uso de IA en procesos de selección y evaluación de empleados está clasificado como alto riesgo. Eso significa que si tu empresa usa software con IA para filtrar CVs, puntuar candidatos o evaluar rendimiento, estás en la categoría con las obligaciones más estrictas.

Y hay una prohibición absoluta: el reconocimiento de emociones en entornos laborales y educativos está expresamente prohibido por el EU AI Act.

 

 

Multas y consecuencias del incumplimiento

 

 

 

 

Infracción

Multa máxima

Ejemplos

Uso de IA prohibida

35.000.000€ o 7% facturación global

Usar reconocimiento emocional en RRHH. Scoring social.

Incumplimiento en alto riesgo

15.000.000€ o 3% facturación global

Usar IA en selección sin documentación, sin supervisión humana

Información incorrecta a supervisores

7.500.000€ o 1,5% facturación global

Declaraciones falsas, ocultación de información

 

 

Para las PYMEs, el EU AI Act tiene previstas multas reducidas en algunos supuestos. Pero el porcentaje sobre facturación aplica igual.

La forma más barata de evitar multas es invertir ahora en formación en IA para tus empleados. Un programa cuesta entre 500€ y 1.500€ por empleado al año. Una multa puede ser de millones.

 

 

Checklist de cumplimiento para directores de RRHH

 

 

Este checklist está diseñado para una primera auditoría de cumplimiento en tu empresa:

  1. Inventario de sistemas de IA: Identifica todos los sistemas de IA que usa tu empresa. Incluye herramientas con IA integrada como Microsoft Copilot, Salesforce Einstein, o cualquier ATS con scoring automático.

  2. Clasificación por nivel de riesgo: Para cada sistema, determina su categoría según el EU AI Act.

  3. Auditoría de usos prohibidos: Verifica que no hay ningún sistema de reconocimiento emocional o scoring social.

  4. Programa de formación en IA: Diseña e implementa un programa de alfabetización en IA para todos los empleados que usan sistemas de IA.

  5. Documentación de sistemas de alto riesgo: Para cada sistema de alto riesgo, documenta qué hace, qué datos utiliza, cómo se toman las decisiones y qué supervisión humana existe.

  6. Política de uso de IA: Crea o actualiza la política de uso de IA de tu empresa.

  7. Formación específica para roles de alto riesgo: Los recruiters y managers que evalúan rendimiento necesitan formación adicional sobre supervisión de IA y detección de sesgos.

  8. Plan de actualización continua: Establece revisiones periódicas (mínimo anuales).

Si quieres ampliar cualquiera de estos puntos, nuestro artículo sobre formación en IA para empresas: guía completa cubre el proceso de implementación paso a paso.

 

 

Cómo elegir un programa de formación que cumpla con el EU AI Act

 

 

Para que un programa de formación cumpla realmente con los requisitos del Artículo 4, debe tener estas características:

Adaptación por rol y nivel de riesgo
El EU AI Act es explícito: la formación debe ser proporcional al contexto de uso. Los programas que ofrecen un curso único para toda la empresa no cumplen con esta exigencia.

Cobertura de sesgos y limitaciones
La formación debe incluir explícitamente cómo funcionan los sesgos en sistemas de IA, cómo detectarlos, y cómo mitigarlos.

Formación en supervisión humana
Para empleados que trabajan con sistemas de alto riesgo, la formación debe cubrir específicamente cómo ejercer supervisión humana efectiva.

Documentación del proceso formativo
En caso de auditoría, necesitarás demostrar que has impartido formación. El programa debe generar registros de asistencia, resultados de evaluación, y certificados.

Actualización continua
La IA cambia más rápido que cualquier regulación. Los programas que se actualizan continuamente son los únicos que pueden garantizar cumplimiento a largo plazo.

En Próximo diseñamos los programas exactamente con estos criterios. El módulo AI.setup cubre específicamente gobernanza, políticas internas, y cumplimiento regulatorio.

Para entender qué más pueden hacer los equipos con IA una vez tienen la formación base, te recomendamos leer sobre agentes de IA para empresas.

Si necesitas un programa de formación que cumpla con el EU AI Act, agenda una llamada. Te mostramos exactamente cómo Próximo cubre los requisitos del Artículo 4.

Agenda una llamada de 30 minutos

 

 

Conclusiones

 

 

El EU AI Act no es una amenaza futura. Es una obligación presente.

  • El Artículo 4 es obligatorio desde el 2 de febrero de 2025.

  • El EU AI Act aplica a cualquier empresa que use IA en la UE.

  • El uso de IA en RRHH está clasificado como alto riesgo.

  • El reconocimiento emocional en entornos laborales está prohibido.

  • Las multas pueden llegar a 35 millones de euros.

  • Un programa de formación debe ser adaptado por rol, documentado, y actualizado.

  • El siguiente hito crítico es agosto de 2026.

El coste de no actuar es mucho mayor que el coste de formarse.

 

 

Preguntas frecuentes sobre el EU AI Act y formación

 

 

 

 

¿El EU AI Act afecta a las PYMEs?

 

 

Sí. El EU AI Act aplica a todas las empresas que operan en la UE, independientemente de su tamaño. Sin embargo, incluye provisiones específicas para PYMEs como acceso a regulatory sandboxes y guías de cumplimiento adaptadas.

 

 

¿Qué pasa si no cumplo con el EU AI Act?

 

 

Multas económicas de hasta 35 millones de euros, órdenes de cese del uso de sistemas de IA no conformes, daño reputacional y responsabilidad civil frente a afectados.

 

 

¿El EU AI Act es aplicable en LATAM?

 

 

Tiene efecto extraterritorial: aplica a cualquier empresa que ofrezca productos o servicios en la UE, aunque esté establecida fuera de ella. Similar al GDPR.

 

 

¿Qué es exactamente la alfabetización en IA que exige el EU AI Act?

 

 

La capacidad de entender qué es la IA, cómo funciona, cuáles son sus limitaciones y riesgos, y cómo usarla de forma crítica y responsable. No exige que todos sepan programar.

 

 

¿Cuándo empiezan las multas?

 

 

Las obligaciones ya son exigibles. El Artículo 4 entró en vigor el 2 de febrero de 2025. Se espera aplicación activa de sanciones a partir de 2026-2027, pero el incumplimiento previo puede computar como agravante.

 

 

¿Qué departamentos son de alto riesgo?

 

 

RRHH y empleo (selección, evaluación del rendimiento, promociones), servicios financieros (scoring crediticio), educación, servicios esenciales, aplicación de la ley, infraestructuras críticas y gestión de fronteras. Para RRHH: cualquier software que use IA para filtrar CVs, puntuar candidatos o evaluar rendimiento está en alto riesgo.

También te puede interesar