Growth

EU AI Act y formación en IA: lo que tu empresa necesita saber

27 feb 2026

escrito por:

Equipo Próximo

Desde el 2 de febrero de 2025, el EU AI Act obliga a todas las empresas que operan en la UE a garantizar la alfabetización en IA de sus empleados. No es una recomendación. Es ley.

Y sin embargo, la mayoría de las empresas españolas aún no tienen un programa de formación en IA que cumpla con sus requisitos. Muchas ni saben que el plazo ya ha empezado a correr.

En este artículo encontrarás exactamente qué exige el EU AI Act en materia de formación, qué significa "sufficient AI literacy" en la práctica, cuáles son los plazos reales, las multas a las que te expones, y un checklist accionable para directores de RRHH que necesitan poner a su empresa en regla antes de que las sanciones lleguen.

 

 

Qué es el EU AI Act y por qué aplica a tu empresa (aunque no seas tech)

El Reglamento (UE) 2024/1689, conocido como EU AI Act, es el primer marco legal integral sobre inteligencia artificial en el mundo. Fue publicado en el Diario Oficial de la Unión Europea el 12 de julio de 2024 y entró en vigor el 1 de agosto de 2024, con una implementación progresiva que comenzó el 2 de febrero de 2025.

La pregunta más frecuente que recibimos en Próximo es esta: "¿Esto solo aplica a empresas que desarrollan IA?" La respuesta es no.

El EU AI Act aplica a cualquier organización que use sistemas de IA en sus operaciones dentro del mercado europeo. Y hoy prácticamente todas las empresas usan IA: desde el chatbot de atención al cliente hasta el software de RRHH con scoring automático de candidatos, pasando por las herramientas de productividad con IA integrada como Microsoft 365 Copilot o Google Workspace.

Dicho de otra forma: si tu empresa opera en la UE y tus empleados usan herramientas con IA, el EU AI Act aplica a ti.

Según la Comisión Europea, el reglamento afecta a más de 1,5 millones de empresas en la Unión Europea. Incluidas las PYMEs, que representan el 99% del tejido empresarial europeo.

¿Y qué pide exactamente el EU AI Act a las empresas que usan IA? Entre otras obligaciones, que sus empleados tengan suficiente alfabetización en IA para trabajar con estos sistemas de forma responsable. Eso es el Artículo 4.

 

 

Artículo 4: La obligación de AI Literacy desglosada

El Artículo 4 del EU AI Act establece literalmente:

"Providers and deployers of AI systems shall take measures to ensure, to their best extent, a sufficient level of AI literacy of their staff and other persons dealing with the operation and use of AI systems on their behalf, having regard to their technical knowledge, experience, education and training and the context the AI systems are to be used in, and taking into account the persons or groups of persons on whom the AI systems are to be used."

— Reglamento (UE) 2024/1689, Artículo 4

Traducido al español corporativo de verdad: tu empresa tiene la obligación legal de garantizar que las personas que trabajan con sistemas de IA tengan el conocimiento suficiente para hacerlo bien. Y eso aplica desde el 2 de febrero de 2025.

Hay cuatro elementos clave que el Artículo 4 exige considerar:

  1. Conocimiento técnico: El nivel de comprensión de la IA que tiene cada persona en función de su rol.

  2. Experiencia y formación previa: No puedes tratar igual a un ingeniero de datos que a un director de marketing.

  3. Contexto de uso: No es lo mismo usar IA para generar un email de marketing que para tomar decisiones sobre candidatos o créditos.

  4. Grupos afectados: Si la IA afecta a terceros (candidatos, empleados, clientes), el nivel de rigor debe ser mayor.

Lo que el Artículo 4 no hace es definir exactamente qué forma debe tomar esa formación. Esa ambigüedad es precisamente la que genera confusión en las empresas.

 

 

Qué significa "sufficient AI literacy" en la práctica

El EU AI Act habla de "sufficient AI literacy" pero no da una definición de examen. Eso significa que como empresa tienes que demostrar que has tomado medidas razonables y proporcionadas. Los reguladores europeos han ido aclarando qué se espera en sus guías de implementación.

En la práctica, "suficiente alfabetización en IA" se traduce en cuatro capacidades básicas:

1. Entender qué es la IA y cómo funciona
No hace falta saber programar. Pero tus empleados deben saber distinguir entre IA generativa, IA de predicción, y automatización básica.

2. Identificar cuándo están usando un sistema de IA
El EU AI Act exige transparencia. Un empleado que no sabe que el software de RRHH que usa tiene scoring automatizado no puede supervisar ese proceso de forma responsable.

3. Aplicar criterio humano sobre las decisiones de la IA
Este es el punto más crítico. Según el Artículo 14 del EU AI Act, los sistemas de IA de alto riesgo requieren supervisión humana efectiva.

4. Conocer los riesgos y sesgos de los sistemas que usan
Un recruiter que usa IA para filtrar CVs necesita saber que esos sistemas pueden tener sesgos de género, origen o edad. Y necesita saber cómo detectarlos y mitigarlos.

En los programas que impartimos en Próximo vemos consistentemente que las empresas confunden "formación en IA" con enseñar a usar ChatGPT. No es lo mismo. La alfabetización en IA que exige el EU AI Act requiere comprensión crítica, no solo habilidades de uso.

Según el World Economic Forum (2024), el 88% de los empleados cree que el liderazgo en IA es crítico para el éxito empresarial, pero solo el 48% cree que sus managers están preparados para liderarlo.

 

 

Plazos y calendario de cumplimiento 2025-2027

El EU AI Act no entró en vigor de golpe. Tiene una implementación progresiva en fases. Aquí están los plazos que importan:

 

 

Fecha

Qué entra en vigor

Qué debes hacer

2 febrero 2025

Artículo 4 (AI Literacy), prohibiciones generales

Iniciar programa de formación en IA para empleados

2 agosto 2025

Prohibiciones de IA de riesgo inaceptable

Auditar y eliminar cualquier uso de IA prohibida

2 febrero 2026

Regulación de IA de propósito general

Verificar que los proveedores de IA que usas cumplen

2 agosto 2026

Obligaciones para sistemas de IA de alto riesgo

Documentar y supervisar todos los sistemas de alto riesgo

2 febrero 2027

Aplicación completa del reglamento

Cumplimiento total + auditorías posibles

El plazo más urgente ya pasó: el Artículo 4 es obligatorio desde el 2 de febrero de 2025. Si tu empresa aún no tiene un programa de alfabetización en IA, llevas más de un año en incumplimiento.

El siguiente hito crítico es agosto de 2026, cuando entran en vigor las obligaciones para sistemas de IA de alto riesgo.

 

 

Los 4 niveles de riesgo del EU AI Act

El EU AI Act clasifica todos los sistemas de IA en cuatro categorías según el riesgo que representan.

 

 

Nivel de riesgo

Ejemplos

Obligaciones

Multa máxima

Riesgo inaceptable

Scoring social, reconocimiento emocional en trabajo o educación, manipulación subconsciente

PROHIBIDO. No se puede usar.

35M€ o 7% facturación global

Alto riesgo

IA en RRHH (screening, evaluación), crédito, educación, justicia

Documentación técnica, supervisión humana, formación obligatoria

15M€ o 3% facturación global

Riesgo limitado

Chatbots de atención al cliente, deepfakes, IA generativa de contenido

Obligación de transparencia

7,5M€ o 1,5% facturación global

Riesgo mínimo

Filtros de spam, recomendaciones de contenido

Sin obligaciones específicas

Para los directores de RRHH, el dato más importante: el uso de IA en procesos de selección y evaluación de empleados está clasificado como alto riesgo.

Y hay una prohibición absoluta: el reconocimiento de emociones en entornos laborales y educativos está expresamente prohibido por el EU AI Act.

Para ampliar qué significa tener IA en RRHH en 2026, puedes leer nuestro artículo sobre el director de RRHH como líder de la transformación en IA.

 

 

Multas y consecuencias del incumplimiento

Las sanciones del EU AI Act son proporcionales al riesgo. Y son las más altas que ha diseñado nunca la Unión Europea para regular una tecnología.

 

 

Infracción

Multa máxima

Ejemplos

Uso de IA prohibida (riesgo inaceptable)

35.000.000€ o 7% facturación global

Reconocimiento emocional en RRHH. Scoring social.

Incumplimiento en sistemas de alto riesgo

15.000.000€ o 3% facturación global

Usar IA en selección sin documentación ni supervisión humana

Información incorrecta a organismos supervisores

7.500.000€ o 1,5% facturación global

Declaraciones falsas, ocultación de información

Para las PYMEs, el EU AI Act tiene previstas multas reducidas en algunos supuestos. Pero el porcentaje sobre facturación aplica igual.

La forma más barata de evitar multas es invertir ahora en formación en IA para tus empleados. Un programa de formación cuesta entre 500€ y 1.500€ por empleado al año. Una multa por incumplimiento puede ser de millones de euros.

 

 

Checklist de cumplimiento para directores de RRHH

Este checklist está diseñado para que puedas hacer una primera auditoría de cumplimiento en tu empresa.

  1. Inventario de sistemas de IA: Identifica todos los sistemas de IA que usa tu empresa. Incluye herramientas con IA integrada como Microsoft Copilot, Salesforce Einstein, o cualquier ATS con scoring automático.

  2. Clasificación por nivel de riesgo: Para cada sistema identificado, determina su categoría según el EU AI Act.

  3. Auditoría de usos prohibidos: Verifica que no hay en tu empresa ningún sistema de reconocimiento emocional, scoring social, o manipulación conductual.

  4. Programa de formación en IA: Diseña e implementa un programa de alfabetización en IA para todos los empleados que usan sistemas de IA.

  5. Documentación de los sistemas de alto riesgo: Para cada sistema de IA de alto riesgo, documenta qué hace, qué datos utiliza, cómo se toman las decisiones y qué supervisión humana existe.

  6. Política de uso de IA: Crea o actualiza la política de uso de IA de tu empresa.

  7. Formación específica para roles de alto riesgo: Los empleados que trabajan con sistemas de IA de alto riesgo necesitan formación adicional sobre supervisión de IA y detección de sesgos.

  8. Plan de actualización continua: Establece revisiones periódicas (mínimo anuales) para actualizar tanto las políticas como la formación.

Si quieres ampliar cualquiera de estos puntos, nuestro artículo sobre formación en IA para empresas: guía completa cubre el proceso paso a paso.

 

 

Cómo elegir un programa de formación que cumpla con el EU AI Act

No toda la formación en IA es igual. Para que un programa cumpla realmente con los requisitos del Artículo 4, debe tener estas características:

Adaptación por rol y nivel de riesgo
El EU AI Act es explícito: la formación debe ser proporcional al contexto de uso.

Cobertura de sesgos y limitaciones
La formación debe incluir explícitamente cómo funcionan los sesgos en sistemas de IA, cómo detectarlos, y cómo mitigarlos.

Formación en supervisión humana
Para los empleados que trabajan con sistemas de alto riesgo, la formación debe cubrir específicamente cómo ejercer supervisión humana efectiva.

Documentación del proceso formativo
En caso de auditoría, necesitarás demostrar que has impartido formación. El programa debe generar registros de asistencia, resultados de evaluación, y certificados de finalización.

Actualización continua
La IA cambia más rápido que cualquier regulación. Los programas que se actualizan continuamente son los únicos que pueden garantizar cumplimiento a largo plazo.

En Próximo diseñamos los programas exactamente con estos criterios. El módulo AI.setup cubre específicamente gobernanza, políticas internas, y cumplimiento regulatorio, incluyendo el EU AI Act.

Para entender qué más pueden hacer los equipos con IA una vez tienen la formación base, te recomendamos leer sobre agentes de IA para empresas: el siguiente nivel de aplicación práctica.

Si necesitas un programa de formación que cumpla con el EU AI Act, agenda una llamada. Te mostramos exactamente cómo Próximo cubre los requisitos del Artículo 4, departamento por departamento, con documentación incluida.

Agenda una llamada de 30 minutos

 

 

Conclusiones

El EU AI Act no es una amenaza futura. Es una obligación presente.

Los puntos clave que tu empresa necesita tener claros:

  • El Artículo 4 es obligatorio desde el 2 de febrero de 2025. La obligación de AI Literacy ya está en vigor.

  • El EU AI Act aplica a cualquier empresa que use IA en la UE, no solo a las que la desarrollan.

  • El uso de IA en RRHH (selección, evaluación) está clasificado como alto riesgo.

  • El reconocimiento emocional en entornos laborales está prohibido.

  • Las multas pueden llegar a 35 millones de euros o hasta el 7% de la facturación global.

  • Un programa de formación debe ser adaptado por rol, documentado, y actualizado continuamente.

  • El siguiente hito crítico es agosto de 2026.

El coste de no actuar es mucho mayor que el coste de formarse.

El primer paso es conocer exactamente qué sistemas de IA usa tu empresa y en qué categoría de riesgo están. El segundo es poner en marcha la formación. Hoy.

 

 

Preguntas frecuentes sobre el EU AI Act y formación

 

 

¿El EU AI Act afecta a las PYMEs?

Sí. El EU AI Act aplica a todas las empresas que operan en la Unión Europea, independientemente de su tamaño. Sin embargo, el reglamento incluye provisiones específicas para PYMEs y startups: acceso prioritario a centros de pruebas regulatorias, guías específicas de cumplimiento, y en algunos casos reducción de las multas máximas.

 

 

¿Qué pasa si no cumplo con el EU AI Act?

Las consecuencias tienen varios niveles: multas económicas hasta 35 millones de euros, órdenes de cese inmediato del uso de sistemas de IA no conformes, retirada de productos del mercado europeo, daño reputacional, y responsabilidad civil frente a afectados. Se espera que la aplicación activa de sanciones sea más intensa a partir de 2026-2027.

 

 

¿El EU AI Act es aplicable en LATAM?

El EU AI Act tiene efecto extraterritorial: aplica a cualquier empresa que ofrezca productos o servicios en la Unión Europea. Para empresas latinoamericanas que venden u operan en Europa, el EU AI Act es plenamente aplicable. Chile y Brasil tienen regulaciones en desarrollo. México y Argentina están en fases de consulta.

 

 

¿Qué es exactamente la alfabetización en IA que exige el EU AI Act?

La "AI literacy" que exige el Artículo 4 es la capacidad de entender qué es la IA, cómo funciona en términos generales, cuáles son sus limitaciones y riesgos, y cómo usarla de forma crítica y responsable. No exige que todos los empleados sepan programar.

 

 

¿Cuándo empiezan las multas por incumplimiento del EU AI Act?

Técnicamente, las obligaciones ya son exigibles. El Artículo 4 entró en vigor el 2 de febrero de 2025. La prohibición de sistemas de riesgo inaceptable entró en vigor el 2 de agosto de 2025. Las obligaciones para sistemas de alto riesgo entran en vigor el 2 de agosto de 2026.

 

 

¿Qué departamentos son considerados de alto riesgo según el EU AI Act?

El EU AI Act clasifica como alto riesgo los sistemas de IA utilizados en: RRHH y empleo, servicios financieros, educación y formación, servicios esenciales, aplicación de la ley y justicia, infraestructuras críticas, y gestión de fronteras e inmigración. Para RRHH en particular: cualquier software que use IA para filtrar CVs, puntuar candidatos, evaluar el rendimiento, o tomar decisiones sobre condiciones laborales está en la categoría de alto riesgo.

También te puede interesar