El AI Act obliga a las empresas a garantizar un nivel suficiente de competencia en IA para todos los colaboradores. Quién está afectado, qué pruebas aportar, qué sanciones se aplican.
El Artículo 4 del Reglamento Europeo sobre Inteligencia Artificial (Reglamento 2024/1689, conocido como “AI Act”) se resume a menudo erróneamente como una simple recomendación. En realidad, es una obligación jurídica vinculante, aplicable desde el 2 de agosto de 2025.
Artículo 4 — Règlement (UE) 2024/1689
Los proveedores y los responsables del despliegue de sistemas de IA tomarán medidas para garantizar, en la mayor medida posible, un nivel suficiente de alfabetización en materia de IA de su personal y demás personas que se encarguen del funcionamiento y la utilización de sistemas de IA en su nombre, teniendo en cuenta sus conocimientos técnicos, su experiencia, su educación y su formación, así como el contexto en el que los sistemas de IA están destinados a utilizarse, y teniendo en cuenta las personas o los grupos de personas en los que los sistemas de IA están destinados a utilizarse.
Este texto es denso. Analicémoslo.
El Artículo 4 se dirige a dos categorías de actores:
Cualquier entidad que desarrolle un sistema de IA o un modelo de IA de uso general y lo comercialice o ponga en servicio bajo su propio nombre o marca. Esto incluye editores de software, startups de IA y empresas que desarrollan herramientas internas basadas en IA.
Cualquier persona física o jurídica que utilice un sistema de IA bajo su propia autoridad. En la práctica, esto incluye a cualquier empresa que utilice herramientas de IA en sus operaciones diarias — desde ChatGPT hasta un sistema de scoring automatizado.
Este es el punto crucial: no hace falta desarrollar IA para estar afectado. Si sus equipos utilizan herramientas de IA — aunque sean herramientas de terceros como asistentes conversacionales, herramientas de generación de contenido o sistemas de análisis automatizado — es usted un responsable de despliegue según el reglamento.
En la práctica, esto significa que la práctica totalidad de las empresas europeas está afectada. En España, entidades como BBVA, Santander y CaixaBank, que despliegan sistemas de IA en scoring crediticio y atención al cliente, así como organismos públicos como la Seguridad Social y la Agencia Tributaria, están directamente concernidos.
El reglamento no prescribe un programa de formación estandarizado. Exige un nivel suficiente de alfabetización en IA (AI literacy), definido en el Artículo 3(56) como:
Artículo 3, apartado 56 — Règlement (UE) 2024/1689
Las competencias, los conocimientos y la comprensión que permiten a los proveedores, los responsables del despliegue y las personas afectadas, teniendo en cuenta sus derechos y obligaciones respectivos en el marco del presente Reglamento, llevar a cabo un despliegue informado de los sistemas de IA, así como adquirir conciencia de las oportunidades y riesgos de la IA y de los posibles perjuicios que puede causar.
Concretamente, evaluar el nivel de competencia de sus colaboradores implica verificar que comprenden:
El nivel esperado no es uniforme. El Artículo 4 precisa que la formación debe tener en cuenta los “conocimientos técnicos, la experiencia, la educación y la formación” de cada persona, así como el “contexto en el que los sistemas de IA están destinados a utilizarse”. Un desarrollador de IA y un agente de atención al cliente no tendrán las mismas necesidades de desarrollo de competencias.
El reglamento exige “tomar medidas” para garantizar este nivel de competencia. En caso de inspección o litigio, la empresa deberá demostrar que ha actuado efectivamente. Aquí es donde el concepto de evidencia documentada se vuelve esencial.
Aunque las modalidades precisas de auditoría aún no han sido completamente definidas por las autoridades nacionales competentes — en España, la AEPD (Agencia Española de Protección de Datos) y la Secretaría de Estado de Digitalización e Inteligencia Artificial — varios elementos de prueba se perfilan como indispensables:
El Considerando 20 del reglamento aporta orientación adicional:
Considerando 20 — Règlement (UE) 2024/1689
Las medidas de alfabetización en IA […] deberían diseñarse y, en su caso, adaptarse al contexto en el que se utilicen los sistemas de IA. […] Los proveedores y los responsables del despliegue también pueden velar por que el personal técnico disponga de la formación y las competencias necesarias.
Dicho de otro modo, una formación genérica impartida una sola vez no será suficiente. El reglamento espera un enfoque contextualizado, medible y continuo.
📄AI Act Artículo 4: la obligación de formación en IA explicada→A diferencia de otras disposiciones del AI Act que se aplican progresivamente, el Artículo 4 es aplicable desde el 2 de agosto de 2025. El calendario completo:
| Fecha | Disposición |
|---|---|
| 1 de febrero de 2025 | Prohibición de prácticas de IA prohibidas (Artículo 5) |
| 2 de agosto de 2025 | Artículo 4 — Obligación de competencia en IA |
| 2 de agosto de 2025 | Obligaciones para modelos de IA de uso general |
| 2 de agosto de 2026 | Obligaciones para sistemas de IA de alto riesgo |
Las empresas que aún no han iniciado un programa para formar al conjunto de sus colaboradores están, por tanto, técnicamente ya en retraso. La AEPD ya ha señalado que la competencia en IA es un componente esencial de la protección de datos en la era de la inteligencia artificial.
Antes de formar, hay que saber qué se está usando. Realice un inventario exhaustivo de todos los sistemas de IA desplegados en su organización. Incluya las herramientas oficiales, pero también los usos informales (la famosa “shadow IT” de la IA).
No todos los colaboradores están expuestos de la misma manera. Segmenta por:
Establezca con claridad lo que cada perfil debe saber. Este marco servirá de base para evaluar el nivel suficiente de competencia en IA exigido por el reglamento.
Despliegue itinerarios de formación adaptados y mida los resultados. Un score de competencia individual o por equipo permite hacer seguimiento del progreso y demostrar el esfuerzo de cumplimiento.
Constituya un expediente de cumplimiento que incluya: programas de formación, tasas de participación, resultados de las evaluaciones y actualizaciones periódicas. Esta evidencia documentada será su mejor aliado en caso de inspección.
📄Auditoría de IA en la empresa: guía práctica paso a paso→El Artículo 4 se encuadra en el nivel intermedio de sanciones previstas por el AI Act. Su incumplimiento puede acarrear multas de hasta 15 millones de euros o el 3 % de la facturación anual mundial (prevaleciendo el importe más elevado).
Pero más allá de las multas, el riesgo reputacional es considerable. No haber formado a sus equipos en IA cuando la regulación lo exige es una señal de inmadurez organizacional que ni clientes, ni reguladores, ni socios tolerarán durante mucho tiempo.
El Artículo 4 es único en el panorama regulatorio europeo por varias razones:
Es también la disposición más accesible para comenzar su cumplimiento con el AI Act. Antes incluso de clasificar sus sistemas o documentar sus modelos, puede — y debe — empezar por el desarrollo de competencias de sus equipos.
Ce que ça implique pour vous
El Artículo 4 convierte la formación de todos los colaboradores en una obligación legal, no en una opción. Las empresas deben poder demostrar, con pruebas de respaldo, que su personal alcanza un nivel suficiente de competencia en IA — con evaluaciones medibles, documentación rigurosa y seguimiento continuo. La obligación está en vigor desde el 2 de agosto de 2025. Cada día sin actuar es un día de incumplimiento.