Artículo 4: la obligación de formar a todos los colaboradores en IA

El AI Act obliga a las empresas a garantizar un nivel suficiente de competencia en IA para todos los colaboradores. Quién está afectado, qué pruebas aportar, qué sanciones se aplican.

Lo que realmente dice el Artículo 4

El Artículo 4 del Reglamento Europeo sobre Inteligencia Artificial (Reglamento 2024/1689, conocido como “AI Act”) se resume a menudo erróneamente como una simple recomendación. En realidad, es una obligación jurídica vinculante, aplicable desde el 2 de agosto de 2025.

Artículo 4Règlement (UE) 2024/1689

Los proveedores y los responsables del despliegue de sistemas de IA tomarán medidas para garantizar, en la mayor medida posible, un nivel suficiente de alfabetización en materia de IA de su personal y demás personas que se encarguen del funcionamiento y la utilización de sistemas de IA en su nombre, teniendo en cuenta sus conocimientos técnicos, su experiencia, su educación y su formación, así como el contexto en el que los sistemas de IA están destinados a utilizarse, y teniendo en cuenta las personas o los grupos de personas en los que los sistemas de IA están destinados a utilizarse.

Este texto es denso. Analicémoslo.

¿Quién está afectado?

El Artículo 4 se dirige a dos categorías de actores:

Los proveedores (providers)

Cualquier entidad que desarrolle un sistema de IA o un modelo de IA de uso general y lo comercialice o ponga en servicio bajo su propio nombre o marca. Esto incluye editores de software, startups de IA y empresas que desarrollan herramientas internas basadas en IA.

Los responsables del despliegue (deployers)

Cualquier persona física o jurídica que utilice un sistema de IA bajo su propia autoridad. En la práctica, esto incluye a cualquier empresa que utilice herramientas de IA en sus operaciones diarias — desde ChatGPT hasta un sistema de scoring automatizado.

Este es el punto crucial: no hace falta desarrollar IA para estar afectado. Si sus equipos utilizan herramientas de IA — aunque sean herramientas de terceros como asistentes conversacionales, herramientas de generación de contenido o sistemas de análisis automatizado — es usted un responsable de despliegue según el reglamento.

En la práctica, esto significa que la práctica totalidad de las empresas europeas está afectada. En España, entidades como BBVA, Santander y CaixaBank, que despliegan sistemas de IA en scoring crediticio y atención al cliente, así como organismos públicos como la Seguridad Social y la Agencia Tributaria, están directamente concernidos.

¿Qué significa “nivel suficiente de alfabetización en IA”?

El reglamento no prescribe un programa de formación estandarizado. Exige un nivel suficiente de alfabetización en IA (AI literacy), definido en el Artículo 3(56) como:

Artículo 3, apartado 56Règlement (UE) 2024/1689

Las competencias, los conocimientos y la comprensión que permiten a los proveedores, los responsables del despliegue y las personas afectadas, teniendo en cuenta sus derechos y obligaciones respectivos en el marco del presente Reglamento, llevar a cabo un despliegue informado de los sistemas de IA, así como adquirir conciencia de las oportunidades y riesgos de la IA y de los posibles perjuicios que puede causar.

Concretamente, evaluar el nivel de competencia de sus colaboradores implica verificar que comprenden:

  • Qué es un sistema de IA y cómo funciona, a un nivel adaptado a su rol
  • Los riesgos asociados al uso de la IA en su contexto profesional
  • Las buenas prácticas: verificación de resultados, protección de datos, notificación de anomalías
  • Las limitaciones de los sistemas que utilizan a diario

El nivel esperado no es uniforme. El Artículo 4 precisa que la formación debe tener en cuenta los “conocimientos técnicos, la experiencia, la educación y la formación” de cada persona, así como el “contexto en el que los sistemas de IA están destinados a utilizarse”. Un desarrollador de IA y un agente de atención al cliente no tendrán las mismas necesidades de desarrollo de competencias.

La cuestión central: ¿cómo demostrar el cumplimiento?

El reglamento exige “tomar medidas” para garantizar este nivel de competencia. En caso de inspección o litigio, la empresa deberá demostrar que ha actuado efectivamente. Aquí es donde el concepto de evidencia documentada se vuelve esencial.

Lo que las autoridades esperarán

Aunque las modalidades precisas de auditoría aún no han sido completamente definidas por las autoridades nacionales competentes — en España, la AEPD (Agencia Española de Protección de Datos) y la Secretaría de Estado de Digitalización e Inteligencia Artificial — varios elementos de prueba se perfilan como indispensables:

  1. Un inventario de los sistemas de IA utilizados en la organización, clasificados por nivel de riesgo
  2. Un plan de formación adaptado a los diferentes perfiles de colaboradores
  3. Pruebas de participación en las formaciones (registros, certificados, historiales)
  4. Una evaluación del nivel de competencia antes y después de la formación
  5. Un seguimiento regular que demuestre que la formación no es un evento puntual sino un proceso continuo

El Considerando 20 del reglamento aporta orientación adicional:

Considerando 20Règlement (UE) 2024/1689

Las medidas de alfabetización en IA […] deberían diseñarse y, en su caso, adaptarse al contexto en el que se utilicen los sistemas de IA. […] Los proveedores y los responsables del despliegue también pueden velar por que el personal técnico disponga de la formación y las competencias necesarias.

Dicho de otro modo, una formación genérica impartida una sola vez no será suficiente. El reglamento espera un enfoque contextualizado, medible y continuo.

📄AI Act Artículo 4: la obligación de formación en IA explicada

El calendario: ya está en vigor

A diferencia de otras disposiciones del AI Act que se aplican progresivamente, el Artículo 4 es aplicable desde el 2 de agosto de 2025. El calendario completo:

FechaDisposición
1 de febrero de 2025Prohibición de prácticas de IA prohibidas (Artículo 5)
2 de agosto de 2025Artículo 4 — Obligación de competencia en IA
2 de agosto de 2025Obligaciones para modelos de IA de uso general
2 de agosto de 2026Obligaciones para sistemas de IA de alto riesgo

Las empresas que aún no han iniciado un programa para formar al conjunto de sus colaboradores están, por tanto, técnicamente ya en retraso. La AEPD ya ha señalado que la competencia en IA es un componente esencial de la protección de datos en la era de la inteligencia artificial.

Cómo estructurar su plan de cumplimiento

Paso 1: Mapear los usos de IA

Antes de formar, hay que saber qué se está usando. Realice un inventario exhaustivo de todos los sistemas de IA desplegados en su organización. Incluya las herramientas oficiales, pero también los usos informales (la famosa “shadow IT” de la IA).

Paso 2: Identificar las poblaciones afectadas

No todos los colaboradores están expuestos de la misma manera. Segmenta por:

  • Nivel de interacción con los sistemas de IA (usuario diario, ocasional, indirecto)
  • Nivel de riesgo de los sistemas utilizados (scoring crediticio de BBVA o Santander, reclutamiento automatizado, sistemas de la Agencia Tributaria)
  • Conocimientos técnicos previos

Paso 3: Definir un marco de competencias

Establezca con claridad lo que cada perfil debe saber. Este marco servirá de base para evaluar el nivel suficiente de competencia en IA exigido por el reglamento.

Paso 4: Formar y evaluar

Despliegue itinerarios de formación adaptados y mida los resultados. Un score de competencia individual o por equipo permite hacer seguimiento del progreso y demostrar el esfuerzo de cumplimiento.

Paso 5: Documentar de forma continua

Constituya un expediente de cumplimiento que incluya: programas de formación, tasas de participación, resultados de las evaluaciones y actualizaciones periódicas. Esta evidencia documentada será su mejor aliado en caso de inspección.

📄Auditoría de IA en la empresa: guía práctica paso a paso

Las sanciones por incumplimiento

El Artículo 4 se encuadra en el nivel intermedio de sanciones previstas por el AI Act. Su incumplimiento puede acarrear multas de hasta 15 millones de euros o el 3 % de la facturación anual mundial (prevaleciendo el importe más elevado).

Pero más allá de las multas, el riesgo reputacional es considerable. No haber formado a sus equipos en IA cuando la regulación lo exige es una señal de inmadurez organizacional que ni clientes, ni reguladores, ni socios tolerarán durante mucho tiempo.

Lo que distingue al Artículo 4 de otras obligaciones

El Artículo 4 es único en el panorama regulatorio europeo por varias razones:

  • Concierne a las personas, no a los sistemas. La mayoría de las obligaciones del AI Act se refieren a las características técnicas de los sistemas de IA. El Artículo 4, en cambio, se refiere a las competencias de los seres humanos que los utilizan.
  • Es transversal. Sea cual sea el nivel de riesgo de sus sistemas de IA, la obligación de competencia se aplica.
  • Ya está en vigor. Sin período de transición adicional.

Es también la disposición más accesible para comenzar su cumplimiento con el AI Act. Antes incluso de clasificar sus sistemas o documentar sus modelos, puede — y debe — empezar por el desarrollo de competencias de sus equipos.

Ce que ça implique pour vous

El Artículo 4 convierte la formación de todos los colaboradores en una obligación legal, no en una opción. Las empresas deben poder demostrar, con pruebas de respaldo, que su personal alcanza un nivel suficiente de competencia en IA — con evaluaciones medibles, documentación rigurosa y seguimiento continuo. La obligación está en vigor desde el 2 de agosto de 2025. Cada día sin actuar es un día de incumplimiento.