Artigo 4: a obrigação de formar todos os colaboradores em IA

O AI Act obriga as empresas a garantir um nível suficiente de literacia em IA para todos os colaboradores. Quem está abrangido, que provas apresentar, que sanções.

O que diz realmente o Artigo 4

O Artigo 4 do Regulamento Europeu sobre Inteligência Artificial (Regulamento 2024/1689, designado “AI Act”) é frequentemente resumido, incorretamente, como uma simples recomendação. Na realidade, é uma obrigação jurídica vinculativa, aplicável desde 2 de agosto de 2025.

Artigo 4Règlement (UE) 2024/1689

Os prestadores e os responsáveis pela implantação de sistemas de IA tomam medidas para garantir, na medida do possível, um nível suficiente de literacia no domínio da IA do seu pessoal e de outras pessoas que se ocupam do funcionamento e da utilização de sistemas de IA em seu nome, tendo em conta os seus conhecimentos técnicos, a sua experiência, a sua formação e educação, bem como o contexto em que os sistemas de IA se destinam a ser utilizados, e tendo em conta as pessoas ou os grupos de pessoas relativamente aos quais os sistemas de IA se destinam a ser utilizados.

Este texto é denso. Vamos decompô-lo.

Quem está abrangido?

O Artigo 4 visa duas categorias de intervenientes:

Os prestadores (providers)

Qualquer entidade que desenvolva um sistema de IA ou um modelo de IA de finalidade geral e o coloque no mercado ou em serviço sob o seu próprio nome ou marca. Isto inclui editores de software, startups de IA, empresas que desenvolvem ferramentas internas baseadas em IA.

Os responsáveis pela implantação (deployers)

Qualquer pessoa singular ou coletiva que utilize um sistema de IA sob a sua própria autoridade. Concretamente, isto inclui qualquer empresa que utilize ferramentas de IA nas suas operações correntes — do ChatGPT a um sistema de scoring automatizado.

Este é o ponto crucial: não precisa de desenvolver IA para estar abrangido. Se as suas equipas utilizam ferramentas de IA — mesmo ferramentas de terceiros como assistentes conversacionais, ferramentas de geração de conteúdo ou sistemas de análise automatizada — é um responsável pela implantação na aceção do regulamento.

Na prática, isto significa que a quase totalidade das empresas europeias está abrangida.

O que significa “nível suficiente de literacia em IA”?

O regulamento não prescreve um programa de formação padronizado. Exige um nível suficiente de literacia em IA (AI literacy), definido no Artigo 3(56) como:

Artigo 3, parágrafo 56Règlement (UE) 2024/1689

As competências, os conhecimentos e a compreensão que permitem aos prestadores, aos responsáveis pela implantação e às pessoas afetadas, tendo em conta os seus respetivos direitos e obrigações no âmbito do presente regulamento, proceder a uma implantação informada dos sistemas de IA, bem como tomar consciência das oportunidades e dos riscos da IA e dos eventuais danos que esta pode causar.

Concretamente, medir o nível de competência dos seus colaboradores implica verificar que compreendem:

  • O que é um sistema de IA e como funciona a um nível adequado à sua função
  • Os riscos associados à utilização da IA no seu contexto profissional
  • As boas práticas: verificação dos resultados, proteção de dados (em conformidade com o RGPD), reporte de anomalias
  • As limitações dos sistemas que utilizam no dia a dia

O nível esperado não é uniforme. O Artigo 4 precisa que a formação deve ter em conta os “conhecimentos técnicos, a experiência, a formação e educação” de cada pessoa, bem como o “contexto em que os sistemas de IA se destinam a ser utilizados”. Um desenvolvedor de IA e um gestor de clientes não terão as mesmas necessidades de desenvolvimento de competências.

A questão central: como provar a conformidade?

O regulamento impõe “tomar medidas” para garantir este nível de literacia. Em caso de controlo ou litígio, a empresa terá de demonstrar que efetivamente agiu. É aqui que a noção de prova documentada se torna essencial.

O que as autoridades vão esperar

Embora as modalidades precisas de auditoria ainda não estejam totalmente definidas pelas autoridades nacionais competentes — em Portugal, nomeadamente a CNPD (Comissão Nacional de Proteção de Dados) —, vários elementos de prova emergem como indispensáveis:

  1. Um inventário dos sistemas de IA utilizados na organização, classificados por nível de risco
  2. Um plano de formação adaptado aos diferentes perfis de colaboradores
  3. Provas de participação nas formações (registos, certificados, históricos)
  4. Uma avaliação do nível de competência antes e depois da formação
  5. Um acompanhamento regular que demonstre que a formação não é um evento pontual mas um processo contínuo

O Considerando 20 do regulamento traz um esclarecimento suplementar:

Considerando 20Règlement (UE) 2024/1689

As medidas de literacia no domínio da IA […] devem ser concebidas e, se for caso disso, adaptadas ao contexto em que os sistemas de IA são utilizados. […] Os prestadores e os responsáveis pela implantação podem igualmente assegurar que o pessoal técnico disponha da formação e das competências necessárias.

Por outras palavras, uma formação genérica distribuída uma única vez não será suficiente. O regulamento espera uma abordagem contextualizada, mensurável e contínua.

📄AI Act Artigo 4: a obrigação de formação em IA explicada

O cronograma: já está em vigor

Ao contrário de outras disposições do AI Act que se aplicam progressivamente, o Artigo 4 é aplicável desde 2 de agosto de 2025. O cronograma completo:

DataDisposição
1 de fevereiro de 2025Proibição das práticas de IA proibidas (Artigo 5)
2 de agosto de 2025Artigo 4 — Obrigação de literacia em IA
2 de agosto de 2025Obrigações para os modelos de IA de finalidade geral
2 de agosto de 2026Obrigações para os sistemas de IA de alto risco

As empresas que ainda não iniciaram uma abordagem de formação de todos os colaboradores estão, portanto, tecnicamente já em atraso.

Como estruturar a conformidade

Etapa 1: Mapear os usos de IA

Antes de formar, é preciso saber o que é utilizado. Realize um inventário exaustivo de todos os sistemas de IA implementados na sua organização. Inclua as ferramentas oficiais, mas também os usos informais (o chamado “shadow IT” da IA).

Etapa 2: Identificar as populações abrangidas

Nem todos os colaboradores estão expostos da mesma forma. Segmente por:

  • Nível de interação com os sistemas de IA (utilizador diário, ocasional, indireto)
  • Nível de risco dos sistemas utilizados (scoring, recrutamento, atendimento ao cliente)
  • Conhecimentos técnicos prévios

Etapa 3: Definir um referencial de competências

Estabeleça claramente o que cada perfil deve saber. Este referencial servirá de base para avaliar o nível suficiente de literacia em IA esperado pelo regulamento.

Etapa 4: Formar e avaliar

Implemente percursos de formação adaptados e meça os resultados. Um score de literacia individual ou por equipa permite acompanhar a progressão e demonstrar o esforço de conformidade.

Etapa 5: Documentar continuamente

Constitua um dossiê de conformidade incluindo: programas de formação, taxas de participação, resultados das avaliações, atualizações regulares. Esta prova documentada será o seu melhor aliado em caso de controlo.

📄Auditoria IA na empresa: guia prático passo a passo

As sanções em caso de não conformidade

O Artigo 4 insere-se na categoria intermédia de sanções previstas pelo AI Act. O incumprimento pode resultar em coimas que podem atingir 15 milhões de euros ou 3% do volume de negócios anual mundial (o montante mais elevado sendo retido).

Mas para além das coimas, o risco reputacional é considerável. Não ter formado as suas equipas em IA quando a regulamentação o exige — é um sinal de imaturidade organizacional que nem os clientes, nem os reguladores, nem os parceiros tolerarão por muito tempo.

O que distingue o Artigo 4 das outras obrigações

O Artigo 4 é único no panorama regulamentar europeu por várias razões:

  • Diz respeito às pessoas, não aos sistemas. A maioria das obrigações do AI Act incide sobre as características técnicas dos sistemas de IA. O Artigo 4, por seu lado, incide sobre as competências dos seres humanos que os utilizam.
  • É transversal. Independentemente do nível de risco dos seus sistemas de IA, a obrigação de literacia aplica-se.
  • Já está em vigor. Sem período de transição adicional.

É também a disposição mais acessível para iniciar a conformidade com o AI Act. Antes mesmo de classificar os seus sistemas ou documentar os seus modelos, pode — e deve — começar pelo desenvolvimento de competências das suas equipas.

Ce que ça implique pour vous

O Artigo 4 faz da formação de todos os colaboradores uma obrigação legal, não uma opção. As empresas devem poder demonstrar, com provas, que o seu pessoal atinge um nível suficiente de literacia em IA — com avaliações mensuráveis, documentação rigorosa e acompanhamento contínuo. A obrigação está em vigor desde 2 de agosto de 2025. Cada dia sem ação é um dia de não conformidade.