O AI Act obriga as empresas a garantir um nível suficiente de literacia em IA para todos os colaboradores. Quem está abrangido, que provas apresentar, que sanções.
O Artigo 4 do Regulamento Europeu sobre Inteligência Artificial (Regulamento 2024/1689, designado “AI Act”) é frequentemente resumido, incorretamente, como uma simples recomendação. Na realidade, é uma obrigação jurídica vinculativa, aplicável desde 2 de agosto de 2025.
Artigo 4 — Règlement (UE) 2024/1689
Os prestadores e os responsáveis pela implantação de sistemas de IA tomam medidas para garantir, na medida do possível, um nível suficiente de literacia no domínio da IA do seu pessoal e de outras pessoas que se ocupam do funcionamento e da utilização de sistemas de IA em seu nome, tendo em conta os seus conhecimentos técnicos, a sua experiência, a sua formação e educação, bem como o contexto em que os sistemas de IA se destinam a ser utilizados, e tendo em conta as pessoas ou os grupos de pessoas relativamente aos quais os sistemas de IA se destinam a ser utilizados.
Este texto é denso. Vamos decompô-lo.
O Artigo 4 visa duas categorias de intervenientes:
Qualquer entidade que desenvolva um sistema de IA ou um modelo de IA de finalidade geral e o coloque no mercado ou em serviço sob o seu próprio nome ou marca. Isto inclui editores de software, startups de IA, empresas que desenvolvem ferramentas internas baseadas em IA.
Qualquer pessoa singular ou coletiva que utilize um sistema de IA sob a sua própria autoridade. Concretamente, isto inclui qualquer empresa que utilize ferramentas de IA nas suas operações correntes — do ChatGPT a um sistema de scoring automatizado.
Este é o ponto crucial: não precisa de desenvolver IA para estar abrangido. Se as suas equipas utilizam ferramentas de IA — mesmo ferramentas de terceiros como assistentes conversacionais, ferramentas de geração de conteúdo ou sistemas de análise automatizada — é um responsável pela implantação na aceção do regulamento.
Na prática, isto significa que a quase totalidade das empresas europeias está abrangida.
O regulamento não prescreve um programa de formação padronizado. Exige um nível suficiente de literacia em IA (AI literacy), definido no Artigo 3(56) como:
Artigo 3, parágrafo 56 — Règlement (UE) 2024/1689
As competências, os conhecimentos e a compreensão que permitem aos prestadores, aos responsáveis pela implantação e às pessoas afetadas, tendo em conta os seus respetivos direitos e obrigações no âmbito do presente regulamento, proceder a uma implantação informada dos sistemas de IA, bem como tomar consciência das oportunidades e dos riscos da IA e dos eventuais danos que esta pode causar.
Concretamente, medir o nível de competência dos seus colaboradores implica verificar que compreendem:
O nível esperado não é uniforme. O Artigo 4 precisa que a formação deve ter em conta os “conhecimentos técnicos, a experiência, a formação e educação” de cada pessoa, bem como o “contexto em que os sistemas de IA se destinam a ser utilizados”. Um desenvolvedor de IA e um gestor de clientes não terão as mesmas necessidades de desenvolvimento de competências.
O regulamento impõe “tomar medidas” para garantir este nível de literacia. Em caso de controlo ou litígio, a empresa terá de demonstrar que efetivamente agiu. É aqui que a noção de prova documentada se torna essencial.
Embora as modalidades precisas de auditoria ainda não estejam totalmente definidas pelas autoridades nacionais competentes — em Portugal, nomeadamente a CNPD (Comissão Nacional de Proteção de Dados) —, vários elementos de prova emergem como indispensáveis:
O Considerando 20 do regulamento traz um esclarecimento suplementar:
Considerando 20 — Règlement (UE) 2024/1689
As medidas de literacia no domínio da IA […] devem ser concebidas e, se for caso disso, adaptadas ao contexto em que os sistemas de IA são utilizados. […] Os prestadores e os responsáveis pela implantação podem igualmente assegurar que o pessoal técnico disponha da formação e das competências necessárias.
Por outras palavras, uma formação genérica distribuída uma única vez não será suficiente. O regulamento espera uma abordagem contextualizada, mensurável e contínua.
📄AI Act Artigo 4: a obrigação de formação em IA explicada→Ao contrário de outras disposições do AI Act que se aplicam progressivamente, o Artigo 4 é aplicável desde 2 de agosto de 2025. O cronograma completo:
| Data | Disposição |
|---|---|
| 1 de fevereiro de 2025 | Proibição das práticas de IA proibidas (Artigo 5) |
| 2 de agosto de 2025 | Artigo 4 — Obrigação de literacia em IA |
| 2 de agosto de 2025 | Obrigações para os modelos de IA de finalidade geral |
| 2 de agosto de 2026 | Obrigações para os sistemas de IA de alto risco |
As empresas que ainda não iniciaram uma abordagem de formação de todos os colaboradores estão, portanto, tecnicamente já em atraso.
Antes de formar, é preciso saber o que é utilizado. Realize um inventário exaustivo de todos os sistemas de IA implementados na sua organização. Inclua as ferramentas oficiais, mas também os usos informais (o chamado “shadow IT” da IA).
Nem todos os colaboradores estão expostos da mesma forma. Segmente por:
Estabeleça claramente o que cada perfil deve saber. Este referencial servirá de base para avaliar o nível suficiente de literacia em IA esperado pelo regulamento.
Implemente percursos de formação adaptados e meça os resultados. Um score de literacia individual ou por equipa permite acompanhar a progressão e demonstrar o esforço de conformidade.
Constitua um dossiê de conformidade incluindo: programas de formação, taxas de participação, resultados das avaliações, atualizações regulares. Esta prova documentada será o seu melhor aliado em caso de controlo.
📄Auditoria IA na empresa: guia prático passo a passo→O Artigo 4 insere-se na categoria intermédia de sanções previstas pelo AI Act. O incumprimento pode resultar em coimas que podem atingir 15 milhões de euros ou 3% do volume de negócios anual mundial (o montante mais elevado sendo retido).
Mas para além das coimas, o risco reputacional é considerável. Não ter formado as suas equipas em IA quando a regulamentação o exige — é um sinal de imaturidade organizacional que nem os clientes, nem os reguladores, nem os parceiros tolerarão por muito tempo.
O Artigo 4 é único no panorama regulamentar europeu por várias razões:
É também a disposição mais acessível para iniciar a conformidade com o AI Act. Antes mesmo de classificar os seus sistemas ou documentar os seus modelos, pode — e deve — começar pelo desenvolvimento de competências das suas equipas.
Ce que ça implique pour vous
O Artigo 4 faz da formação de todos os colaboradores uma obrigação legal, não uma opção. As empresas devem poder demonstrar, com provas, que o seu pessoal atinge um nível suficiente de literacia em IA — com avaliações mensuráveis, documentação rigorosa e acompanhamento contínuo. A obrigação está em vigor desde 2 de agosto de 2025. Cada dia sem ação é um dia de não conformidade.