O AI Act proíbe certas utilizações da IA desde fevereiro de 2025. Scoring social, manipulação, reconhecimento de emoções: o ponto completo.
Antes mesmo de abordar os sistemas de alto risco, as obrigações de transparência ou a literacia em IA, o Regulamento Europeu sobre Inteligência Artificial (Regulamento 2024/1689) traça linhas vermelhas absolutas. O Artigo 5 lista as práticas de IA pura e simplesmente proibidas na União Europeia.
Estas proibições estão em vigor desde 1 de fevereiro de 2025. Não são prazos futuros: aplicam-se agora.
Artigo 5, parágrafo 1 — Règlement (UE) 2024/1689
São proibidas as seguintes práticas no domínio da inteligência artificial: […] a colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que recorra a técnicas subliminais […] ou a técnicas deliberadamente manipuladoras ou enganosas que tenham por objetivo ou por efeito distorcer substancialmente o comportamento de uma pessoa […] de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa pessoa ou a outra pessoa.
O AI Act proíbe os sistemas que avaliem ou classifiquem pessoas singulares com base no seu comportamento social ou em características pessoais, quando essa pontuação conduza a um tratamento desfavorável em contextos sem relação com a recolha dos dados, ou desproporcionado em relação ao comportamento em questão.
Atenção: ao contrário do que se pensa frequentemente, esta proibição não visa apenas os governos. Aplica-se também aos agentes privados. Uma empresa que construísse um “score de fiabilidade” dos seus clientes, agregando dados de pagamento, comportamento online e interações com o serviço ao cliente — e utilizasse essa pontuação para recusar serviços — estaria em infração.
Exemplos concretos de usos agora ilegais:
Qualquer sistema de IA concebido para alterar o comportamento de uma pessoa sem o seu conhecimento é proibido. Isto abrange as técnicas subliminares (estímulos impercetíveis pela consciência) e as técnicas deliberadamente manipuladoras ou enganosas.
Exemplos:
Os sistemas de IA que exploram vulnerabilidades ligadas à idade, à deficiência ou à situação social ou económica de uma pessoa para alterar substancialmente o seu comportamento são proibidos.
Exemplos:
A utilização de sistemas de identificação biométrica à distância “em tempo real” nos espaços acessíveis ao público para fins repressivos é proibida, com três exceções estritamente enquadradas:
Mesmo nestes casos, a utilização requer autorização judicial prévia e está sujeita a garantias rigorosas.
Artigo 5, parágrafo 1, alínea f — Règlement (UE) 2024/1689
[É proibida] a colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para inferir as emoções de uma pessoa singular no local de trabalho e nos estabelecimentos de ensino, exceto quando a utilização do sistema de IA se destine a ser instalada ou colocada no mercado por razões médicas ou de segurança.
Esta proibição é particularmente pertinente para as empresas. Abrange:
As únicas exceções: os usos com finalidade médica (deteção de dor em pacientes não comunicantes, por exemplo) ou de segurança (deteção de fadiga num condutor profissional).
O AI Act proíbe a constituição ou expansão de bases de dados de reconhecimento facial pela recolha não direcionada de imagens a partir da internet ou de videovigilância. É uma resposta direta às práticas de empresas como a Clearview AI, que constituiu uma base de vários milhares de milhões de rostos aspirando fotos públicas.
📄Riscos da IA na empresa: identificar e gerir eficazmente→A maioria das empresas pensa espontaneamente que estas proibições não lhes dizem respeito. Mas certos usos, nomeadamente em RH e marketing, podem aproximar-se perigosamente.
Faça a si mesmo estas perguntas:
Se a resposta a uma destas perguntas é “sim” ou “talvez”, uma análise aprofundada impõe-se.
O conhecimento destas proibições pelos colaboradores é essencial. A obrigação de literacia em IA (Artigo 4) inclui necessariamente a compreensão do que é proibido. Um colaborador que não sabe que é ilegal utilizar o reconhecimento de emoções em contexto profissional não pode sinalizar um uso não conforme.
A formação das equipas sobre estas proibições não é opcional — é uma condição prévia a qualquer governança de IA responsável.
📄AI Act Artigo 4: a obrigação de formação em IA explicada→As práticas proibidas são objeto do nível de sanções mais elevado do AI Act: até 35 milhões de euros ou 7% do volume de negócios anual mundial, o montante mais elevado sendo retido. São as coimas mais pesadas alguma vez previstas por uma regulamentação digital europeia — mais elevadas do que as do RGPD. Em Portugal, a CNPD (Comissão Nacional de Proteção de Dados) terá um papel central na fiscalização destas práticas, em articulação com as autoridades setoriais.
Ce que ça implique pour vous
As proibições do Artigo 5 estão em vigor desde 1 de fevereiro de 2025. Scoring social, manipulação por IA, reconhecimento de emoções no trabalho: estas práticas são agora ilegais, com sanções que podem atingir 35 milhões de euros. O desafio para as empresas é duplo: verificar imediatamente que nenhuma ferramenta de IA em uso ultrapassa estas linhas vermelhas, e formar as equipas para reconhecer os usos proibidos antes que um incidente ocorra.