Práticas de IA proibidas: o que a sua empresa já não pode fazer

O AI Act proíbe certas utilizações da IA desde fevereiro de 2025. Scoring social, manipulação, reconhecimento de emoções: o ponto completo.

As linhas vermelhas da inteligência artificial

Antes mesmo de abordar os sistemas de alto risco, as obrigações de transparência ou a literacia em IA, o Regulamento Europeu sobre Inteligência Artificial (Regulamento 2024/1689) traça linhas vermelhas absolutas. O Artigo 5 lista as práticas de IA pura e simplesmente proibidas na União Europeia.

Estas proibições estão em vigor desde 1 de fevereiro de 2025. Não são prazos futuros: aplicam-se agora.

Artigo 5, parágrafo 1Règlement (UE) 2024/1689

São proibidas as seguintes práticas no domínio da inteligência artificial: […] a colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que recorra a técnicas subliminais […] ou a técnicas deliberadamente manipuladoras ou enganosas que tenham por objetivo ou por efeito distorcer substancialmente o comportamento de uma pessoa […] de uma forma que cause ou seja razoavelmente suscetível de causar danos significativos a essa pessoa ou a outra pessoa.

As seis categorias de práticas proibidas

1. O scoring social

O AI Act proíbe os sistemas que avaliem ou classifiquem pessoas singulares com base no seu comportamento social ou em características pessoais, quando essa pontuação conduza a um tratamento desfavorável em contextos sem relação com a recolha dos dados, ou desproporcionado em relação ao comportamento em questão.

Atenção: ao contrário do que se pensa frequentemente, esta proibição não visa apenas os governos. Aplica-se também aos agentes privados. Uma empresa que construísse um “score de fiabilidade” dos seus clientes, agregando dados de pagamento, comportamento online e interações com o serviço ao cliente — e utilizasse essa pontuação para recusar serviços — estaria em infração.

Exemplos concretos de usos agora ilegais:

  • Uma seguradora que agrega dados de redes sociais para avaliar o “perfil de risco comportamental” de um cliente
  • Um senhorio que utiliza um score combinando histórico de pagamento, atividade online e dados de geolocalização para filtrar inquilinos
  • Um empregador que constrói um “score de engagement” automatizado condicionando o acesso a benefícios

2. A manipulação subliminar e as técnicas enganosas

Qualquer sistema de IA concebido para alterar o comportamento de uma pessoa sem o seu conhecimento é proibido. Isto abrange as técnicas subliminares (estímulos impercetíveis pela consciência) e as técnicas deliberadamente manipuladoras ou enganosas.

Exemplos:

  • Um sistema que adapta a interface de um site de e-commerce para explorar vieses cognitivos identificados por IA (dark patterns alimentados por IA)
  • Uma ferramenta de negociação automatizada que analisa micro-expressões em tempo real para manipular o interlocutor
  • Um sistema de tarifação dinâmica que explora o estado emocional detetado do utilizador

3. A exploração de vulnerabilidades

Os sistemas de IA que exploram vulnerabilidades ligadas à idade, à deficiência ou à situação social ou económica de uma pessoa para alterar substancialmente o seu comportamento são proibidos.

Exemplos:

  • Um chatbot comercial que visa especificamente pessoas idosas com técnicas de persuasão adaptadas às suas vulnerabilidades cognitivas
  • Um sistema de publicidade direcionada que visa pessoas em situação de sobre-endividamento para lhes propor créditos ao consumo
  • Um jogo online que utiliza IA para identificar e explorar comportamentos aditivos de menores

4. O reconhecimento biométrico em tempo real nos espaços públicos

A utilização de sistemas de identificação biométrica à distância “em tempo real” nos espaços acessíveis ao público para fins repressivos é proibida, com três exceções estritamente enquadradas:

  • A busca direcionada de vítimas de rapto, tráfico de seres humanos ou exploração sexual
  • A prevenção de uma ameaça terrorista específica e iminente
  • A localização ou identificação de uma pessoa suspeita de ter cometido determinadas infrações graves

Mesmo nestes casos, a utilização requer autorização judicial prévia e está sujeita a garantias rigorosas.

5. O reconhecimento de emoções no trabalho e na educação

Artigo 5, parágrafo 1, alínea fRèglement (UE) 2024/1689

[É proibida] a colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para inferir as emoções de uma pessoa singular no local de trabalho e nos estabelecimentos de ensino, exceto quando a utilização do sistema de IA se destine a ser instalada ou colocada no mercado por razões médicas ou de segurança.

Esta proibição é particularmente pertinente para as empresas. Abrange:

  • Ferramentas de análise de emoções em videoconferência: sistemas que analisam as expressões faciais dos participantes durante reuniões
  • Sistemas de vigilância emocional: câmaras ou softwares que detetam o stress, a frustração ou o desengagement dos colaboradores
  • Análise de emoções em formações: ferramentas que medem o estado emocional dos formandos para adaptar o conteúdo

As únicas exceções: os usos com finalidade médica (deteção de dor em pacientes não comunicantes, por exemplo) ou de segurança (deteção de fadiga num condutor profissional).

6. A constituição de bases de dados faciais por scraping

O AI Act proíbe a constituição ou expansão de bases de dados de reconhecimento facial pela recolha não direcionada de imagens a partir da internet ou de videovigilância. É uma resposta direta às práticas de empresas como a Clearview AI, que constituiu uma base de vários milhares de milhões de rostos aspirando fotos públicas.

📄Riscos da IA na empresa: identificar e gerir eficazmente

Como verificar se a sua empresa está em infração

A maioria das empresas pensa espontaneamente que estas proibições não lhes dizem respeito. Mas certos usos, nomeadamente em RH e marketing, podem aproximar-se perigosamente.

Checklist de verificação

Faça a si mesmo estas perguntas:

  • Scoring e classificação: Atribui pontuações automatizadas a indivíduos (clientes, colaboradores, candidatos) que combinam dados de contextos diferentes?
  • Persuasão e personalização: Os seus sistemas de recomendação ou de marketing exploram vulnerabilidades identificadas (idade, situação financeira, estado emocional)?
  • Vigilância emocional: Utiliza ferramentas que analisam as expressões faciais, a voz ou o comportamento dos seus colaboradores para fins que não sejam médicos ou de segurança?
  • Biometria: Utiliza reconhecimento facial nas suas instalações? Se sim, em que condições?
  • Dados de rostos: Os seus fornecedores de IA constituíram as suas bases de treino por scraping de imagens online?

Se a resposta a uma destas perguntas é “sim” ou “talvez”, uma análise aprofundada impõe-se.

O papel da formação

O conhecimento destas proibições pelos colaboradores é essencial. A obrigação de literacia em IA (Artigo 4) inclui necessariamente a compreensão do que é proibido. Um colaborador que não sabe que é ilegal utilizar o reconhecimento de emoções em contexto profissional não pode sinalizar um uso não conforme.

A formação das equipas sobre estas proibições não é opcional — é uma condição prévia a qualquer governança de IA responsável.

📄AI Act Artigo 4: a obrigação de formação em IA explicada

As sanções

As práticas proibidas são objeto do nível de sanções mais elevado do AI Act: até 35 milhões de euros ou 7% do volume de negócios anual mundial, o montante mais elevado sendo retido. São as coimas mais pesadas alguma vez previstas por uma regulamentação digital europeia — mais elevadas do que as do RGPD. Em Portugal, a CNPD (Comissão Nacional de Proteção de Dados) terá um papel central na fiscalização destas práticas, em articulação com as autoridades setoriais.

Ce que ça implique pour vous

As proibições do Artigo 5 estão em vigor desde 1 de fevereiro de 2025. Scoring social, manipulação por IA, reconhecimento de emoções no trabalho: estas práticas são agora ilegais, com sanções que podem atingir 35 milhões de euros. O desafio para as empresas é duplo: verificar imediatamente que nenhuma ferramenta de IA em uso ultrapassa estas linhas vermelhas, e formar as equipas para reconhecer os usos proibidos antes que um incidente ocorra.