O AI Act classifica os sistemas de IA em 4 níveis de risco. Recrutamento, crédito, saúde: descubra se as suas ferramentas de IA são consideradas de alto risco.
O Regulamento Europeu sobre Inteligência Artificial (Regulamento 2024/1689) assenta num princípio fundamental: as obrigações são proporcionais ao nível de risco. Quanto mais um sistema de IA pode afetar a vida, a saúde, os direitos fundamentais ou a segurança das pessoas, mais rigorosas são as exigências.
Esta abordagem graduada distingue o AI Act de regulamentações mais binárias. Permite não travar a inovação nos usos de baixo risco, enquanto enquadra firmemente as aplicações mais sensíveis.
Considerando 26 — Règlement (UE) 2024/1689
Os sistemas de IA que apresentam um nível de risco elevado para a saúde, a segurança ou os direitos fundamentais das pessoas singulares devem ser sujeitos a requisitos rigorosos antes de poderem ser colocados no mercado da União.
Certas utilizações da IA são pura e simplesmente proibidas (Artigo 5). O scoring social, a manipulação subliminar, a exploração de vulnerabilidades das pessoas e o reconhecimento biométrico em tempo real nos espaços públicos (salvo exceções) estão proibidos desde 1 de fevereiro de 2025.
É a categoria que abrange o maior número de empresas. Os sistemas de IA de alto risco estão definidos nos Artigos 6 e 7 e listados em detalhe no Anexo III do regulamento. As obrigações associadas são substanciais: avaliação de conformidade, documentação técnica, controlo humano, gestão de riscos, governança de dados.
Sistemas como chatbots, geradores de conteúdo (deepfakes, textos) ou sistemas de reconhecimento de emoções não abrangidos pela proibição estão sujeitos a obrigações de transparência. O utilizador deve saber que está a interagir com uma IA ou que o conteúdo foi gerado por IA.
A grande maioria dos sistemas de IA: filtros anti-spam, recomendações de produtos, corretores ortográficos. O AI Act não impõe restrições específicas, embora o cumprimento do Artigo 4 sobre literacia em IA se aplique igualmente a todos os responsáveis pela implantação.
O Anexo III do regulamento lista os domínios em que um sistema de IA é considerado de alto risco. Eis os casos concretos que abrangem a maioria das empresas.
É o domínio que mais surpreende as empresas. O Anexo III, ponto 4, visa os sistemas de IA utilizados em:
Anexo III, ponto 4 — Règlement (UE) 2024/1689
Emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria, nomeadamente para o recrutamento e a seleção de pessoas, para a tomada de decisões relativas às condições das relações de trabalho, promoção e cessação, e para a atribuição de tarefas, o acompanhamento ou a avaliação do desempenho e do comportamento das pessoas.
Concretamente, são considerados de alto risco:
Se o seu departamento de RH utiliza uma ferramenta de triagem automática de CV ou um chatbot de recrutamento, trata-se provavelmente de um sistema de alto risco na aceção do AI Act.
📄IA para RH: guia completo de transformação dos recursos humanos→O Anexo III, ponto 5(b) abrange os sistemas de IA utilizados para:
Qualquer banco ou seguradora que utilize um modelo de IA para decidir conceder ou recusar um crédito, ou para fixar um prémio de seguro, está abrangido. Em Portugal, instituições como a Caixa Geral de Depósitos ou o Millennium BCP, que utilizam modelos de scoring automatizado, devem avaliar se os seus sistemas se enquadram nesta categoria. A deteção de fraude é explicitamente excluída do alto risco — mas atenção, os sistemas de scoring que vão além da simples deteção podem cair nesta categoria.
O Anexo III, ponto 1 engloba os sistemas de IA que são dispositivos médicos ou acessórios de dispositivos médicos na aceção dos regulamentos europeus. Isto inclui:
O Anexo III, ponto 3 visa os sistemas de IA utilizados para:
O Anexo III, pontos 6, 7 e 8 abrangem:
O Anexo III, ponto 2 abrange as componentes de segurança da gestão e da operação de infraestruturas digitais críticas, do tráfego rodoviário e do abastecimento de água, gás, aquecimento e eletricidade.
O Anexo III, ponto 7 inclui os sistemas utilizados para a avaliação dos riscos de migração irregular, a análise de pedidos de visto e títulos de residência, e a identificação de pessoas no âmbito da migração.
Se um ou mais dos seus sistemas de IA estão classificados como alto risco, eis o que o regulamento exige:
Antes da colocação no mercado ou da entrada em serviço, o sistema deve ser objeto de uma avaliação de conformidade que abranja:
As empresas que utilizam sistemas de IA de alto risco (responsáveis pela implantação) têm obrigações próprias:
A primeira etapa da conformidade é saber exatamente que sistemas de IA utiliza e em que categoria se situam.
Liste todas as ferramentas que integram IA na sua organização. Não esqueça:
Para cada ferramenta identificada, determine:
Para cada sistema de alto risco, compare a sua situação atual com os requisitos dos Artigos 9 a 15 e do Artigo 26. Identifique os desfasamentos e priorize as ações corretivas.
Constitua um dossiê de conformidade por sistema, incluindo a classificação, a documentação técnica, as avaliações realizadas e as medidas de controlo implementadas. Esta documentação estruturada será a sua referência em caso de auditoria.
Para cada sistema de alto risco, as pessoas encarregadas do controlo humano devem ter as competências necessárias (Artigo 14). Isto complementa a obrigação do Artigo 4 sobre literacia em IA, mas com um nível de exigência mais elevado: estas pessoas devem compreender as capacidades e limitações específicas do sistema que supervisionam.
Os modelos de IA de finalidade geral (como GPT-4, Claude, Gemini) são objeto de disposições específicas (Artigos 51 a 56). Quando um modelo de finalidade geral é integrado num sistema de IA classificado como alto risco, as obrigações de alto risco aplicam-se ao sistema no seu conjunto — mesmo que o modelo subjacente seja, em si, uma ferramenta generalista.
Isto significa que utilizar o ChatGPT para responder a candidatos num processo de recrutamento pode transformar uma ferramenta “generalista” em componente de um sistema de alto risco.
Ce que ça implique pour vous
A classificação dos seus sistemas de IA não é um exercício teórico — é a pedra angular da sua conformidade com o AI Act. Se utiliza IA no recrutamento, na avaliação de desempenho, no scoring de crédito ou no apoio ao diagnóstico, está provavelmente a operar sistemas de alto risco. Cada sistema abrangido exige uma avaliação de conformidade, uma documentação técnica, um controlo humano efetivo e pessoas formadas para o assegurar. Comece pelo inventário. Hoje.