Voltar ao início

Práticas proibidas (Art. 5)

8 utilizações de inteligência artificial absolutamente proibidas na União Europeia

O Artigo 5 do Regulamento (UE) 2024/1689 (AI Act) estabelece uma lista taxativa de práticas de IA consideradas inaceitáveis, por representarem riscos claros e graves para a segurança, os meios de subsistência e os direitos fundamentais dos cidadãos europeus. Estas proibições constituem a primeira linha de defesa do regulamento contra as utilizações mais perigosas da inteligência artificial.

EM VIGOR Em vigor desde 2 de fevereiro de 2025 — Estas proibições já se aplicam a todas as organizações que operam na UE, independentemente de estarem sediadas dentro ou fora do espaço europeu.
Penalização por violação das práticas proibidas: até 35 milhões de euros (35M€) ou 7% da faturação global anual (o valor mais elevado). Esta é a multa mais pesada prevista no AI Act, refletindo a gravidade destas infrações.

Contexto e fundamentação

O AI Act adota uma abordagem baseada no risco, classificando os sistemas de IA em quatro categorias: risco inaceitável (proibido), alto risco, risco limitado (obrigações de transparência) e risco mínimo. As práticas proibidas do Artigo 5 representam o nível mais elevado de risco -- são utilizações que a União Europeia considera fundamentalmente incompatíveis com os valores europeus e os direitos fundamentais consagrados na Carta dos Direitos Fundamentais da UE.

As proibições foram as primeiras disposições do AI Act a entrar em vigor, tendo-se tornado aplicáveis a 2 de fevereiro de 2025, apenas seis meses após a publicação do regulamento no Jornal Oficial da União Europeia (1 de agosto de 2024). Este calendário acelerado sublinha a urgência que o legislador europeu atribuiu à proteção contra estas práticas.

As oito proibições abrangem uma variedade de técnicas e contextos, desde a manipulação comportamental subliminar até à vigilância biométrica em massa, passando pela classificação social e pelo policiamento preditivo baseado em perfis.

As 8 práticas proibidas (Art. 5)

Cada prática está detalhada com a referência ao artigo correspondente, a descrição legal e exemplos práticos de aplicação.

1

Manipulação subliminar/enganosa

Art. 5(1)(a)

Sistemas que utilizam técnicas subliminares ou deliberadamente manipuladoras/enganosas para distorcer materialmente o comportamento de uma pessoa ou grupo, levando-as a tomar decisões que de outra forma não tomariam, causando ou suscetíveis de causar prejuízo significativo.

Exemplos: Interfaces que utilizam padrões escuros (dark patterns) com técnicas subliminares indetectáveis pelo utilizador; sistemas de IA que manipulam decisões de compra, voto ou consentimento através de técnicas psicológicas ocultas; chatbots que exploram vieses cognitivos para influenciar comportamentos de forma encoberta.

2

Exploração de vulnerabilidades

Art. 5(1)(b)

Sistemas que exploram vulnerabilidades de pessoas ou grupos devido à idade, deficiência ou situação socioeconómica específica, com o objetivo ou efeito de distorcer materialmente o seu comportamento, causando ou suscetíveis de causar prejuízo significativo.

Exemplos: Brinquedos inteligentes com assistente de voz que incentivam crianças a comportamentos perigosos; sistemas de publicidade direcionada que exploram idosos com ofertas predatórias de crédito; aplicações que tiram partido de deficiências cognitivas para obter dados pessoais ou consentimentos indevidos.

3

Social scoring

Art. 5(1)(c)

Sistemas de classificação social (social scoring) por autoridades públicas ou em seu nome, que avaliem ou classifiquem pessoas com base no seu comportamento social ou características pessoais, quando a classificação social conduza a um tratamento prejudicial ou desfavorável desproporcional ou injustificado.

Exemplos: Sistemas semelhantes ao «Crédito Social» chinês que atribuem pontuações aos cidadãos com base no seu comportamento quotidiano; plataformas governamentais que condicionam o acesso a serviços públicos com base em classificações sociais automatizadas; sistemas municipais que restringem direitos com base em avaliações algorítmicas de «boa conduta».

4

Policiamento preditivo baseado em perfis

Art. 5(1)(d)

Sistemas para avaliar o risco de uma pessoa cometer infrações penais com base unicamente em perfis ou avaliação de traços e características de personalidade, exceto quando utilizados para apoiar a avaliação humana com base em factos objetivos e verificáveis diretamente ligados a atividade criminosa.

Exemplos: Sistemas policiais que classificam indivíduos como «potenciais criminosos» com base exclusivamente na sua etnia, bairro de residência ou características socioeconómicas; algoritmos de previsão criminal que se baseiam apenas em perfis psicológicos sem elementos factuais objetivos; ferramentas que geram «pontuações de risco criminal» baseadas em traços de personalidade.

Nota: Esta proibição não impede o uso de IA como ferramenta de apoio à avaliação humana quando baseada em factos objetivos e verificáveis diretamente ligados a atividade criminosa.
5

Recolha não direcionada de imagens faciais

Art. 5(1)(e)

Sistemas que criam ou expandem bases de dados de reconhecimento facial através da recolha não direcionada de imagens faciais da internet ou de imagens de videovigilância (CCTV).

Exemplos: Práticas semelhantes às do Clearview AI, que recolheu milhares de milhões de imagens faciais de redes sociais para criar uma base de dados de reconhecimento facial; web scraping de fotografias de perfis públicos para alimentar bases de dados biométricas; recolha massiva e indiscriminada de imagens de câmaras de vigilância para treinar modelos de reconhecimento facial.

6

Reconhecimento de emoções no trabalho/educação

Art. 5(1)(f)

Sistemas de reconhecimento de emoções no local de trabalho e em instituições de ensino, exceto quando o sistema se destine a ser utilizado por razões médicas ou de segurança.

Exemplos: Câmaras com IA em escritórios que monitorizam o estado emocional dos trabalhadores para avaliar produtividade; software em salas de aula que analisa expressões faciais dos alunos para medir atenção ou engagement; sistemas de entrevistas de emprego que avaliam candidatos com base nas suas microexpressões faciais.

Exceção: É permitido quando utilizado por razões médicas (ex.: deteção de estados emocionais de pacientes para fins terapêuticos) ou de segurança (ex.: monitorização de fadiga de pilotos ou condutores profissionais).
7

Categorização biométrica por atributos sensíveis

Art. 5(1)(g)

Sistemas de categorização biométrica que classifiquem individualmente pessoas com base nos seus dados biométricos para deduzir a raça, opiniões políticas, filiação sindical, convicções religiosas ou filosóficas, vida sexual ou orientação sexual. Não se aplica à rotulagem ou filtragem de conjuntos de dados biométricos adquiridos licitamente no contexto da aplicação da lei.

Exemplos: Sistemas que analisam fotografias ou vídeos para classificar automaticamente a etnia ou religião de indivíduos; algoritmos que tentam inferir orientação sexual a partir de características biométricas faciais; ferramentas de categorização que deduzem filiação política de pessoas a partir de dados biométricos comportamentais.

8

Identificação biométrica remota em tempo real em espaços públicos

Art. 5(1)(h)

Sistemas de identificação biométrica remota em tempo real em espaços acessíveis ao público para efeitos de aplicação da lei, exceto quando estritamente necessário para:

  • Busca direcionada de vítimas de rapto, tráfico de seres humanos ou exploração sexual
  • Prevenção de ameaça terrorista específica e iminente
  • Localização ou identificação de suspeitos de crimes graves, conforme definido no Art. 5(2)

Exemplos: Vigilância facial em massa em espaços públicos como estações de comboio, centros comerciais ou praças; sistemas de reconhecimento facial em tempo real implementados sem as exceções legais previstas; câmaras inteligentes que identificam todos os transeuntes sem mandado judicial ou justificação específica.

Exceções para autoridades policiais

O Art. 5(2) e Art. 5(3) estabelecem condições estritas sob as quais a identificação biométrica remota em tempo real pode ser utilizada por forças de segurança.

Art. 5(2) e Art. 5(3) — Exceções estritamente limitadas à identificação biométrica remota em tempo real para efeitos de aplicação da lei

Situações em que a identificação biométrica remota em tempo real pode ser autorizada:

  • Busca direcionada de vítimas

    Procura de vítimas específicas de rapto, tráfico de seres humanos ou exploração sexual de crianças e adultos.

  • Prevenção de ameaça terrorista

    Prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física das pessoas, incluindo um ataque terrorista.

  • Localização de suspeitos de crimes graves

    Localização ou identificação de pessoa suspeita de ter cometido uma infração penal grave, nos termos do artigo 2.º, n.º 2, da Decisão-Quadro 2002/584/JAI do Conselho (mandado de detenção europeu), punível com pena ou medida de segurança privativa de liberdade de duração máxima não inferior a 4 anos.

Condições obrigatórias para a utilização destas exceções:

Autorização judicial prévia — Necessária autorização de uma autoridade judicial ou de outra autoridade administrativa independente antes da utilização. Em casos de urgência, a autorização pode ser obtida durante ou após a utilização, mas no prazo máximo de 24 horas.

Necessidade e proporcionalidade — A utilização deve ser estritamente necessária e proporcional, limitada no tempo e no espaço geográfico. Deve existir uma avaliação prévia do impacto nos direitos fundamentais e uma notificação à autoridade de proteção de dados.

Avaliação de impacto — Antes da utilização, deve ser realizada uma avaliação do impacto nos direitos fundamentais. Se a autoridade judicial ou administrativa independente recusar a autorização, a utilização deve cessar imediatamente e todos os dados devem ser eliminados.

Notificação obrigatória — A autoridade de fiscalização do mercado competente e a autoridade nacional de proteção de dados devem ser notificadas. Os Estados-Membros podem optar por legislação nacional mais restritiva, podendo proibir totalmente estas exceções.

Importante: Os Estados-Membros da UE podem adotar legislação nacional mais restritiva do que o AI Act, incluindo a proibição total da identificação biométrica remota em tempo real no seu território. Cada país deve notificar a Comissão Europeia sobre a respetiva legislação nacional até 2 de agosto de 2025.

Penalizações por violação

As práticas proibidas do Art. 5 estão sujeitas às multas mais elevadas de todo o AI Act, refletindo a sua gravidade.

Empresas

35M€

ou 7% da faturação global anual

(o valor mais elevado)

PME e startups

35M€

ou 7% da faturação global anual

Aplicam-se os mesmos limites máximos

Nota: Para efeitos de cálculo da multa, a «faturação global anual» refere-se ao exercício financeiro anterior. Se a empresa fizer parte de um grupo, considera-se a faturação consolidada do grupo a nível mundial.
Comparação: As práticas proibidas têm a penalização mais elevada do AI Act. Para sistemas de alto risco, a multa máxima é de 15M€ ou 3% da faturação global. Para outras infrações, é de 7,5M€ ou 1,5% da faturação global. Consulte a página Penalizações para mais detalhes.

Resumo das 8 proibições

# Prática proibida Artigo Exceções
1 Manipulação subliminar/enganosa Art. 5(1)(a) Não
2 Exploração de vulnerabilidades Art. 5(1)(b) Não
3 Social scoring Art. 5(1)(c) Não
4 Policiamento preditivo baseado em perfis Art. 5(1)(d) Limitadas
5 Recolha não direcionada de imagens faciais Art. 5(1)(e) Não
6 Reconhecimento de emoções no trabalho/educação Art. 5(1)(f) Médica/segurança
7 Categorização biométrica por atributos sensíveis Art. 5(1)(g) Aplicação da lei
8 Identificação biométrica remota em tempo real Art. 5(1)(h) Art. 5(2)-(3)

Perguntas frequentes sobre práticas proibidas

As proibições aplicam-se a empresas fora da UE?

Sim. As proibições aplicam-se a qualquer organização que coloque no mercado, ponha em serviço ou utilize sistemas de IA no território da UE, independentemente de estar sediada dentro ou fora da União Europeia. O AI Act tem aplicação extraterritorial, à semelhança do RGPD.

É possível utilizar reconhecimento facial em espaços públicos?

A utilização de identificação biométrica remota em tempo real em espaços públicos está, em princípio, proibida. Existem apenas três exceções muito restritas para fins de aplicação da lei (busca de vítimas, prevenção de ameaças terroristas e localização de suspeitos de crimes graves), todas sujeitas a autorização judicial prévia e condições estritas de proporcionalidade. Os Estados-Membros podem proibir totalmente estas exceções.

O que devo fazer se o meu sistema se enquadrar numa prática proibida?

Se o seu sistema de IA se enquadra numa das práticas proibidas do Art. 5, deve cessar imediatamente a sua utilização, colocação no mercado ou disponibilização no território da UE. Recomenda-se uma avaliação jurídica especializada para confirmar a classificação e definir os próximos passos, incluindo eventuais adaptações que permitam a conformidade com o regulamento.

Os sistemas de IA de deteção de emoções são totalmente proibidos?

Não. A proibição do Art. 5(1)(f) aplica-se especificamente ao reconhecimento de emoções no local de trabalho e em instituições de ensino. Existem exceções para utilizações por razões médicas (como monitorização de pacientes) ou de segurança (como deteção de fadiga em condutores profissionais). Noutros contextos, os sistemas de reconhecimento de emoções podem estar sujeitos a obrigações de transparência.

Desde quando estão estas proibições em vigor?

As proibições do Artigo 5 entraram em vigor a 2 de fevereiro de 2025, seis meses após a publicação do AI Act no Jornal Oficial da UE (1 de agosto de 2024). Foram as primeiras disposições do regulamento a tornarem-se aplicáveis, sublinhando a prioridade dada pelo legislador europeu à proteção contra estas práticas.

Verifique se o seu sistema é proibido

Utilize o classificador de risco para verificar se o seu sistema de IA se enquadra numa das práticas proibidas do Art. 5 ou noutra categoria de risco.

Classificar sistema de IA Sistemas alto risco Ver penalizações