Glossário AI Act

38 termos-chave do Regulamento (UE) 2024/1689 explicados em português

Este glossário é usado pelos tooltips inline no resto do site. Passe o rato sobre termos como GPAI, FRIA ou alto risco em qualquer página para ver uma definição curta - aqui encontra a referência completa.

Core AI Act

AI Act

Regulamento (UE) 2024/1689 - primeiro quadro jurídico mundial sobre inteligência artificial. Publicado a 12 de julho de 2024 no Jornal Oficial da UE, em vigor desde 1 de agosto de 2024.

Aplicação faseada: 2 fev 2025 (práticas proibidas, literacia) · 2 ago 2025 (GPAI, penalizações) · 2 ago 2026 (alto risco, transparência) · 2 ago 2027 (Anexo I).

Ver página dedicada →

GPAI - General-Purpose AI

Modelo de IA de propósito geral, treinado num conjunto vasto de dados e capaz de desempenhar uma diversidade de tarefas distintas. Regulado pelos Art. 51 a 55 do AI Act.

Modelos com risco sistémico (treino > 10²⁵ FLOPs) têm obrigações reforçadas (Art. 55).

Ver página dedicada →

FRIA - Fundamental Rights Impact Assessment

Avaliação de Impacto sobre Direitos Fundamentais. Obrigatória, antes de colocar em serviço sistemas de IA de alto risco, para entidades públicas, entidades privadas que prestam serviços públicos, e entidades dos setores bancário e segurador que usem sistemas de avaliação de crédito ou de risco em pessoas (Art. 27).

Modelo FRIA →

FLOPs - Floating-point operations

Unidade de computação usada para medir o esforço de treino de modelos de IA. O AI Act considera que modelos GPAI treinados com computação cumulativa superior a 10²⁵ FLOPs apresentam risco sistémico (Art. 51(2)). A Comissão pode atualizar este limiar por atos delegados.

Provider - Fornecedor

Pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolve um sistema de IA ou um modelo GPAI, ou que manda desenvolver um sistema de IA, e o coloca no mercado ou o põe em serviço sob o seu próprio nome ou marca (Art. 3(3)).

Tem o conjunto mais extenso de obrigações (Art. 16): documentação técnica, gestão de risco, governação de dados, supervisão humana, declaração de conformidade, marcação CE, etc.

Deployer - Implementador / utilizador

Pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utiliza um sistema de IA sob a sua autoridade (Art. 3(4)). Excetua-se a utilização pessoal não-profissional.

Obrigações resumidas no Art. 26: seguir instruções de utilização, garantir supervisão humana, monitorizar funcionamento, conservar logs, realizar FRIA quando aplicável.

Alto risco

Sistema de IA classificado como tal pelo Art. 6: (i) componente de segurança de produtos abrangidos pelo Anexo I, ou (ii) sistema usado nas 8 áreas do Anexo III (biometria, infraestruturas, educação, emprego, serviços essenciais, aplicação da lei, migração, justiça). Exceções para tarefas restritas no Art. 6(3).

Ver página dedicada →

Risco sistémico

Risco específico das capacidades de impacto elevado de modelos GPAI, que pode causar efeitos negativos significativos à saúde pública, à segurança, aos direitos fundamentais ou à sociedade no seu todo. Presumido para modelos com treino > 10²⁵ FLOPs (Art. 51).

Sandbox regulatória

Ambiente controlado de testes para sistemas de IA, sob supervisão da autoridade competente, antes da colocação no mercado (Art. 57-63). Cada Estado-Membro deve disponibilizar pelo menos uma a partir de 2 de agosto de 2026.

Anexo III

Lista das 8 áreas em que sistemas de IA são classificados como alto risco: 1) biometria; 2) infraestruturas críticas; 3) educação e formação profissional; 4) emprego e gestão de trabalhadores; 5) acesso a serviços privados essenciais e públicos; 6) aplicação da lei; 7) migração, asilo e fronteiras; 8) administração da justiça e processos democráticos.

Anexo I

Lista da legislação de harmonização da União (máquinas, brinquedos, equipamento radioeléctrico, dispositivos médicos, equipamento de proteção individual, embarcações de recreio, ascensores, etc.). Sistemas de IA que sejam componentes de segurança de produtos abrangidos são de alto risco (Art. 6(1)).

Anexo IV

Especifica o conteúdo da documentação técnica obrigatória para sistemas de IA de alto risco (Art. 11): descrição geral, elementos detalhados, monitorização, sistema de gestão de qualidade, etc.

Práticas e categorias

Prática proibida

Uma das 8 práticas de IA banidas pelo Art. 5: manipulação subliminar, exploração de vulnerabilidades, social scoring, policiamento preditivo baseado em perfis, recolha não direcionada de imagens faciais, reconhecimento de emoções no trabalho/educação, categorização biométrica por atributos sensíveis, identificação biométrica remota em tempo real em espaços públicos.

Penalização: até 35M€ ou 7% da faturação global.

Ver página dedicada →

Social scoring

Avaliação ou classificação de pessoas singulares com base no comportamento social ou em características pessoais previstas/inferidas, com efeitos adversos injustificados ou desproporcionados em determinados contextos. Proibida pelo Art. 5(1)(c).

Deepfake

Conteúdo de imagem, áudio ou vídeo gerado ou manipulado por IA que se assemelha a pessoas, objetos, locais ou outras entidades ou eventos existentes, e que, falsamente, parece a uma pessoa ser autêntico ou verídico. Sujeito a obrigação de marcação (Art. 50(4)), com exceções artísticas, satíricas e de aplicação da lei.

Conteúdo sintético

Conteúdo gerado por IA (texto, imagem, áudio ou vídeo). Os fornecedores de sistemas que geram tais conteúdos devem assegurar que os outputs são marcados em formato legível por máquina (Art. 50(2)).

Biometria

Características biológicas, fisiológicas, comportamentais ou físicas que permitem identificação ou inferir características. Várias utilizações são alto risco (Anexo III) ou proibidas (Art. 5).

Identificação biométrica remota

Identificação de pessoas à distância, sem o seu envolvimento ativo, através da comparação com dados em bases de referência. Em tempo real, em espaços acessíveis ao público, para aplicação da lei: proibida com exceções estritas (Art. 5(1)(h)).

Autoridades e instituições

ANACOM

Autoridade Nacional de Comunicações - designada a 19 de setembro de 2025 como autoridade nacional coordenadora para o AI Act em Portugal, atuando como autoridade de fiscalização do mercado e autoridade notificadora.

Ver implementação em Portugal →

AI Office

European AI Office - gabinete da Comissão Europeia que supervisiona a aplicação do AI Act, com foco especial em modelos GPAI. Coordena com as autoridades nacionais e com o European AI Board.

Organismo notificado

Entidade independente designada por um Estado-Membro para realizar avaliações de conformidade de sistemas de IA de alto risco, quando o procedimento exija envolvimento de terceiros (Art. 29-39).

CNPD

Comissão Nacional de Proteção de Dados - autoridade portuguesa de supervisão do RGPD. Coopera com a ANACOM em sistemas de IA que processem dados pessoais.

ANIA

Agenda Nacional de Inteligência Artificial 2026-2030, aprovada pela Resolução do Conselho de Ministros n.º 2/2026 (publicada a 8 de janeiro de 2026). Estrutura-se em 4 eixos (Infraestrutura e Dados; Inovação e Adoção; Talento e Competências; Responsabilidade e Ética) e 32 iniciativas.

Ver página dedicada →

Frameworks e normas

ISO 42001

Norma internacional ISO/IEC 42001:2023 - Sistema de Gestão de Inteligência Artificial. Fornece estrutura organizacional para implementar e demonstrar conformidade com o AI Act.

ISO 23894

Norma ISO/IEC 23894:2023 - orientação para a gestão de risco em organizações que usam IA. Útil para implementar o Art. 9 do AI Act.

NIST AI RMF

AI Risk Management Framework do National Institute of Standards and Technology (EUA). Framework voluntário que complementa o AI Act, útil em contextos transatlânticos.

ALTAI

Assessment List for Trustworthy AI - lista de verificação publicada pela Comissão Europeia em 2020, ainda útil como ferramenta de autoavaliação de IA fidedigna.

RGPD

Regulamento Geral sobre a Proteção de Dados (UE 2016/679). Aplica-se cumulativamente ao AI Act sempre que existam dados pessoais. Em Portugal, a CNPD é a autoridade competente.

Omnibus (Digital Omnibus)

Pacote de simplificação digital apresentado pela Comissão Europeia a 19 de novembro de 2025. Propõe alterações ao AI Act, Cyber Resilience Act e outras legislações digitais; ainda em negociação no Parlamento e Conselho.

Ver página dedicada →

Obrigações técnicas

Supervisão humana

Medidas para que pessoas naturais possam supervisionar sistemas de IA de alto risco durante a sua utilização (Art. 14). Inclui interface adequada, formação, capacidade de interromper o sistema e reverter o seu output.

Literacia em IA

Conhecimentos suficientes sobre IA exigidos pelo Art. 4 a todo o pessoal que lide com sistemas de IA - em função do contexto e dos destinatários. Em vigor desde 2 de fevereiro de 2025.

Ver página dedicada →

Gestão de riscos

Processo contínuo, iterativo e documentado de identificação, análise e mitigação de riscos para sistemas de IA de alto risco ao longo do seu ciclo de vida (Art. 9).

Governança de dados

Práticas de gestão dos conjuntos de dados de treino, validação e teste - relevantes, representativos, isentos de erros e completos quando possível (Art. 10).

Documentação técnica

Documentação exigida pelo Art. 11 (conteúdo detalhado no Anexo IV) para sistemas de IA de alto risco, a manter atualizada e disponível às autoridades competentes durante 10 anos.

Monitorização pós-mercado

Recolha contínua de dados sobre o desempenho do sistema de IA após colocação no mercado (Art. 72), com obrigação de reportar incidentes graves (Art. 73).

Incidente grave

Mau funcionamento ou avaria de um sistema de IA que cause - direta ou indiretamente - morte, dano grave à saúde, perturbação grave de infraestrutura crítica, violação de direitos fundamentais, ou dano grave a propriedade ou ambiente. Notificação obrigatória nos prazos do Art. 73.

Declaração UE de conformidade

Documento único pelo qual o fornecedor declara, sob a sua responsabilidade, que o sistema de IA de alto risco cumpre os requisitos do AI Act (Art. 47, Anexo V).

Marcação CE

Marca de conformidade europeia que sistemas de IA de alto risco devem afixar antes da colocação no mercado, indicando conformidade com os requisitos do AI Act (Art. 48).

Atores na cadeia de valor

Importador

Pessoa singular ou coletiva estabelecida na União que coloque no mercado um sistema de IA com o nome ou marca de uma pessoa estabelecida fora da União (Art. 3(6)). Obrigações no Art. 23.

Distribuidor

Pessoa singular ou coletiva na cadeia de fornecimento, distinta do fornecedor e do importador, que disponibilize um sistema de IA no mercado da União (Art. 3(7)). Obrigações no Art. 24.

Dica: Os termos deste glossário aparecem como tooltips em todas as páginas do site. Ao passar o rato (ou tocar) sobre termos como GPAI, FRIA ou alto risco, verá a definição curta - clique para vir aqui ler a referência completa.