AI Act
Regulamento (UE) 2024/1689 - primeiro quadro jurídico mundial sobre inteligência artificial. Publicado a 12 de julho de 2024 no Jornal Oficial da UE, em vigor desde 1 de agosto de 2024.
38 termos-chave do Regulamento (UE) 2024/1689 explicados em português
Este glossário é usado pelos tooltips inline no resto do site. Passe o rato sobre termos como GPAI, FRIA ou alto risco em qualquer página para ver uma definição curta - aqui encontra a referência completa.
Regulamento (UE) 2024/1689 - primeiro quadro jurídico mundial sobre inteligência artificial. Publicado a 12 de julho de 2024 no Jornal Oficial da UE, em vigor desde 1 de agosto de 2024.
Modelo de IA de propósito geral, treinado num conjunto vasto de dados e capaz de desempenhar uma diversidade de tarefas distintas. Regulado pelos Art. 51 a 55 do AI Act.
Avaliação de Impacto sobre Direitos Fundamentais. Obrigatória, antes de colocar em serviço sistemas de IA de alto risco, para entidades públicas, entidades privadas que prestam serviços públicos, e entidades dos setores bancário e segurador que usem sistemas de avaliação de crédito ou de risco em pessoas (Art. 27).
Unidade de computação usada para medir o esforço de treino de modelos de IA. O AI Act considera que modelos GPAI treinados com computação cumulativa superior a 10²⁵ FLOPs apresentam risco sistémico (Art. 51(2)). A Comissão pode atualizar este limiar por atos delegados.
Pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolve um sistema de IA ou um modelo GPAI, ou que manda desenvolver um sistema de IA, e o coloca no mercado ou o põe em serviço sob o seu próprio nome ou marca (Art. 3(3)).
Pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utiliza um sistema de IA sob a sua autoridade (Art. 3(4)). Excetua-se a utilização pessoal não-profissional.
Sistema de IA classificado como tal pelo Art. 6: (i) componente de segurança de produtos abrangidos pelo Anexo I, ou (ii) sistema usado nas 8 áreas do Anexo III (biometria, infraestruturas, educação, emprego, serviços essenciais, aplicação da lei, migração, justiça). Exceções para tarefas restritas no Art. 6(3).
Risco específico das capacidades de impacto elevado de modelos GPAI, que pode causar efeitos negativos significativos à saúde pública, à segurança, aos direitos fundamentais ou à sociedade no seu todo. Presumido para modelos com treino > 10²⁵ FLOPs (Art. 51).
Ambiente controlado de testes para sistemas de IA, sob supervisão da autoridade competente, antes da colocação no mercado (Art. 57-63). Cada Estado-Membro deve disponibilizar pelo menos uma a partir de 2 de agosto de 2026.
Lista das 8 áreas em que sistemas de IA são classificados como alto risco: 1) biometria; 2) infraestruturas críticas; 3) educação e formação profissional; 4) emprego e gestão de trabalhadores; 5) acesso a serviços privados essenciais e públicos; 6) aplicação da lei; 7) migração, asilo e fronteiras; 8) administração da justiça e processos democráticos.
Lista da legislação de harmonização da União (máquinas, brinquedos, equipamento radioeléctrico, dispositivos médicos, equipamento de proteção individual, embarcações de recreio, ascensores, etc.). Sistemas de IA que sejam componentes de segurança de produtos abrangidos são de alto risco (Art. 6(1)).
Especifica o conteúdo da documentação técnica obrigatória para sistemas de IA de alto risco (Art. 11): descrição geral, elementos detalhados, monitorização, sistema de gestão de qualidade, etc.
Uma das 8 práticas de IA banidas pelo Art. 5: manipulação subliminar, exploração de vulnerabilidades, social scoring, policiamento preditivo baseado em perfis, recolha não direcionada de imagens faciais, reconhecimento de emoções no trabalho/educação, categorização biométrica por atributos sensíveis, identificação biométrica remota em tempo real em espaços públicos.
Avaliação ou classificação de pessoas singulares com base no comportamento social ou em características pessoais previstas/inferidas, com efeitos adversos injustificados ou desproporcionados em determinados contextos. Proibida pelo Art. 5(1)(c).
Conteúdo de imagem, áudio ou vídeo gerado ou manipulado por IA que se assemelha a pessoas, objetos, locais ou outras entidades ou eventos existentes, e que, falsamente, parece a uma pessoa ser autêntico ou verídico. Sujeito a obrigação de marcação (Art. 50(4)), com exceções artísticas, satíricas e de aplicação da lei.
Conteúdo gerado por IA (texto, imagem, áudio ou vídeo). Os fornecedores de sistemas que geram tais conteúdos devem assegurar que os outputs são marcados em formato legível por máquina (Art. 50(2)).
Características biológicas, fisiológicas, comportamentais ou físicas que permitem identificação ou inferir características. Várias utilizações são alto risco (Anexo III) ou proibidas (Art. 5).
Identificação de pessoas à distância, sem o seu envolvimento ativo, através da comparação com dados em bases de referência. Em tempo real, em espaços acessíveis ao público, para aplicação da lei: proibida com exceções estritas (Art. 5(1)(h)).
Autoridade Nacional de Comunicações - designada a 19 de setembro de 2025 como autoridade nacional coordenadora para o AI Act em Portugal, atuando como autoridade de fiscalização do mercado e autoridade notificadora.
European AI Office - gabinete da Comissão Europeia que supervisiona a aplicação do AI Act, com foco especial em modelos GPAI. Coordena com as autoridades nacionais e com o European AI Board.
Entidade independente designada por um Estado-Membro para realizar avaliações de conformidade de sistemas de IA de alto risco, quando o procedimento exija envolvimento de terceiros (Art. 29-39).
Comissão Nacional de Proteção de Dados - autoridade portuguesa de supervisão do RGPD. Coopera com a ANACOM em sistemas de IA que processem dados pessoais.
Agenda Nacional de Inteligência Artificial 2026-2030, aprovada pela Resolução do Conselho de Ministros n.º 2/2026 (publicada a 8 de janeiro de 2026). Estrutura-se em 4 eixos (Infraestrutura e Dados; Inovação e Adoção; Talento e Competências; Responsabilidade e Ética) e 32 iniciativas.
Norma internacional ISO/IEC 42001:2023 - Sistema de Gestão de Inteligência Artificial. Fornece estrutura organizacional para implementar e demonstrar conformidade com o AI Act.
Norma ISO/IEC 23894:2023 - orientação para a gestão de risco em organizações que usam IA. Útil para implementar o Art. 9 do AI Act.
AI Risk Management Framework do National Institute of Standards and Technology (EUA). Framework voluntário que complementa o AI Act, útil em contextos transatlânticos.
Assessment List for Trustworthy AI - lista de verificação publicada pela Comissão Europeia em 2020, ainda útil como ferramenta de autoavaliação de IA fidedigna.
Regulamento Geral sobre a Proteção de Dados (UE 2016/679). Aplica-se cumulativamente ao AI Act sempre que existam dados pessoais. Em Portugal, a CNPD é a autoridade competente.
Pacote de simplificação digital apresentado pela Comissão Europeia a 19 de novembro de 2025. Propõe alterações ao AI Act, Cyber Resilience Act e outras legislações digitais; ainda em negociação no Parlamento e Conselho.
Medidas para que pessoas naturais possam supervisionar sistemas de IA de alto risco durante a sua utilização (Art. 14). Inclui interface adequada, formação, capacidade de interromper o sistema e reverter o seu output.
Conhecimentos suficientes sobre IA exigidos pelo Art. 4 a todo o pessoal que lide com sistemas de IA - em função do contexto e dos destinatários. Em vigor desde 2 de fevereiro de 2025.
Processo contínuo, iterativo e documentado de identificação, análise e mitigação de riscos para sistemas de IA de alto risco ao longo do seu ciclo de vida (Art. 9).
Práticas de gestão dos conjuntos de dados de treino, validação e teste - relevantes, representativos, isentos de erros e completos quando possível (Art. 10).
Documentação exigida pelo Art. 11 (conteúdo detalhado no Anexo IV) para sistemas de IA de alto risco, a manter atualizada e disponível às autoridades competentes durante 10 anos.
Recolha contínua de dados sobre o desempenho do sistema de IA após colocação no mercado (Art. 72), com obrigação de reportar incidentes graves (Art. 73).
Mau funcionamento ou avaria de um sistema de IA que cause - direta ou indiretamente - morte, dano grave à saúde, perturbação grave de infraestrutura crítica, violação de direitos fundamentais, ou dano grave a propriedade ou ambiente. Notificação obrigatória nos prazos do Art. 73.
Documento único pelo qual o fornecedor declara, sob a sua responsabilidade, que o sistema de IA de alto risco cumpre os requisitos do AI Act (Art. 47, Anexo V).
Marca de conformidade europeia que sistemas de IA de alto risco devem afixar antes da colocação no mercado, indicando conformidade com os requisitos do AI Act (Art. 48).
Pessoa singular ou coletiva estabelecida na União que coloque no mercado um sistema de IA com o nome ou marca de uma pessoa estabelecida fora da União (Art. 3(6)). Obrigações no Art. 23.
Pessoa singular ou coletiva na cadeia de fornecimento, distinta do fornecedor e do importador, que disponibilize um sistema de IA no mercado da União (Art. 3(7)). Obrigações no Art. 24.