Transparência (Art. 50)

Obrigações de transparência para sistemas de IA que interagem com pessoas ou geram conteúdo

O Artigo 50 do Regulamento (UE) 2024/1689 estabelece obrigações de transparência transversais, aplicáveis a qualquer operador de sistemas de IA, independentemente do nível de risco do sistema. Estas regras visam garantir que as pessoas sabem quando estão a interagir com IA ou quando o conteúdo que consomem foi gerado ou manipulado artificialmente.

Aplicável a partir de 2 de agosto de 2026Prazo obrigatório Prepare a sua organização para cumprir estas obrigações dentro do prazo.

O que são as obrigações de transparência?

O que estabelece o Artigo 50?

O Artigo 50 do AI Act introduz um conjunto de obrigações de transparência que se aplicam a qualquer operador — seja fornecedor (provider), implementador (deployer), importador ou distribuidor — independentemente do nível de risco atribuído ao sistema de IA. Isto significa que mesmo sistemas classificados como de risco mínimo ou limitado devem cumprir estas regras sempre que se enquadrem nas situações previstas.

O objetivo fundamental é assegurar que as pessoas singulares são adequadamente informadas quando interagem com sistemas de IA ou quando são expostas a conteúdo gerado ou manipulado por inteligência artificial. Esta transparência é considerada um direito fundamental dos cidadãos europeus no contexto da utilização de IA, e a sua violação pode resultar em sanções significativas.

Ao contrário de outras disposições do AI Act — que visam especificamente sistemas de alto risco ou práticas proibidas — as obrigações de transparência do Artigo 50 constituem uma camada transversal e horizontal de regulação. Aplicam-se a toda a pirâmide de risco, desde sistemas de risco mínimo até aos de risco elevado, sempre que se verifiquem os pressupostos específicos de cada obrigação. Na prática, isto significa que qualquer organização que desenvolva ou utilize sistemas de IA deve avaliar se alguma destas quatro obrigações lhe é aplicável.

As obrigações de transparência dividem-se em quatro categorias principais, cada uma dirigida a cenários específicos de utilização de IA: interação direta com pessoas, geração de conteúdo sintético, criação de deepfakes e publicação de texto gerado por IA para informação pública.

"Os fornecedores devem garantir que os sistemas de inteligência artificial destinados a interagir diretamente com pessoas singulares são concebidos e desenvolvidos de modo a que as pessoas singulares em causa sejam informadas de que estão a interagir com um sistema de IA [...]"
— Artigo 50(1), Regulamento (UE) 2024/1689
Estas obrigações aplicam-se independentemente do nível de risco do sistema de IA. Mesmo sistemas de risco mínimo devem cumprir estas regras de transparência quando aplicáveis. Trata-se de uma camada transversal de regulação que abrange toda a pirâmide de risco do AI Act.

4 Obrigações de Transparência (Art. 50)

1

Chatbots / Sistemas de interação

Art. 50(1) Fornecedor

O fornecedor deve garantir que o sistema de IA informa as pessoas singulares de que estão a interagir com um sistema de inteligência artificial, a menos que tal seja evidente do ponto de vista de uma pessoa razoavelmente informada, atenta e advertida, tendo em conta as circunstâncias e o contexto de utilização.

Esta obrigação recai sobre os fornecedores (providers) de sistemas de IA concebidos para interagir diretamente com pessoas singulares. A informação deve ser prestada de forma clara, compreensível e atempada — preferencialmente antes ou no início da interação.

A exceção "a menos que seja óbvio" exige uma avaliação contextual. O critério é o da pessoa razoavelmente informada: se uma pessoa comum, nas mesmas circunstâncias, compreenderia naturalmente que está a interagir com um sistema de IA, a divulgação expressa pode não ser necessária. Este critério deve ser interpretado de forma restritiva — na dúvida, a divulgação deve ser feita.

Requisitos práticos:

  • Mensagem clara de que o utilizador está a comunicar com um sistema de IA
  • A divulgação deve ocorrer antes ou no início da interação
  • Linguagem simples e acessível para o público-alvo
  • Identificação visual clara (ícone, banner ou aviso permanente)
  • Exceção: quando a natureza artificial é óbvia para uma pessoa razoável (interpretação restritiva)

Exemplos práticos

Obrigação aplicável: Um chatbot de atendimento ao cliente num site de e-commerce deve exibir uma mensagem como "Está a comunicar com um assistente de inteligência artificial" antes de iniciar a conversa. Um assistente virtual de voz num call center deve iniciar a chamada com aviso semelhante.

Potencial exceção: Um robô humanoide claramente mecânico num stand de exposição, cujo aspeto não humano é evidente, pode estar isento. Uma coluna inteligente (smart speaker) cujo formato torna óbvio que não é uma pessoa humana, pode igualmente beneficiar da exceção.

2

Conteúdo sintético (áudio, imagem, vídeo)

Art. 50(2) Fornecedor

Os fornecedores de sistemas de IA que geram conteúdos sintéticos de áudio, imagem, vídeo ou texto devem garantir que os resultados são marcados num formato legível por máquina e detetáveis como tendo sido gerados ou manipulados artificialmente. As soluções técnicas devem ser eficazes, interoperáveis, robustas e fiáveis.

Esta obrigação exige que os fornecedores implementem mecanismos técnicos que permitam a deteção automatizada da origem artificial do conteúdo. Os metadados incorporados devem ser suficientemente robustos para resistir a tentativas de remoção ou manipulação, na medida do tecnicamente possível.

O regulamento exige especificamente que as técnicas de marcação sejam compatíveis com normas técnicas reconhecidas e harmonizadas. A marcação por watermark (marca de água digital) é uma das soluções técnicas previstas: consiste em incorporar no próprio conteúdo (imagem, áudio ou vídeo) sinais invisíveis ao olho humano mas detetáveis por software especializado. Outras soluções incluem metadados EXIF, hashes criptográficos e registos em blockchain.

Tipos de conteúdo abrangidos:

  • Imagens: fotografias sintéticas, ilustrações, arte gerada por IA
  • Áudio: vozes sintéticas, música gerada por IA, clonagem de voz
  • Vídeo: vídeos gerados ou manipulados por IA, animações foto-realistas
  • Texto: artigos, relatórios, código ou qualquer conteúdo textual gerado por IA

Requisitos técnicos de marcação:

  • Formato legível por máquina (metadados, watermarks digitais, hashes)
  • Interoperabilidade com normas técnicas harmonizadas
  • Robustez contra remoção ou adulteração dos marcadores
  • Fiabilidade na deteção ao longo do ciclo de vida do conteúdo

Exemplo prático

Imagens geradas por ferramentas como DALL-E, Midjourney ou Stable Diffusion devem conter metadados EXIF ou marcas de água invisíveis que permitam a ferramentas de verificação identificar automaticamente que o conteúdo foi gerado artificialmente. Um sistema text-to-speech que gera áudio sintético deve igualmente incorporar marcadores no ficheiro de áudio para identificar a sua origem artificial.

3

Deepfakes

Art. 50(4) Implementador

Os implementadores (deployers) de sistemas de IA que geram ou manipulam imagem, áudio ou vídeo que constitua um deepfake devem divulgar que o conteúdo foi gerado ou manipulado artificialmente. Devem rotular o conteúdo de forma clara e distinguível, indicando de modo inequívoco a sua natureza artificial.

O conceito de deepfake, conforme definido no Artigo 3(60) do AI Act, abrange qualquer conteúdo de imagem, áudio ou vídeo gerado ou manipulado por IA que se assemelhe a pessoas, objetos, locais, entidades ou eventos reais e que possa falsamente parecer autêntico ou verdadeiro a uma pessoa. Isto inclui, mas não se limita a: vídeos de pessoas reais a dizer ou fazer coisas que nunca disseram ou fizeram, fotografias manipuladas que alteram a aparência ou o contexto, e gravações de áudio que imitam a voz de pessoas reais.

A divulgação deve ser feita de forma visível e acessível ao público que recebe o conteúdo. Não basta uma nota oculta nos metadados — é necessária uma indicação que o utilizador final possa efetivamente ver ou ouvir. A rotulagem deve acompanhar o conteúdo mesmo em caso de redistribuição ou partilha em plataformas de terceiros.

Obrigações do implementador:

  • Divulgar de forma clara que o conteúdo é gerado ou manipulado por IA
  • Rotulagem visível e distinguível junto ao conteúdo (não apenas nos metadados)
  • Informação acessível ao público que consome o conteúdo
  • Manter a divulgação em caso de redistribuição ou partilha
  • Indicar, quando possível, a identidade da pessoa ou entidade que criou o deepfake

Exemplo prático

Um vídeo que mostra uma pessoa real a dizer algo que nunca disse, criado por IA, deve conter uma indicação visível como "Este conteúdo foi gerado por inteligência artificial" ou "Deepfake — conteúdo manipulado digitalmente". Se partilhado numa rede social, a rotulagem deve manter-se visível para todos os utilizadores que o visualizem.

4

Texto gerado por IA publicado para informação pública

Art. 50(4) Implementador

Os implementadores (deployers) de sistemas de IA que geram ou manipulam texto publicado com o objetivo de informar o público sobre assuntos de interesse público devem divulgar que o texto foi gerado ou manipulado artificialmente. Esta obrigação não se aplica quando o conteúdo é sujeito a revisão humana ou controlo editorial, e uma pessoa singular ou coletiva assume a responsabilidade editorial pela publicação.

O âmbito de "assuntos de interesse público" é amplo e abrange matérias como: notícias e jornalismo, análises políticas, informação sobre saúde pública, comunicados governamentais, relatórios económicos, informação ambiental e climática, e quaisquer outros temas que afetem a esfera pública e a tomada de decisões pelos cidadãos. A regra visa proteger a integridade do espaço informativo público, garantindo que os cidadãos podem distinguir entre conteúdo redigido por humanos e texto produzido por sistemas de IA.

A exceção para conteúdo com revisão editorial humana exige dois requisitos cumulativos: (1) o conteúdo deve ter sido efetivamente revisto e verificado por um ser humano, e (2) deve existir uma pessoa singular ou coletiva que assume publicamente a responsabilidade editorial pela publicação. O simples envolvimento humano superficial (como a aprovação automática de publicação) pode não ser suficiente para ativar esta exceção.

Aspetos importantes:

  • Aplica-se a texto sobre assuntos de interesse público (notícias, política, saúde pública, economia, ambiente)
  • A divulgação deve ser clara e acessível ao leitor
  • Exceção: conteúdo sujeito a revisão humana efetiva com responsabilidade editorial assumida
  • Não se aplica a conteúdo privado, comunicações internas ou correspondência pessoal
  • Textos publicitários ou comerciais não abrangidos por esta disposição específica

Exemplo prático

Um artigo noticioso gerado inteiramente por IA e publicado num portal de notícias deve indicar claramente que foi produzido por inteligência artificial. No entanto, se um jornalista reviu, editou e verificou factualmente o texto, assumindo a responsabilidade editorial pela sua publicação, a obrigação de divulgação pode não se aplicar, desde que a revisão tenha sido efetiva e substancial.

Exceções às obrigações de transparência

O Artigo 50 prevê exceções limitadas às obrigações de divulgação de deepfakes e texto gerado por IA. Estas exceções reconhecem que existem contextos legítimos em que a divulgação pode não ser necessária ou adequada, preservando a liberdade artística, o controlo editorial humano e os interesses legítimos de aplicação da lei.

Conteúdo artístico e criativo

A obrigação de divulgação não se aplica quando o conteúdo faz parte de uma obra manifestamente artística, criativa ou ficcional. Inclui filmes, séries, videojogos, instalações artísticas, obras literárias e composições musicais onde a utilização de IA é parte do processo criativo.

Para que esta exceção se aplique, a natureza artística ou ficcional da obra deve ser manifesta — ou seja, evidente para o público. Conteúdo que possa ser confundido com informação factual não se qualifica automaticamente para esta exceção.

Sátira e paródia

Conteúdo gerado por IA com finalidade satírica, paródica ou análoga está isento da obrigação de divulgação visível. Esta exceção protege a liberdade de expressão e a tradição cultural da sátira na comunicação pública europeia.

Limite importante: a sátira deve ser reconhecível como tal. Conteúdo apresentado como factual que utiliza o pretexto da sátira para disseminar desinformação não beneficia desta exceção. A fronteira é avaliada segundo o critério da pessoa razoável.

Aplicação da lei e segurança pública

Sistemas de IA autorizados por lei para efeitos de deteção, prevenção, investigação ou repressão de infrações penais podem beneficiar de exceções às obrigações de transparência quando a divulgação prejudicaria os objetivos legítimos de aplicação da lei.

Esta exceção é de aplicação restrita: exige autorização legal específica, necessidade demonstrada e proporcionalidade. Deve haver supervisão judicial ou administrativa adequada. Não constitui uma isenção genérica para forças de segurança.

Atenção importante: Mesmo quando se aplica uma exceção à divulgação visível, os fornecedores continuam obrigados a garantir que o conteúdo gerado é marcado em formato legível por máquina (metadados técnicos). As exceções aplicam-se apenas à obrigação de divulgação visível ao público, não à marcação técnica do conteúdo. Por outras palavras: a watermark ou os metadados devem ser sempre incorporados, mesmo em obras artísticas ou satíricas.

A quem se aplicam estas regras?

Regra fundamental: As obrigações de transparência do Art. 50 aplicam-se a qualquer operador de sistemas de IA, não apenas a sistemas de alto risco.

Ao contrário de muitas outras disposições do AI Act que se aplicam apenas a categorias específicas de risco, o Artigo 50 é transversal a toda a pirâmide de risco. Isto significa que um sistema de IA classificado como de risco mínimo que, por exemplo, funcione como chatbot de apoio ao cliente, está igualmente sujeito à obrigação de informar os utilizadores de que estão a interagir com um sistema de IA.

Mapa de responsabilidades por obrigação

Obrigação Responsável Artigo Ação requerida
Chatbots / Sistemas de interação Fornecedor Art. 50(1) Informar o utilizador de que está a interagir com um sistema de IA, de forma clara e antes ou no início da interação
Conteúdo sintético (áudio, imagem, vídeo, texto) Fornecedor Art. 50(2) Marcar o conteúdo gerado em formato legível por máquina (watermarks, metadados) de forma robusta e interoperável
Deepfakes Implementador Art. 50(4) Divulgar de forma visível e clara que o conteúdo foi gerado ou manipulado por IA, com rotulagem acessível ao público
Texto gerado por IA (interesse público) Implementador Art. 50(4) Divulgar a origem artificial do texto publicado sobre assuntos de interesse público, exceto se revisto editorialmente

Fornecedores (Providers)

Responsáveis por:

  • Garantir que chatbots e sistemas de interação informam os utilizadores sobre a natureza artificial
  • Implementar marcação técnica (metadados) em conteúdo sintético gerado
  • Desenvolver soluções de deteção eficazes, interoperáveis e robustas
  • Fornecer ferramentas e informação aos implementadores para cumprimento das suas obrigações

Implementadores (Deployers)

Responsáveis por:

  • Divulgar deepfakes ao público de forma clara e visível
  • Divulgar texto gerado por IA sobre assuntos de interesse público
  • Garantir que a divulgação é acessível e compreensível para o público-alvo
  • Manter as rotulagens e divulgações em caso de redistribuição do conteúdo

Importadores, distribuidores e representantes autorizados

As obrigações de transparência estendem-se também a importadores e distribuidores que coloquem sistemas de IA no mercado europeu, bem como a representantes autorizados de fornecedores de países terceiros. Qualquer entidade na cadeia de valor que disponibilize sistemas de IA na União Europeia deve assegurar o cumprimento destas obrigações.

Relação com as obrigações de transparência do RGPD

As obrigações de transparência do AI Act não substituem nem derrogam as obrigações de transparência já existentes no Regulamento Geral sobre a Proteção de Dados (RGPD). Pelo contrário, ambos os quadros regulatórios aplicam-se de forma complementar e cumulativa. As organizações que utilizam sistemas de IA devem assegurar a conformidade com ambos os regulamentos em simultâneo.

Art. 13 e 14 do RGPD

Direito à informação: O RGPD exige que os titulares dos dados sejam informados sobre a recolha e tratamento dos seus dados pessoais, incluindo as finalidades, a base jurídica, os destinatários e os direitos do titular.

Complementaridade: Quando um sistema de IA trata dados pessoais, o operador deve cumprir tanto a transparência do AI Act (informar que é IA) como a transparência do RGPD (informar sobre o tratamento de dados). São obrigações distintas mas que frequentemente se sobrepõem na prática.

Art. 22 do RGPD

Decisões automatizadas: O RGPD concede aos titulares o direito de não ficar sujeito a decisões baseadas exclusivamente no tratamento automatizado que produzam efeitos jurídicos ou similares significativos. Exige informação significativa sobre a lógica envolvida.

Complementaridade: O AI Act vai além do Art. 22 do RGPD ao exigir transparência para qualquer interação com IA, mesmo quando não há decisão automatizada sobre o titular. A informação "está a interagir com IA" é obrigatória independentemente de haver ou não decisão automatizada.

Interação entre quadros

Princípio da coerência: O Considerando 69 do AI Act reforça que as obrigações de transparência do regulamento são sem prejuízo das obrigações estabelecidas no RGPD e noutras normas da UE. As organizações devem garantir a conformidade com ambos.

Na prática: Uma política de privacidade que já mencione o uso de IA para tratamento de dados (conforme RGPD) pode não ser suficiente para cumprir o AI Act, que exige divulgação no momento da interação, não apenas num documento de política geral.

Recomendação prática: Ao implementar sistemas de IA que tratam dados pessoais, as organizações devem realizar uma avaliação conjunta das obrigações de transparência do AI Act e do RGPD, garantindo que ambas são cumpridas de forma integrada e coerente, sem redundâncias desnecessárias para o utilizador final.

Código de conduta sobre transparência em IA generativa

O AI Act, no seu Artigo 56, prevê a elaboração de códigos de conduta voluntários que incentivem fornecedores de sistemas de IA de finalidade geral (GPAI) a adotar boas práticas de transparência antes mesmo da entrada em vigor das obrigações vinculativas. Estes códigos estão a ser desenvolvidos em colaboração entre o Gabinete Europeu para a IA, os Estados-Membros, os fornecedores e outras partes interessadas.

No contexto específico da IA generativa, os códigos de conduta visam abordar questões particularmente relevantes, incluindo:

  • Boas práticas de rotulagem e identificação de conteúdo gerado por IA
  • Normas técnicas para marcação de conteúdo sintético (watermarking)
  • Mecanismos de deteção de deepfakes e conteúdo manipulado
  • Transparência sobre os dados de treino utilizados (cumprimento do Art. 53)
  • Informação sobre as capacidades e limitações dos modelos generativos
  • Procedimentos de tratamento de reclamações relacionadas com conteúdo gerado
Os códigos de conduta são voluntários, mas a sua adoção pode servir como demonstração de boa-fé e diligência em caso de fiscalização. A adesão a códigos de conduta reconhecidos pelo Gabinete Europeu para a IA pode igualmente ser considerada um fator atenuante em caso de procedimento sancionatório.

Penalizações por incumprimento

15M

euros de coima máxima

3%

do volume de negócios anual mundial

O incumprimento das obrigações de transparência do Artigo 50 está sujeito a coimas previstas no Artigo 99(4) do AI Act, que correspondem ao segundo nível de penalização do regulamento.

As coimas podem atingir até 15 milhões de euros ou 3% do volume de negócios anual mundial total da empresa no exercício financeiro anterior, consoante o que for mais elevado. Para PME e startups, a coima é limitada ao montante mais baixo.

Nota: As autoridades nacionais competentes determinam o montante concreto das coimas tendo em conta fatores como a gravidade e a duração da infração, o caráter intencional ou negligente do incumprimento, as ações corretivas tomadas, a dimensão da organização e eventuais infrações anteriores. A cooperação com as autoridades e a adoção proativa de códigos de conduta são consideradas fatores atenuantes.

Prepare-se para agosto de 2026

Verifique se os seus sistemas de IA cumprem as obrigações de transparência do Art. 50. Avalie o nível de risco, reveja os requisitos aplicáveis e prepare a documentação necessária para garantir a conformidade.

Classificar sistema de IA Ver todas as obrigações