Literacia IA (Art. 4)

Garantir que todo o pessoal possui conhecimentos suficientes em inteligência artificial

O Artigo 4 do AI Act estabelece a obrigação de assegurar um nível suficiente de literacia em matéria de IA para todas as pessoas que lidem com o funcionamento e a utilização de sistemas de inteligência artificial.

Em vigor desde 2 de fevereiro de 2025 — Esta obrigação já se aplica a todos os fornecedores e utilizadores de sistemas de IA.

O que exige o Artigo 4?

Artigo 4 — Literacia no domínio da IA
«Os fornecedores e os utilizadores de sistemas de IA tomam medidas para garantir, na melhor medida possível, um nível suficiente de literacia em matéria de IA do seu pessoal e de outras pessoas que lidem com o funcionamento e a utilização de sistemas de IA em seu nome, tendo em conta os seus conhecimentos técnicos, a sua experiência, o seu ensino e a sua formação, bem como o contexto em que os sistemas de IA devem ser utilizados, e tendo em consideração as pessoas ou os grupos de pessoas em relação aos quais os sistemas de IA devem ser utilizados.»

Pontos-chave:

  • Aplica-se a TODOS os fornecedores e utilizadores — Independentemente do nível de risco do sistema de IA. Não é apenas para sistemas de alto risco. Qualquer organização que desenvolva ou utilize um sistema de IA deve cumprir esta obrigação.
  • Uma das primeiras obrigações em vigor — Entrou em vigor em 2 de fevereiro de 2025, juntamente com as práticas proibidas (Art. 5) e a obrigação de literacia. As organizações devem já estar a cumprir esta obrigação.
  • Obrigação de meios, não de resultado — O artigo exige que sejam tomadas medidas "na melhor medida possível", reconhecendo a necessidade de proporcionalidade e adaptação ao contexto específico de cada organização.
  • Abrange todo o pessoal relevante — Não apenas os utilizadores diretos dos sistemas, mas todas as pessoas que lidem com o funcionamento e a utilização de sistemas de IA em nome da organização, incluindo subcontratados e prestadores de serviços.

O que significa "literacia suficiente"?

O nível de literacia exigido não é uniforme. Deve ser avaliado e adaptado em função de cinco fatores determinantes previstos no próprio artigo:

Conhecimentos técnicos do pessoal

O nível de literacia deve ser proporcional aos conhecimentos técnicos pré-existentes de cada pessoa. Um engenheiro de machine learning necessita de formação diferente de um gestor de projeto ou de um operador de atendimento ao cliente. A avaliação inicial das competências é fundamental para calibrar o programa.

Experiência e formação prévia

O ensino académico, a formação profissional e a experiência prática anterior de cada pessoa devem ser considerados para calibrar o conteúdo e a profundidade da formação em literacia de IA. Profissionais com experiência prévia em tecnologias digitais poderão necessitar de menos formação de base.

Contexto de utilização do sistema de IA

A formação deve refletir o contexto específico em que o sistema de IA é utilizado — sector de atividade (saúde, finanças, educação), ambiente operacional, finalidade do sistema e condições em que as decisões são tomadas. Contextos mais sensíveis exigem maior profundidade.

Público-alvo do sistema de IA

As pessoas ou grupos de pessoas em relação aos quais os sistemas de IA serão utilizados devem ser tidos em consideração. Sistemas que afetam grupos vulneráveis (crianças, idosos, pessoas com deficiência) ou que tomam decisões com impacto significativo exigem maior consciencialização do pessoal.

Nível de risco do sistema

Embora o Art. 4 se aplique a todos os níveis de risco, a profundidade e extensão da formação devem ser proporcionais ao risco que o sistema de IA representa. Sistemas de alto risco exigem um programa de literacia significativamente mais robusto e detalhado do que sistemas de risco mínimo.

O que deve incluir um programa de literacia em IA?

Embora o AI Act não prescreva um currículo específico, o Considerando 20 e as boas práticas internacionais indicam que um programa robusto de literacia em IA deve abranger os seguintes domínios fundamentais:

1

Compreensão dos sistemas de IA

O pessoal deve compreender o que são os sistemas de IA, como funcionam em termos gerais, quais as suas capacidades reais e, sobretudo, quais as suas limitações. Isto inclui noções básicas sobre machine learning, dados de treino, modelos e processos de inferência, adaptadas ao nível técnico de cada pessoa.

Dica: Adapte a profundidade técnica ao papel da pessoa. Um operador precisa de entender o "quê" e o "porquê"; um desenvolvedor precisa de entender o "como".
2

Riscos e limitações

Formação sobre a identificação de enviesamentos (bias) nos dados e nos modelos, reconhecimento de erros e falhas, compreensão das alucinações em IA generativa, e consciencialização sobre as limitações inerentes aos dados de treino e aos algoritmos utilizados. O pessoal deve saber quando não confiar nos resultados de um sistema de IA.

Dica: Inclua exemplos concretos de falhas de IA documentadas para ilustrar os riscos de forma tangível e memorável.
3

Impacto nos direitos fundamentais

Consciencialização sobre como os sistemas de IA podem afetar direitos individuais: privacidade e proteção de dados pessoais, princípio da não-discriminação, liberdade de expressão, dignidade humana, acesso a serviços essenciais e direito a um recurso efetivo. O pessoal deve compreender as implicações das decisões automatizadas na vida das pessoas.

Dica: Relacione com a Carta dos Direitos Fundamentais da UE e com casos práticos relevantes para o sector da organização.
4

Obrigações legais

Conhecimento do enquadramento regulatório aplicável: o AI Act (Regulamento UE 2024/1689), o RGPD (proteção de dados pessoais), a Diretiva NIS2 (cibersegurança), e outra legislação sectorial relevante. O pessoal deve compreender quais as obrigações que se aplicam à sua organização e ao seu papel específico dentro dela.

Dica: Crie um mapeamento claro entre os regulamentos e as funções específicas dentro da organização, para que cada pessoa saiba exatamente o que lhe é exigido.
5

Conhecimento específico do papel

Formação adaptada ao papel de cada pessoa na cadeia de valor da IA: fornecedor (provider/developer), utilizador (deployer), supervisor humano, responsável pela conformidade, gestor de risco, equipa jurídica, gestão de topo, entre outros. Cada função exige competências e conhecimentos diferenciados sobre os sistemas de IA.

Dica: Crie percursos de formação diferenciados para cada perfil funcional, com objetivos de aprendizagem específicos e avaliações adequadas.
6

Ética e responsabilidade

Princípios éticos na utilização de IA, incluindo a responsabilidade humana (human-in-the-loop e human-on-the-loop), a transparência nas decisões automatizadas, a equidade algorítmica, e a importância de manter o controlo humano significativo sobre os sistemas de IA. O pessoal deve estar preparado para questionar e, se necessário, sobrepor-se às recomendações de um sistema de IA.

Dica: Utilize dilemas éticos práticos e estudos de caso para promover o pensamento crítico e a discussão em equipa.
7

Procedimentos de reporte

O pessoal deve saber como reportar problemas, incidentes e violações relacionados com sistemas de IA. Isto inclui os canais de comunicação internos, os procedimentos de escalação para a gestão, as obrigações de reporte a autoridades competentes (como a autoridade nacional de supervisão do mercado), e a proteção de denunciantes (whistleblowing) prevista na legislação europeia.

Dica: Estabeleça procedimentos claros, acessíveis e bem divulgados, e assegure-se de que todos sabem onde e como reportar problemas, sem receio de represálias.

Implementação prática

Como operacionalizar a obrigação de literacia em IA na sua organização de forma eficaz e demonstrável:

Quem precisa de formação?

O Art. 4 refere-se ao "pessoal e outras pessoas que lidem com o funcionamento e a utilização de sistemas de IA" em nome da organização. Isto abrange um leque amplo de profissionais, incluindo mas não se limitando a:

  • Developers e engenheiros de IA
  • Cientistas de dados e analistas
  • Gestores de produto e projeto
  • Operadores e supervisores humanos
  • Equipas jurídicas e de compliance
  • Equipas de risco e auditoria interna
  • Gestão de topo e administração
  • Prestadores de serviços e subcontratados
Atenção: a obrigação abrange todo o pessoal que lide com sistemas de IA, incluindo pessoas que utilizam ferramentas de IA generativa (como ChatGPT, Copilot, etc.) no exercício das suas funções.

Como documentar a conformidade?

Embora o AI Act não detalhe requisitos específicos de documentação para o Art. 4, é essencial manter registos que demonstrem o cumprimento da obrigação perante eventuais fiscalizações:

  • Política de literacia em IA — Documento formal que define a abordagem da organização, os objetivos de literacia, o público-alvo, as responsabilidades de cada departamento e os recursos alocados
  • Plano de formação — Programação detalhada das ações de formação, incluindo conteúdos programáticos, duração, público-alvo, formadores responsáveis e métodos de avaliação
  • Registos de participação — Registo de quem participou em que ação de formação, quando, com que duração e com que resultado obtido na avaliação
  • Avaliação de competências — Mecanismos para verificar que a formação atingiu os seus objetivos, como testes de conhecimento, exercícios práticos, simulações ou certificações
  • Revisão e atualização — Evidência de que o programa é revisto e atualizado regularmente face à evolução tecnológica, regulatória e às necessidades identificadas em auditorias ou incidentes

Frequência: formação contínua, não apenas uma vez

A literacia em IA não é um evento único. Deve ser um processo contínuo e iterativo, acompanhando a rápida evolução da tecnologia e do quadro regulatório.

A evolução acelerada da tecnologia de IA e do enquadramento legal exige uma abordagem de formação contínua e adaptativa:

  • Formação inicial (onboarding) — Para todos os novos colaboradores que lidarão com sistemas de IA, antes de começarem a interagir com estes sistemas
  • Atualizações periódicas — No mínimo anualmente, ou sempre que ocorram alterações significativas na tecnologia utilizada, na regulamentação aplicável ou nas práticas do sector
  • Formação ad hoc — Quando são introduzidos novos sistemas de IA na organização, quando se alteram as utilizações existentes ou quando surgem novas orientações regulatórias
  • Lições aprendidas — Após incidentes, quase-incidentes, reclamações ou auditorias que revelem lacunas de conhecimento ou falhas na aplicação dos procedimentos

Adaptação ao nível de risco

Embora o Art. 4 se aplique a todos os sistemas de IA, a profundidade e extensão do programa de literacia deve ser proporcional ao nível de risco:

Risco mínimo / limitado

Sensibilização geral sobre IA, noções básicas do AI Act e das obrigações aplicáveis, identificação de riscos elementares, procedimentos de reporte internos e boas práticas de utilização responsável.

Alto risco

Formação aprofundada sobre obrigações específicas do AI Act, gestão de riscos, supervisão humana efetiva, avaliação de impacto nos direitos fundamentais, documentação técnica e procedimentos de conformidade detalhados.

Template de Política de Literacia em IA

Disponibilizamos um template de política de literacia em IA que pode servir como ponto de partida para a sua organização. O documento inclui a estrutura base, objetivos de aprendizagem, público-alvo por perfil funcional, conteúdos programáticos recomendados, mecanismos de avaliação de competências e modelo de registo de formação.

Ver templates disponíveis

A sua organização já cumpre o Art. 4?

A obrigação de literacia em IA já está em vigor desde fevereiro de 2025. Avalie a conformidade da sua organização e implemente um programa de formação adequado ao seu contexto.

Fazer auditoria de conformidade Solicitar apoio especializado