Plano de Supervisão Humana

Organização: [Nome da organização]

Documento: PSH-IA-001

Versão: [1.0]

Data: [DD/MM/AAAA]

Nome do sistema de IA [Nome do sistema]
Fornecedor [Nome do fornecedor]
Versão do sistema [Número da versão]
Classificação de risco [Alto risco - Art. 6.º, Anexo III]
Responsável pelo plano [Nome e cargo]
Data de elaboração [DD/MM/AAAA]
Próxima revisão [DD/MM/AAAA]

1. Objetivo do Plano

O presente plano tem por objetivo definir e documentar as medidas de supervisão humana implementadas para o sistema de IA [Nome do sistema], em conformidade com o Artigo 14.º do Regulamento (UE) 2024/1689 (AI Act).

O plano estabelece:

2. Requisitos do Art. 14.º do AI Act

Art. 14.º, n.º 1: Os sistemas de IA de alto risco devem ser concebidos e desenvolvidos de modo a poderem ser eficazmente supervisionados por pessoas singulares durante o período de utilização do sistema de IA, incluindo por meio de ferramentas de interface humano-máquina adequadas.

Verificação do cumprimento de cada requisito específico do Art. 14.º:

Requisito Legal Referência Cumprido Medida Implementada
Compreender devidamente as capacidades e limitações do sistema e monitorizar adequadamente o seu funcionamento Art. 14.º, n.º 4, al. a) [Sim/Não] [Descrever medida]
Ter consciência da possível tendência para confiar automaticamente ou em excesso nos resultados produzidos (automation bias) Art. 14.º, n.º 4, al. b) [Sim/Não] [Descrever medida]
Poder interpretar corretamente os resultados do sistema, tendo em conta as ferramentas e métodos de interpretação Art. 14.º, n.º 4, al. c) [Sim/Não] [Descrever medida]
Poder decidir não utilizar o sistema ou desconsiderar, anular ou reverter os resultados Art. 14.º, n.º 4, al. d) [Sim/Não] [Descrever medida]
Poder intervir no funcionamento do sistema ou interrompê-lo através de um botão de paragem ou procedimento semelhante Art. 14.º, n.º 4, al. e) [Sim/Não] [Descrever medida]

3. Medidas de Supervisão Implementadas

3.1 Capacidade de compreensão do sistema

Medidas que permitem aos supervisores compreender as capacidades e limitações do sistema.

Documentação disponível [Lista de documentos de apoio disponibilizados: manual do utilizador, guia de interpretação, documentação técnica simplificada]
Descrição das capacidades [Como é comunicada a capacidade do sistema aos supervisores]
Descrição das limitações [Como são comunicadas as limitações conhecidas do sistema]
Métricas de desempenho acessíveis [Métricas e dashboards disponíveis para os supervisores]

3.2 Ferramentas de interpretação de outputs

Ferramentas e interfaces disponíveis para interpretar os resultados do sistema.

Interface de utilizador [Descreva a interface disponibilizada aos supervisores para visualizar e interpretar resultados]
Explicabilidade dos resultados [Descreva os mecanismos de explicação: scores de confiança, fatores contribuintes, explicações textuais, visualizações]
Alertas e notificações [Descreva os sistemas de alerta que auxiliam na interpretação: limiares de confiança, indicadores de incerteza]
Comparação e validação [Descreva ferramentas que permitem comparar resultados do sistema com outras fontes ou validações manuais]

3.3 Capacidade de intervenção (parar/anular/reverter)

Mecanismos que permitem ao supervisor intervir no funcionamento do sistema.

Tipo de Intervenção Mecanismo Descrição Tempo de Resposta
Paragem do sistema [Ex.: Botão de paragem de emergência] [Como funciona o mecanismo de paragem] [Tempo de resposta]
Anulação de resultado [Ex.: Interface de anulação] [Como o supervisor pode anular um resultado específico] [Tempo de resposta]
Reversão de decisão [Ex.: Procedimento de reversão] [Como reverter uma decisão já executada] [Tempo de resposta]
Substituição manual [Ex.: Modo de operação manual] [Como operar sem o sistema de IA] [Tempo de resposta]

3.4 Indicadores de anomalias

Indicadores e alertas de funcionamento anómalo do sistema.

Indicador Descrição Limiar de Alerta Ação Requerida
[Ex.: Score de confiança baixo] [Descrição do indicador] [Valor limiar] [Ação a tomar]
[Ex.: Desvio de distribuição] [Descrição] [Valor limiar] [Ação]
[Ex.: Taxa de erros elevada] [Descrição] [Valor limiar] [Ação]
[Ex.: Latência anormal] [Descrição] [Valor limiar] [Ação]

4. Funções e Responsabilidades dos Supervisores Humanos

Função Responsável Responsabilidades Autoridade
Supervisor operacional [Nome/Cargo] Monitorização diária do sistema; revisão de resultados; intervenção quando necessário; registo de intervenções Anular resultados individuais; solicitar revisão; reportar anomalias
Supervisor técnico [Nome/Cargo] Monitorização de métricas técnicas; análise de anomalias; ajustes de configuração; manutenção de registos técnicos Parar o sistema por motivos técnicos; ajustar parâmetros operacionais
Responsável de supervisão [Nome/Cargo] Supervisão global do plano; revisão periódica; formação dos supervisores; reporte à direção Suspender utilização do sistema; alterar procedimentos de supervisão; escalação
Suplentes [Nome/Cargo] Substituição dos supervisores em caso de ausência; manutenção das mesmas competências e acessos Mesmas autoridades do supervisor substituído

5. Qualificações e Formação Necessária

5.1 Qualificações mínimas dos supervisores

Requisito Descrição
Formação académica [Nível de formação mínimo requerido]
Experiência profissional [Experiência mínima no domínio de aplicação do sistema]
Competências técnicas [Competências técnicas específicas requeridas]
Conhecimento regulatório [Conhecimento mínimo do AI Act e regulamentação aplicável]

5.2 Programa de formação

Módulo de Formação Conteúdo Duração Periodicidade
Formação inicial sobre o sistema [Funcionamento do sistema, interface, capacidades e limitações] [Horas] Antes do início da supervisão
Interpretação de resultados [Como interpretar outputs, scores, explicações; deteção de anomalias] [Horas] Antes do início da supervisão
Procedimentos de intervenção [Protocolo de paragem, anulação, reversão; escalação] [Horas] Antes do início da supervisão
Enviesamento e automation bias [Consciência sobre automation bias; estratégias de mitigação; pensamento crítico] [Horas] [Semestral / Anual]
Atualização e reciclagem [Alterações ao sistema, novas funcionalidades, lições aprendidas] [Horas] [Semestral / Anual]
Enquadramento legal [Requisitos do AI Act, RGPD, direitos fundamentais] [Horas] [Anual]

6. Procedimento de Decisão

Defina quando e como os supervisores humanos devem intervir nas decisões do sistema.

6.1 Critérios de intervenção

Situação Ação do Supervisor Prazo
Score de confiança abaixo de [X%] Revisão obrigatória do resultado antes de qualquer ação [Prazo]
Resultado que afeta direitos fundamentais Validação humana obrigatória antes da comunicação ao afetado [Prazo]
Anomalia detetada pelo sistema de monitorização Investigação da anomalia; eventual paragem do sistema [Prazo]
Reclamação de pessoa afetada Revisão do caso específico; análise do resultado do sistema [Prazo]
Decisão com consequências irreversíveis Aprovação humana obrigatória antes da execução [Prazo]

6.2 Fluxo de decisão

Fluxo de Decisão da Supervisão Humana:

1. Sistema de IA produz resultado

2. Verificação automática de critérios de intervenção

3a. Critérios não acionados → Resultado prossegue (com monitorização)
3b. Critérios acionados → Alerta ao supervisor

4. Supervisor analisa o resultado e o contexto

5a. Supervisor valida → Resultado prossegue
5b. Supervisor rejeita → Anulação / Revisão / Escalação

6. Registo da decisão e justificação

7. Protocolo de Escalação

Nível Situação Ação Responsável Prazo
Nível 1 Anomalia pontual; resultado duvidoso Revisão pelo supervisor operacional; decisão sobre anulação Supervisor operacional [Prazo]
Nível 2 Anomalias recorrentes; falhas técnicas; reclamação com mérito Investigação técnica; eventual suspensão temporária; análise de causa-raiz Supervisor técnico [Prazo]
Nível 3 Risco significativo para direitos fundamentais; incidente grave Suspensão do sistema; notificação ao responsável de supervisão; comunicação interna Responsável de supervisão [Prazo]
Nível 4 Incidente grave com danos; falha sistémica Desativação do sistema; notificação à direção executiva; notificação à ANACOM (Art. 73.º) Direção executiva / AI Officer Imediato

8. Registo de Intervenções

Todas as intervenções humanas devem ser registadas na seguinte tabela. Os registos devem ser conservados por um período mínimo de 10 anos.

Data/Hora Supervisor Tipo de Intervenção Motivo Ação Tomada Resultado
[DD/MM/AAAA HH:MM] [Nome] [Anulação / Reversão / Paragem / Revisão] [Justificação] [Descrição da ação] [Resultado da intervenção]
[DD/MM/AAAA HH:MM] [Nome] [Tipo] [Justificação] [Descrição] [Resultado]
[DD/MM/AAAA HH:MM] [Nome] [Tipo] [Justificação] [Descrição] [Resultado]
Nota: Este modelo de registo deve ser replicado num sistema digital que permita a pesquisa, análise e auditoria das intervenções humanas. Os registos devem incluir, sempre que possível, referência ao caso ou decisão específica do sistema sobre a qual incidiu a intervenção.

9. Revisão e Atualização do Plano

Tipo de Revisão Periodicidade Responsável Elementos a Rever
Revisão operacional [Mensal] [Responsável de supervisão] Registos de intervenções; eficácia das medidas; feedback dos supervisores
Revisão completa do plano [Semestral / Anual] [AI Officer] Adequação do plano; atualização de procedimentos; necessidades de formação; lições aprendidas
Revisão extraordinária Após incidente ou alteração significativa [AI Officer / Direção] Análise do incidente; revisão de todos os elementos do plano

O plano deve ser atualizado sempre que ocorra:

10. Assinaturas

Responsável pelo plano:

Nome: [Nome completo]

Cargo: [Cargo]

Assinatura

Data: [DD/MM/AAAA]

Responsável pela IA (AI Officer):

Nome: [Nome completo]

Cargo: [Cargo]

Assinatura

Data: [DD/MM/AAAA]

Supervisor operacional principal:

Nome: [Nome completo]

Cargo: [Cargo]

Assinatura

Data: [DD/MM/AAAA]

Direção Executiva:

Nome: [Nome completo]

Cargo: [Cargo]

Assinatura

Data: [DD/MM/AAAA]


Plano de Supervisão Humana elaborado nos termos do Art. 14.º do Regulamento (UE) 2024/1689 (AI Act)
© [Nome da organização] - Todos os direitos reservados