Organização: [Nome da organização]
Documento: PSH-IA-001
Versão: [1.0]
Data: [DD/MM/AAAA]
| Nome do sistema de IA | [Nome do sistema] |
|---|---|
| Fornecedor | [Nome do fornecedor] |
| Versão do sistema | [Número da versão] |
| Classificação de risco | [Alto risco - Art. 6.º, Anexo III] |
| Responsável pelo plano | [Nome e cargo] |
| Data de elaboração | [DD/MM/AAAA] |
| Próxima revisão | [DD/MM/AAAA] |
O presente plano tem por objetivo definir e documentar as medidas de supervisão humana implementadas para o sistema de IA [Nome do sistema], em conformidade com o Artigo 14.º do Regulamento (UE) 2024/1689 (AI Act).
O plano estabelece:
Verificação do cumprimento de cada requisito específico do Art. 14.º:
| Requisito Legal | Referência | Cumprido | Medida Implementada |
|---|---|---|---|
| Compreender devidamente as capacidades e limitações do sistema e monitorizar adequadamente o seu funcionamento | Art. 14.º, n.º 4, al. a) | [Sim/Não] | [Descrever medida] |
| Ter consciência da possível tendência para confiar automaticamente ou em excesso nos resultados produzidos (automation bias) | Art. 14.º, n.º 4, al. b) | [Sim/Não] | [Descrever medida] |
| Poder interpretar corretamente os resultados do sistema, tendo em conta as ferramentas e métodos de interpretação | Art. 14.º, n.º 4, al. c) | [Sim/Não] | [Descrever medida] |
| Poder decidir não utilizar o sistema ou desconsiderar, anular ou reverter os resultados | Art. 14.º, n.º 4, al. d) | [Sim/Não] | [Descrever medida] |
| Poder intervir no funcionamento do sistema ou interrompê-lo através de um botão de paragem ou procedimento semelhante | Art. 14.º, n.º 4, al. e) | [Sim/Não] | [Descrever medida] |
Medidas que permitem aos supervisores compreender as capacidades e limitações do sistema.
| Documentação disponível | [Lista de documentos de apoio disponibilizados: manual do utilizador, guia de interpretação, documentação técnica simplificada] |
|---|---|
| Descrição das capacidades | [Como é comunicada a capacidade do sistema aos supervisores] |
| Descrição das limitações | [Como são comunicadas as limitações conhecidas do sistema] |
| Métricas de desempenho acessíveis | [Métricas e dashboards disponíveis para os supervisores] |
Ferramentas e interfaces disponíveis para interpretar os resultados do sistema.
| Interface de utilizador | [Descreva a interface disponibilizada aos supervisores para visualizar e interpretar resultados] |
|---|---|
| Explicabilidade dos resultados | [Descreva os mecanismos de explicação: scores de confiança, fatores contribuintes, explicações textuais, visualizações] |
| Alertas e notificações | [Descreva os sistemas de alerta que auxiliam na interpretação: limiares de confiança, indicadores de incerteza] |
| Comparação e validação | [Descreva ferramentas que permitem comparar resultados do sistema com outras fontes ou validações manuais] |
Mecanismos que permitem ao supervisor intervir no funcionamento do sistema.
| Tipo de Intervenção | Mecanismo | Descrição | Tempo de Resposta |
|---|---|---|---|
| Paragem do sistema | [Ex.: Botão de paragem de emergência] | [Como funciona o mecanismo de paragem] | [Tempo de resposta] |
| Anulação de resultado | [Ex.: Interface de anulação] | [Como o supervisor pode anular um resultado específico] | [Tempo de resposta] |
| Reversão de decisão | [Ex.: Procedimento de reversão] | [Como reverter uma decisão já executada] | [Tempo de resposta] |
| Substituição manual | [Ex.: Modo de operação manual] | [Como operar sem o sistema de IA] | [Tempo de resposta] |
Indicadores e alertas de funcionamento anómalo do sistema.
| Indicador | Descrição | Limiar de Alerta | Ação Requerida |
|---|---|---|---|
| [Ex.: Score de confiança baixo] | [Descrição do indicador] | [Valor limiar] | [Ação a tomar] |
| [Ex.: Desvio de distribuição] | [Descrição] | [Valor limiar] | [Ação] |
| [Ex.: Taxa de erros elevada] | [Descrição] | [Valor limiar] | [Ação] |
| [Ex.: Latência anormal] | [Descrição] | [Valor limiar] | [Ação] |
| Função | Responsável | Responsabilidades | Autoridade |
|---|---|---|---|
| Supervisor operacional | [Nome/Cargo] | Monitorização diária do sistema; revisão de resultados; intervenção quando necessário; registo de intervenções | Anular resultados individuais; solicitar revisão; reportar anomalias |
| Supervisor técnico | [Nome/Cargo] | Monitorização de métricas técnicas; análise de anomalias; ajustes de configuração; manutenção de registos técnicos | Parar o sistema por motivos técnicos; ajustar parâmetros operacionais |
| Responsável de supervisão | [Nome/Cargo] | Supervisão global do plano; revisão periódica; formação dos supervisores; reporte à direção | Suspender utilização do sistema; alterar procedimentos de supervisão; escalação |
| Suplentes | [Nome/Cargo] | Substituição dos supervisores em caso de ausência; manutenção das mesmas competências e acessos | Mesmas autoridades do supervisor substituído |
| Requisito | Descrição |
|---|---|
| Formação académica | [Nível de formação mínimo requerido] |
| Experiência profissional | [Experiência mínima no domínio de aplicação do sistema] |
| Competências técnicas | [Competências técnicas específicas requeridas] |
| Conhecimento regulatório | [Conhecimento mínimo do AI Act e regulamentação aplicável] |
| Módulo de Formação | Conteúdo | Duração | Periodicidade |
|---|---|---|---|
| Formação inicial sobre o sistema | [Funcionamento do sistema, interface, capacidades e limitações] | [Horas] | Antes do início da supervisão |
| Interpretação de resultados | [Como interpretar outputs, scores, explicações; deteção de anomalias] | [Horas] | Antes do início da supervisão |
| Procedimentos de intervenção | [Protocolo de paragem, anulação, reversão; escalação] | [Horas] | Antes do início da supervisão |
| Enviesamento e automation bias | [Consciência sobre automation bias; estratégias de mitigação; pensamento crítico] | [Horas] | [Semestral / Anual] |
| Atualização e reciclagem | [Alterações ao sistema, novas funcionalidades, lições aprendidas] | [Horas] | [Semestral / Anual] |
| Enquadramento legal | [Requisitos do AI Act, RGPD, direitos fundamentais] | [Horas] | [Anual] |
Defina quando e como os supervisores humanos devem intervir nas decisões do sistema.
| Situação | Ação do Supervisor | Prazo |
|---|---|---|
| Score de confiança abaixo de [X%] | Revisão obrigatória do resultado antes de qualquer ação | [Prazo] |
| Resultado que afeta direitos fundamentais | Validação humana obrigatória antes da comunicação ao afetado | [Prazo] |
| Anomalia detetada pelo sistema de monitorização | Investigação da anomalia; eventual paragem do sistema | [Prazo] |
| Reclamação de pessoa afetada | Revisão do caso específico; análise do resultado do sistema | [Prazo] |
| Decisão com consequências irreversíveis | Aprovação humana obrigatória antes da execução | [Prazo] |
Fluxo de Decisão da Supervisão Humana:
1. Sistema de IA produz resultado
↓
2. Verificação automática de critérios de intervenção
↓
3a. Critérios não acionados → Resultado prossegue (com monitorização)
3b. Critérios acionados → Alerta ao supervisor
↓
4. Supervisor analisa o resultado e o contexto
↓
5a. Supervisor valida → Resultado prossegue
5b. Supervisor rejeita → Anulação / Revisão / Escalação
↓
6. Registo da decisão e justificação
| Nível | Situação | Ação | Responsável | Prazo |
|---|---|---|---|---|
| Nível 1 | Anomalia pontual; resultado duvidoso | Revisão pelo supervisor operacional; decisão sobre anulação | Supervisor operacional | [Prazo] |
| Nível 2 | Anomalias recorrentes; falhas técnicas; reclamação com mérito | Investigação técnica; eventual suspensão temporária; análise de causa-raiz | Supervisor técnico | [Prazo] |
| Nível 3 | Risco significativo para direitos fundamentais; incidente grave | Suspensão do sistema; notificação ao responsável de supervisão; comunicação interna | Responsável de supervisão | [Prazo] |
| Nível 4 | Incidente grave com danos; falha sistémica | Desativação do sistema; notificação à direção executiva; notificação à ANACOM (Art. 73.º) | Direção executiva / AI Officer | Imediato |
Todas as intervenções humanas devem ser registadas na seguinte tabela. Os registos devem ser conservados por um período mínimo de 10 anos.
| Data/Hora | Supervisor | Tipo de Intervenção | Motivo | Ação Tomada | Resultado |
|---|---|---|---|---|---|
| [DD/MM/AAAA HH:MM] | [Nome] | [Anulação / Reversão / Paragem / Revisão] | [Justificação] | [Descrição da ação] | [Resultado da intervenção] |
| [DD/MM/AAAA HH:MM] | [Nome] | [Tipo] | [Justificação] | [Descrição] | [Resultado] |
| [DD/MM/AAAA HH:MM] | [Nome] | [Tipo] | [Justificação] | [Descrição] | [Resultado] |
| Tipo de Revisão | Periodicidade | Responsável | Elementos a Rever |
|---|---|---|---|
| Revisão operacional | [Mensal] | [Responsável de supervisão] | Registos de intervenções; eficácia das medidas; feedback dos supervisores |
| Revisão completa do plano | [Semestral / Anual] | [AI Officer] | Adequação do plano; atualização de procedimentos; necessidades de formação; lições aprendidas |
| Revisão extraordinária | Após incidente ou alteração significativa | [AI Officer / Direção] | Análise do incidente; revisão de todos os elementos do plano |
O plano deve ser atualizado sempre que ocorra:
Responsável pelo plano:
Nome: [Nome completo]
Cargo: [Cargo]
Assinatura
Data: [DD/MM/AAAA]
Responsável pela IA (AI Officer):
Nome: [Nome completo]
Cargo: [Cargo]
Assinatura
Data: [DD/MM/AAAA]
Supervisor operacional principal:
Nome: [Nome completo]
Cargo: [Cargo]
Assinatura
Data: [DD/MM/AAAA]
Direção Executiva:
Nome: [Nome completo]
Cargo: [Cargo]
Assinatura
Data: [DD/MM/AAAA]
Plano de Supervisão Humana elaborado nos termos do Art. 14.º do Regulamento (UE) 2024/1689 (AI Act)
© [Nome da organização] - Todos os direitos reservados