

Governação da IA no setor financeiro: da fase experimental à supervisão eficaz
Nos últimos meses, uma reflexão incómoda começou a ganhar força nos conselhos de administração do setor financeiro: a regulamentação tecnológica raramente chega antes do problema. Quase sempre surge depois, quando o mercado já se alterou ou quando um incidente obrigou a reagir. Vimos isso após a crise financeira, com Basileia III. E vimos isso também com a proteção de dados. No que diz respeito à inteligência artificial, o padrão não muda.
A diferença é que, agora, a IA não está “a caminho”. Já está aqui. Está em funcionamento e participa ativamente em processos críticos dentro das instituições financeiras: scoring de crédito e análise de risco, deteção de fraude, segmentação e priorização de clientes, automatização do atendimento e análise preditiva nas operações.
No entanto, em muitas organizações persiste uma lacuna relevante: estes sistemas não estão totalmente integrados nos quadros formais de risco corporativo. Quando um sistema automatizado influencia decisões relevantes, deixa de ser apenas uma ferramenta tecnológica. Torna-se: risco operacional, risco regulatório e risco reputacional. E, consequentemente, um elemento passível de supervisão.
Da ética voluntária à obrigação auditável
Durante anos, o debate sobre a inteligência artificial responsável foi dominado por princípios e quadros conceptuais: ética da IA, guias de boas práticas e recomendações não vinculativas. Esse paradigma está a mudar a um ritmo acelerado.
Hoje, os princípios estão a traduzir-se em requisitos operacionais verificáveis: a equidade (fairness) requer testing sistemático; a transparência exige documentação rastreável; a governação implica funções e responsabilidades definidas.
Esta mudança marca uma transição crítica: a ética deixa de ser declarativa para se tornar auditável.
Europa: confiança e direitos
A Europa definiu uma prioridade clara: a confiança. Isso traduz-se numa premissa prática: a IA não é apenas tecnologia, é também um impacto nos direitos e nas pessoas.
A IA é também um impacto nos direitos e nas pessoas
A Artificial Intelligence Act reflete essa abordagem através da classificação por risco, obrigações de gestão e rastreabilidade, e supervisão humana em determinadas utilizações.
O que é relevante, para a banca e os seguros, é que a IA não surge do nada. Ela cruza-se com quadros normativos já exigentes. E é aí que reside a mudança profunda.
A IA entra no perímetro da supervisão
A abordagem europeia introduz uma diferença fundamental em relação a outros modelos globais: os Estados Unidos priorizam a inovação, a Ásia prioriza a eficiência e a Europa prioriza a confiança (trust-first). Isto traduz-se numa premissa chave: a inteligência artificial não é apenas tecnologia, é também uma questão de direitos fundamentais.
A Artificial Intelligence Act concretiza esta abordagem através de: classificação dos sistemas por nível de risco; requisitos de gestão de riscos; requisitos de rastreabilidade; supervisão humana obrigatória em determinados casos. Mas o verdadeiro impacto não reside apenas na norma, mas na sua integração com os quadros já existentes.
A IA deixa de ser experimental e passa a ser supervisionada
A IA entra no âmbito prudencial. Uma das transformações mais relevantes em 2026 é a posição dos supervisores: a inteligência artificial passa a ser considerada relevante para o risco prudencial, a resiliência operacional e a estabilidade financeira.
Isto implica uma mudança substancial: a IA não é regulamentada de forma isolada, integra-se em quadros como CRD, DORA e gestão de risco das TIC.
De ‘preparar-se’ para ‘ser auditado’
O calendário regulamentar marca um ponto de viragem concreto: agosto de 2026. Os sistemas de alto risco deverão cumprir integralmente os requisitos, e os supervisores começarão a avaliar ativamente a sua implementação. Isto implica uma mudança de fase, do planeamento para a execução e verificação. Por outras palavras: a IA na banca deixa de ser uma capacidade e passa a ser um objeto de auditoria.
O novo padrão de governação: integrar a IA no quadro de risco existente.
As entidades mais avançadas não estão à espera da pressão regulatória. Estão a construir um modelo de gestão estruturado baseado em cinco pilares:
- Inventário de modelos (AI Registry): Visibilidade completa dos modelos em uso e da sua finalidade
- Classificação por risco: Alinhada com a AI Act e com o impacto nos negócios e nos clientes
- Integração com Model Risk Management: Incorporando a IA no quadro de risco já existente
- Avaliação ética e de preconceitos: Análise sistemática de fairness, bias e explicabilidade
- Supervisão contínua em produção: Monitorização, validação periódica e mecanismos de resposta
Seguros: quando a precisão não é suficiente
No setor dos seguros, o desafio assume uma complexidade adicional. O problema estrutural é a discriminação indireta. Mesmo eliminando variáveis sensíveis, os modelos podem gerar enviesamentos através de correlações: (código postal → nível socioeconómico, comportamento → estado de saúde). Isto gera uma tensão crítica entre: precisão atuarial e equidade.
Os reguladores europeus estão a elevar o padrão: os modelos não só devem ser corretos como também devem ser justificáveis.
A IA não cria novos riscos, amplifica-os
Um elemento central para compreender esta mudança é o seguinte: a IA não introduz categorias de risco completamente novas, mas intensifica os riscos existentes, aumenta a velocidade do impacto, amplifica o alcance das decisões e reduz a visibilidade se não for devidamente regulamentada.
Por isso, a resposta não é criar quadros paralelos, mas reforçar os já existentes.
A nível estratégico, o setor financeiro já compreende o impacto da inteligência artificial. O desafio atual é operacional: identificar quais os modelos que estão realmente em produção, atribuir responsabilidades claras, garantir a explicabilidade nas decisões críticas e estabelecer protocolos para lidar com falhas ou desvios. A diferença entre as organizações não residirá na sua visão sobre a IA. Residirá na sua capacidade de operacionalizar a sua governação.
Conclusão: governar antes que seja obrigatório
A inteligência artificial já faz parte do core do setor financeiro. A regulamentação está a chegar. A supervisão está a começar. As exigências vão aumentar. A questão já não é se esta mudança irá ocorrer. A questão é: em que estado de maturidade a supervisão irá encontrar cada organização?
Neste novo contexto, as entidades que liderarão o setor não serão necessariamente aquelas que mais investem em IA. Serão aquelas capazes de: compreender onde ela realmente tem impacto, gerir os seus riscos de forma estruturada, demonstrar controlo, rastreabilidade e responsabilidade.
Porque no setor financeiro, a confiança nunca foi opcional. E na era da inteligência artificial, a sua governança também não o será.
A vantagem competitiva não está em adotar a IA mais cedo, mas sim em governá-la melhor