#

Governação da IA no setor financeiro: da fase experimental à supervisão eficaz

Governação da IA no setor financeiro: da fase experimental à supervisão eficaz

Nos últimos meses, uma reflexão incómoda começou a ganhar força nos conselhos de administração do setor financeiro: a regulamentação tecnológica raramente chega antes do problema. Quase sempre surge depois, quando o mercado já se alterou ou quando um incidente obrigou a reagir. Vimos isso após a crise financeira, com Basileia III. E vimos isso também com a proteção de dados. No que diz respeito à inteligência artificial, o padrão não muda.

A diferença é que, agora, a IA não está “a caminho”. Já está aqui. Está em funcionamento e participa ativamente em processos críticos dentro das instituições financeiras: scoring de crédito e análise de risco, deteção de fraude, segmentação e priorização de clientes, automatização do atendimento e análise preditiva nas operações.

No entanto, em muitas organizações persiste uma lacuna relevante: estes sistemas não estão totalmente integrados nos quadros formais de risco corporativo. Quando um sistema automatizado influencia decisões relevantes, deixa de ser apenas uma ferramenta tecnológica. Torna-se: risco operacional, risco regulatório e risco reputacional. E, consequentemente, um elemento passível de supervisão. 

Da ética voluntária à obrigação auditável

Durante anos, o debate sobre a inteligência artificial responsável foi dominado por princípios e quadros conceptuais: ética da IA, guias de boas práticas e recomendações não vinculativas. Esse paradigma está a mudar a um ritmo acelerado.

Hoje, os princípios estão a traduzir-se em requisitos operacionais verificáveis: a equidade (fairness) requer testing sistemático; a transparência exige documentação rastreável; a governação implica funções e responsabilidades definidas.

Esta mudança marca uma transição crítica: a ética deixa de ser declarativa para se tornar auditável.

Europa: confiança e direitos

A Europa definiu uma prioridade clara: a confiança. Isso traduz-se numa premissa prática: a IA não é apenas tecnologia, é também um impacto nos direitos e nas pessoas.

A IA é também um impacto nos direitos e nas pessoas

A Artificial Intelligence Act reflete essa abordagem através da classificação por risco, obrigações de gestão e rastreabilidade, e supervisão humana em determinadas utilizações. 

O que é relevante, para a banca e os seguros, é que a IA não surge do nada. Ela cruza-se com quadros normativos já exigentes. E é aí que reside a mudança profunda.

A IA entra no perímetro da supervisão

A abordagem europeia introduz uma diferença fundamental em relação a outros modelos globais: os Estados Unidos priorizam a inovação, a Ásia prioriza a eficiência e a Europa prioriza a confiança (trust-first). Isto traduz-se numa premissa chave: a inteligência artificial não é apenas tecnologia, é também uma questão de direitos fundamentais.

A Artificial Intelligence Act concretiza esta abordagem através de: classificação dos sistemas por nível de risco; requisitos de gestão de riscos; requisitos de rastreabilidade; supervisão humana obrigatória em determinados casos. Mas o verdadeiro impacto não reside apenas na norma, mas na sua integração com os quadros já existentes.

A IA deixa de ser experimental e passa a ser supervisionada

A IA entra no âmbito prudencial. Uma das transformações mais relevantes em 2026 é a posição dos supervisores: a inteligência artificial passa a ser considerada relevante para o risco prudencial, a resiliência operacional e a estabilidade financeira.

Isto implica uma mudança substancial: a IA não é regulamentada de forma isolada, integra-se em quadros como CRD, DORA e gestão de risco das TIC.

De ‘preparar-se’ para ‘ser auditado’

O calendário regulamentar marca um ponto de viragem concreto: agosto de 2026. Os sistemas de alto risco deverão cumprir integralmente os requisitos, e os supervisores começarão a avaliar ativamente a sua implementação. Isto implica uma mudança de fase, do planeamento para a execução e verificação. Por outras palavras: a IA na banca deixa de ser uma capacidade e passa a ser um objeto de auditoria. 

O novo padrão de governação: integrar a IA no quadro de risco existente.

As entidades mais avançadas não estão à espera da pressão regulatória. Estão a construir um modelo de gestão estruturado baseado em cinco pilares:

  1. Inventário de modelos (AI Registry): Visibilidade completa dos modelos em uso e da sua finalidade
  2. Classificação por risco: Alinhada com a AI Act e com o impacto nos negócios e nos clientes
  3. Integração com Model Risk Management: Incorporando a IA no quadro de risco já existente
  4. Avaliação ética e de preconceitos: Análise sistemática de fairness, bias e explicabilidade
  5. Supervisão contínua em produção: Monitorização, validação periódica e mecanismos de resposta

Seguros: quando a precisão não é suficiente

No setor dos seguros, o desafio assume uma complexidade adicional. O problema estrutural é a discriminação indireta. Mesmo eliminando variáveis sensíveis, os modelos podem gerar enviesamentos através de correlações: (código postal → nível socioeconómico, comportamento → estado de saúde). Isto gera uma tensão crítica entre: precisão atuarial e equidade. 

Os reguladores europeus estão a elevar o padrão: os modelos não só devem ser corretos como também devem ser justificáveis. 

A IA não cria novos riscos, amplifica-os

Um elemento central para compreender esta mudança é o seguinte: a IA não introduz categorias de risco completamente novas, mas intensifica os riscos existentes, aumenta a velocidade do impacto, amplifica o alcance das decisões e reduz a visibilidade se não for devidamente regulamentada.  

Por isso, a resposta não é criar quadros paralelos, mas reforçar os já existentes.

A nível estratégico, o setor financeiro já compreende o impacto da inteligência artificial. O desafio atual é operacional: identificar quais os modelos que estão realmente em produção, atribuir responsabilidades claras, garantir a explicabilidade nas decisões críticas e estabelecer protocolos para lidar com falhas ou desvios. A diferença entre as organizações não residirá na sua visão sobre a IA. Residirá na sua capacidade de operacionalizar a sua governação.

Conclusão: governar antes que seja obrigatório

A inteligência artificial já faz parte do core do setor financeiro. A regulamentação está a chegar. A supervisão está a começar. As exigências vão aumentar. A questão já não é se esta mudança irá ocorrer. A questão é: em que estado de maturidade a supervisão irá encontrar cada organização?

Neste novo contexto, as entidades que liderarão o setor não serão necessariamente aquelas que mais investem em IA. Serão aquelas capazes de: compreender onde ela realmente tem impacto, gerir os seus riscos de forma estruturada, demonstrar controlo, rastreabilidade e responsabilidade.

Porque no setor financeiro, a confiança nunca foi opcional. E na era da inteligência artificial, a sua governança também não o será.

A vantagem competitiva não está em adotar a IA mais cedo, mas sim em governá-la melhor

Poderão ainda interessar-lhe estes conteúdos