A inteligência artificial pode contribuir para a análise de risco de corrupção em três frentes que se retroalimentam: prevenção, detecção e resposta. Diferentemente dos métodos tradicionais, que atuam de forma reativa e limitada ao que já foi denunciado ou auditado, a IA trabalha antecipa riscos com base em dados estruturados e não estruturados.
Na prevenção, algoritmos de machine learning conseguem mapear processos mais suscetíveis à manipulação — como compras públicas, licitações, concessões e contratações — com base em históricos de irregularidades, padrões comportamentais e variações incomuns em fluxos financeiros, o que permite que as áreas de Compliance atuem reforçando controles nos processos em que há maior probabilidade de desvio.
Na detecção, analisa e cruza, em tempo real, grandes volumes de dados de diferentes fontes: relatórios financeiros, e-mails corporativos, dados de ERPs, redes sociais, processos judiciais, registros públicos de empresas, listas de sanções, dados de doações políticas, entre outros. O objetivo é identificar padrões que indicam favorecimento indevido, lavagem de dinheiro, conflitos de interesse, uso de laranjas ou fraudes sofisticadas. Não raramente, as conexões empresariais envolvem mais de uma pessoa jurídica, atravessam diferentes órgãos públicos e só são reveladas com a ajuda análises de teias de relacionamentos, que são interpretadas pela IA pode de maneira mais acurada.
No que se refere à resposta, a IA ajuda a classificar incidentes por gravidade e urgência, além de sugerir medidas corretivas com base em histórico de casos semelhantes e também dá suporte a investigações internas e auditorias forenses, reduzindo o tempo e o custo de processos que antes exigiam grandes equipes.
Porém, há um ponto importante que precisa ser ressaltado: a IA não é neutra nem autônoma, ou sejam ela precisa de dados de qualidade, supervisão humana qualificada e critérios éticos claros, para que haja controle dos vieses e validação das informações e insights.
Para tanto, a IA atua em diversas frentes da análise de risco, são elas:
- Mapeamento de vulnerabilidades institucionais
A IA consegue identificar os pontos de fragilidade interna com base na análise de processos, fluxos de aprovação e perfis de colaboradores. Assim, nas áreas com baixa segregação de funções, aprovações concentradas ou mudanças constantes de responsáveis, em que os riscos costumam ser maiores, contar com um algoritmo treinado com dados históricos é uma das formas de mapear as áreas mais expostas, orientando a revisão de controles internos.
Por exemplo, uma empresa pública que realiza muitas dispensas de licitação com os mesmos fornecedores, é considerada como área crítica, especialmente se há recorrência de urgência nos processos ou ausência de justificativas robustas.
- Análise de transações suspeitas em tempo real
Os sistemas de IA são capazes de monitorar transações financeiras e operacionais com base em regras pré-estabelecidas e também por aprendizado de máquina. A ideia é cruzar informações que, isoladamente, não parecem problemáticas, mas, em conjunto, indicam desvios ou fraudes.
Por exemplo, pagamentos fracionados abaixo do limite de fiscalização direta, realizados com frequência para o mesmo prestador de serviço, são indícios de uma tentativa deliberada de burlar controles.
- Detecção de conflito de interesses e vínculos ocultos
Uma das áreas mais potentes da IA é o cruzamento de dados públicos e privados para revelar relações pouco visíveis. Logo, integrar dados de redes sociais, registros de empresas, históricos de atuação profissional, doações políticas e relações familiares, revela possíveis conflitos que passariam despercebidos.
- Análise de editais e contratos em busca de vícios e favorecimentos
A IA já é usada para analisar textos normativos e documentos contratuais, apontando cláusulas suspeitas ou que favorecem concorrentes específicos. Isso é feito por meio de NLP (Processamento de Linguagem Natural), que compara termos com bancos de dados de contratos já investigados. Isso é muito comum em contratos com cláusulas de exclusividade injustificadas, penalidades desproporcionais ou exigências técnicas que só uma empresa cumpre.
- Perfilamento de fornecedores e Due Diligence automatizada
A IA facilita o ranqueamento de fornecedores por grau de exposição a riscos, com base em seu histórico jurídico, reputação na mídia, vínculos com agentes públicos, participação em cartéis ou envolvimento em operações policiais.
Desse modo, é possível identificar um fornecedor novo que nunca trabalhou com o setor público, mas tem um sócio envolvido em fraudes anteriores, sendo automaticamente classificado como “alto risco” e bloqueado até nova análise humana.
- Avaliação de comportamento interno (compliance comportamental)
Os algoritmos também são usados para identificar padrões incomuns de comportamento dentro da organização: acessos fora do expediente, troca de e-mails com conteúdo sigiloso para endereços pessoais, alteração de documentos em vésperas de auditoria.
Por exemplo, um colaborador que acessa constantemente registros contábeis e documentos jurídicos fora do horário, e que está envolvido em processos sensíveis, é um alerta para verificação.
- Análise preditiva para modelar cenários de risco
A IA simula impactos de determinadas decisões: mudança de fornecedor, abertura de nova filial, entrada em nova região ou setor regulado, orientando a tomada de decisão estratégica com foco em integridade, estimando probabilidades de exposição a esquemas de corrupção.
- Detecção de fraude em reembolsos, despesas e cartões corporativos
A IA aplicada à análise de pequenas despesas também é relevante. O sistema consegue cruzar notas fiscais, datas, locais e registros de GPS para verificar se um reembolso faz sentido — ou se se trata de uso indevido de verba. Por exemplo, um reembolso solicitado por um jantar em Brasília, no mesmo dia em que o colaborador estava em reunião presencial em São Paulo — captado por geolocalização do crachá ou check-in de hotel.
Importância da IA para o profissional de Compliance
Atualmente, é imprescindível para o profissional de compliance saber como usar cada tipo de IA para otimizar os processos empresariais, desde a tomada de decisão até relacionamento com cliente.
Para que isso seja possível, é necessário contar com um processo de governança de dados estruturado internamente, e isso começa respondendo uma pergunta chave: Quais os dados que são importantes para o meu negócio?
O algoritmo preditivo, por exemplo, norteia a tomada de decisão de como chegar aos clientes mais relevantes e propensos a consumir o produto ou serviço que a empresa oferece.
Neste cenário, a regulação do setor tornará possível usar a IA preditiva no relacionamento com stakeholders e criar processos e soluções para interação com eles conforme os objetivos. No caso de fornecedores, por exemplo, para analisar os riscos na interação e na gestão de terceiros o algoritmo identifica o fornecedor que oferece mais riscos de compliance, a IA é como um copiloto cujos insights podem ser validados ou não pelo profissional, daí a importância do profissional de compliance conhecer essas soluções.
Em outras palavras, o profissional de Compliance precisa estar familiarizado com as soluções de IA.
Por outro lado, a ética e o Compliance devem estar presentes no desenvolvimento de soluções de inteligência artificial, conhecido pelo termo em inglês: Responsible AI, que engloba o uso de princípios relacionados à Ética para construir a solução, ou seja, o time de produto precisa se basear nesses princípios e agregar valor não só para a empresa, mas para a sociedade.
Inteligência Artificial Responsável
A “Inteligência Artificial Responsável” (Responsible AI) nada mais é do que o uso de tecnologias de IA com foco em princípios éticos e práticos visando impactar positivamente a sociedade, minimizando possíveis danos. O conceito envolve a criação e aplicação de algoritmos e sistemas de forma transparente, justa e segura, respeitando direitos fundamentais e promovendo um uso equitativo da tecnologia.
Para que a IA seja considerada responsável, é essencial que haja a transparência nos processos, tornando as decisões automatizadas compreensíveis e auditáveis.
A equidade é outro princípio central, pois busca evitar preconceitos ou discriminação nos resultados gerados pelos sistemas. Além disso, a proteção de dados pessoais e a privacidade precisam ser prioridades, alinhando a IA com as normas de segurança digital.
A segurança do sistema também deve ser levada em conta, evitando falhas e prevenindo vulnerabilidades que possam ser exploradas maliciosamente. Por fim, é necessário que as organizações envolvidas na implementação de IA assumam a responsabilidade pelas consequências de suas tecnologias, tanto no que se refere a erros quanto aos impactos mais amplos na sociedade.
Um exemplo disso, é evitar viés no modelo de solução de AI, etarismo, por exemplo, que devem ser mapeados para não prejudicar a reputação. Outros exemplos são vieses de gênero, cor, raça, além de seguir procedimentos legais para uso de dados, LGPD, sobretudo na obtenção de informações de candidatos em soluções de IA para recrutamento e seleção.
Por fim, um último exemplo de Inteligência Artificial Responsável, é analisar o risco de cibersegurança quando a ferramenta é disponibilizada ao público.
Se você quer estar por dentro do tema não pode deixar de conferir o Podcast com o especialista Paulo Grigorovski, que é Conselheiro de Administração e consultor com mais de 20 anos de experiência em Estratégia, Inovação, Marketing e IA e Dados. Atuou em empresas como Vivo, Telefônica e VR Benefícios, tendo atuado como CMO por 7 anos. Paulo, é também Co-founder do AI on Board, programa em parceria com a Board Academy, que faz o onboarding de conselheiros, lideranças e empresários no mundo da Inteligência Artificial. Clique aqui e confira agora!
E se você gostou deste conteúdo, compartilhe e comente e ajude a difundir informações relevantes!