Fraud Copilot: uma arquitetura de IA híbrida para detecção de fraudes de próxima geração
Saiba como um Fraud Copilot combina LLMs, modelos preditivos, inteligência gráfica e regras de negócios para criar sistemas de detecção de fraudes com IA de próxima geração.

O problema com a detecção tradicional de fraudes
A detecção tradicional de fraudes enfrenta desafios crescentes devido à crescente sofisticação das ameaças e às limitações dos sistemas baseados em regras. Este artigo propõe uma arquitetura híbrida para um Copilot de fraudes: um assistente de inteligência artificial que combina modelos de linguagem grande (LLMs), geração aumentada de recuperação (RAG), modelos preditivos avançados e regras de negócios.
A arquitetura do GX Fraud Copilot é apresentada, detalhando seu design, recursos de explicabilidade, descoberta de padrões e análise relacional. Além disso, são discutidas as implicações da implementação de uma abordagem humana em relação à automação total (piloto automático), juntamente com as limitações e desafios associados. Este trabalho demonstra como um Copilot pode ampliar o julgamento do analista, permitindo decisões mais rápidas, consistentes e totalmente rastreáveis.
O que é um copiloto de fraude?
O termo co-piloto refere-se a aplicativos construídos com base em modelos básicos (por exemplo, GPT-4 [1] ou LLama [2]) que auxiliam humanos em tarefas complexas.
Ao contrário de um “piloto automático” (automação total), um copiloto mantém o analista informado sobre o ciclo de decisão, priorizando a explicabilidade, a rastreabilidade e o controle. Isso significa que o sistema pode explicar por que uma pontuação de alto risco foi produzida, quais sinais ou regras foram acionados, quais conexões na rede da entidade são relevantes e quais ações alternativas estão disponíveis (bloquear, verificar ou permitir).
Isso humano no circuito o paradigma é crucial em domínios sensíveis, como a detecção de fraudes, onde atores mal-intencionados adotam continuamente técnicas mais sofisticadas, tornando os sistemas tradicionais cada vez mais insuficientes [8].

Copiloto de fraude GX
O valor real do Copiloto de fraude GX surge da combinação das capacidades interpretativas dos Grandes Modelos de Linguagem (LLMs), construídos em arquiteturas de transformadores [9], com outros módulos especializados.
Nessa arquitetura, a inteligência do agente não se limita à geração de texto. Em vez disso, ele é enriquecido por meio da execução de rotinas planejadas, da orquestração de consultas em bancos de dados internos (como o ClickHouse) e da integração de incorporações para calcular a semelhança semântica entre recursos, entidades e regras.
Essa abordagem híbrida permite que o LLM funcione como um camada de interpretação e planejamento de linguagem natural, enquanto o raciocínio quantitativo e a verificação de evidências são realizados por meio de processos determinísticos, garantindo resultados verificáveis e auditáveis.
Arquitetura de um copiloto de fraude de IA
O Copiloto de fraude GX integra quatro camadas principais projetadas para consolidar várias fontes de inteligência em um único ponto de decisão:
1. Dados e contexto
Inclui a ingestão de eventos de transação, dados de estorno, listas de entidades (listas negras e brancas), catálogos de produtos e documentação de regras de negócios.
2. Modelos preditivos e de representação
Usa modelos tradicionais, como XGBoost [3] para pontuação de risco, modelos de séries temporais (como Profeta [4]) para detectar tendências anômalas ao longo do tempo e métodos de explicabilidade, como FORMA [5].
As incorporações são usadas para representar entidades em um espaço vetorial denso e, opcionalmente, gráficos ou redes neurais gráficas (GNNs) [7] para capturar relacionamentos complexos.
3. LLM + TAG
Um modelo de linguagem grande usando Geração aumentada por recuperação (RAG) [6] para consultar fontes internas, responder perguntas em linguagem natural, propor novas regras com base em tendências emergentes e gerar relatórios.
4. Orquestração e ferramentas
Um módulo responsável por coordenar a execução de consultas, simulações de impacto, validações e controles de conformidade. Pode incluir um coordenador multiagente para tarefas complexas [10].
A decisão final do Copilot integra evidências de cada camada por meio de uma pontuação total (Stotal), conceitualmente definido como a soma ponderada das evidências do modelo preditivo (modelo f (x)), regras de negócios (regras (x)), análise gráfica (gráficos (x)) e contexto textual recuperado pelo LLM (contexto (x)).
A recomendação final é apresentada ao analista junto com sua explicação e o rastreamento das consultas de dados subjacentes.
𝑡⟨=( 𝑥) +( 𝑥) +( 𝑥) +
Principais capacidades de um copiloto de fraudes
O Copiloto de fraude GX fornece aos analistas um conjunto de ferramentas avançadas de apoio à decisão.
-
- Uma capacidade chave é sua gerenciamento inteligente de conhecimento antifraude, permitindo a inserção dinâmica de listas, a detecção de similaridade semântica entre recursos, entidades e regras e a avaliação de desempenho de fluxos de trabalho de decisão.
- Esses recursos vão além de responder a consultas — eles também propõem otimizações estruturais no gerenciamento de riscos e simplifique a complexidade dos fluxos de regras existentes.
- O sistema também se destaca em descoberta de padrões e sugestão de regras. Ele analisa tendências recentes de dados de transações para propor novas regras concretas, como limites por dispositivo, mercado ou comerciante em janelas deslizantes, permitindo que as organizações se adaptem rapidamente aos novos padrões de fraude.
- Para identificar relacionamentos complexos, o Copilot integra análise relacional, usando incorporações e/ou gráficos para detectar comunidades, padrões de conluio e unir entidades por meio de Redes neurais gráficas (GNNs).
- A interface também permite consulta de linguagem natural, permitindo que os analistas façam perguntas complexas. Por exemplo, se perguntado:
“Quais comerciantes aumentaram os estornos em 30% nesta semana no México?” O Copilot interpreta a intenção, planeja e executa as consultas necessárias em bancos de dados internos e retorna uma resposta verificável.
Embora conceitualmente relacionado ao Paradigma RAG, a recuperação neste caso envolve orquestração dinâmica de consultas e cálculos em tempo real, não apenas pesquisando documentos estáticos.
Além disso, simulação de impacto permite estimar como novas regras ou limites afetariam as principais métricas. Opcionalmente, orquestração de vários agentes pode coordenar agentes especializados para tarefas complexas.
Limitações e desafios
Enquanto o Copiloto de fraude GX oferece uma estrutura inovadora para auxiliar nas decisões de risco, ela apresenta vários desafios técnicos e operacionais que devem ser cuidadosamente gerenciados.
Uma das principais considerações é latência, pois a utilidade do Copilot depende da execução de consultas e simulações dentro de tempos de resposta aceitáveis.
Consultas complexas em grandes volumes de dados podem causar atrasos significativos. Esse risco é parcialmente mitigado por meio de visualizações materializadas no ClickHouse e o uso de Cache Redis para dados acessados com frequência.
Outro aspecto crítico é custo computacional. A execução contínua de consultas e modelos avançados em bancos de dados e plataformas de nuvem gera custos diretos de infraestrutura. Isso requer equilibrar o precisão das respostas do sistema com eficiência econômica.
Os modelos de IA também são suscetíveis a problemas de preconceito e veracidade. Os LLMs podem gerar explicações convincentes, mas incorretas (alucinações), o que requer uma base estrita em dados reais e verificação por meio de ferramentas determinísticas.
O preconceito nos dados de treinamento também pode levar a decisões injustas ou desvio de dados, tornando essencial monitorar a imparcialidade e a validade do modelo ao longo do tempo.
Finalmente, governança e conformidade regulatória representam um grande desafio. A complexidade do sistema exige total rastreabilidade de cada decisão, incluindo os dados consultados, as versões do modelo usadas e as regras ativas no momento da avaliação.
Estabelecendo uma estrutura que garanta explicações auditáveis é essencial para cumprir as políticas internas e as regulamentações externas.