Fomos incluídos na lista da Forbes de “100 startups para assistir na Colômbia em 2025”
Encontre nossa documentação técnica: docs.gatekeeperx.com
Arrow
Arrow
Fomos incluídos na lista da Forbes de “100 startups para assistir na Colômbia em 2025”
Encontre nossa documentação técnica: docs.gatekeeperx.com
Arrow
Arrow
Fraud Prevention

Como criar uma estratégia de prevenção de fraudes baseada em dados

Um guia para equipes de prevenção de fraudes que precisam escalar

O problema que todo gerente de fraudes conhece

As equipes de prevenção de fraudes operam principalmente em modo reativo. Um analista detecta um padrão suspeito. Isso se intensifica. Uma regra é criada. A regra funciona por algumas semanas até que o atacante a ignore. Outra regra é criada. O ciclo se repete.

Enquanto isso, os falsos positivos aumentam, o atrito para usuários legítimos cresce e os ataques mais sofisticados — aqueles que operam em escala, coordenados e distribuídos — passam despercebidos até que o dano já tenha sido causado.

Há um segundo problema que os gerentes de fraudes enfrentam com menos visibilidade, mas com igual impacto: a dependência da equipe de tecnologia para implementar mudanças.

Ajustar uma regra, adicionar um novo sinal, responder a um vetor de ataque emergente — tudo exige um ticket, uma priorização e um sprint. Em um ambiente em que os atacantes se adaptam em poucas horas, esse atrito operacional tem um custo real.

O problema não é falta de atenção ou esforço. O problema é que os sistemas tradicionais não foram projetados para o volume, a velocidade e a complexidade das fraudes digitais modernas.

Este documento descreve os princípios de uma estratégia moderna de prevenção de fraudes, que detecta em tempo real, aprende continuamente e se expande sem exigir intervenção manual em cada ataque.

Por que os sistemas tradicionais não escalam

Os sistemas de fraude de primeira geração foram construídos com base em regras: se o valor exceder X, se o país não corresponder, se houver mais de N tentativas em Y minutos, bloqueie.

As regras têm um problema estrutural: elas são estáticas em um ambiente dinâmico. Os atacantes os aprendem, os ignoram e os exploram. Cada nova regra adiciona complexidade operacional sem resolver o problema subjacente.

O segundo problema é a latência de resposta. Quando um analista detecta um novo padrão, o ataque já foi escalado. Na fraude digital, a janela entre o início de um ataque e um dano significativo pode ser medida em minutos.

O resultado é uma equipe que está sempre um passo atrás — reagindo ao que já aconteceu, sem a capacidade de antecipar o que vem a seguir.

Os seis pilares de uma estratégia de prevenção de fraudes baseada em dados

1. Centralização: uma única fonte de verdade

Visão real da plataforma GX
  • O primeiro obstáculo em qualquer estratégia de fraude não é o modelo ou as regras. É saber onde estão os dados.
  • Na maioria das organizações, as informações necessárias para detectar fraudes estão em sistemas fragmentados: eventos de pagamento em um sistema, dados de integração em outro, histórico de suporte em um terceiro. Cada equipe tem uma visão parcial. Ninguém tem a imagem completa.
  • Sem uma camada que consolide essas fontes em uma visão unificada por entidade — usuário, dispositivo, cartão — qualquer análise opera com informações incompletas.
  • Um modelo treinado com dados fragmentados não aprende padrões reais; ele aprende os limites do que cada sistema registra de forma independente.
  • A centralização não significa necessariamente migrar tudo para um único sistema de armazenamento. Isso significa ter uma arquitetura em que os sinais de diferentes fontes convergem no momento da decisão, com latência suficientemente baixa para operar em tempo real.

2. Normalização: a base que ninguém vê, mas todos precisam

  • O primeiro obstáculo em qualquer projeto de fraude grave não é o modelo. São os dados.
  • A mesma pessoa pode existir com diferentes formatos de e-mail, número de telefone ou documento em todos os sistemas. Para um algoritmo, essas são entidades diferentes — e isso quebra toda a análise.
  • Normalização significa padronizar e-mails, números de telefone e documentos sob um esquema consistente, desduplicar registros e resolver entidades em todas as fontes.
  • Sem essa etapa, não é possível criar um gráfico de identidade, computar características comportamentais históricas ou treinar modelos com sinais confiáveis.
  • É a etapa menos visível e a que mais afeta a qualidade de tudo o que vem depois.

Visão real da plataforma GX

3. Gráfico de identidade: vendo relacionamentos que as regras não conseguem ver

  • Depois que os dados estiverem normalizados, a próxima etapa é conectá-los.
  • O gráfico de identidade modela entidades — usuários, dispositivos, cartões, e-mails, IPs, números de telefone — como nós e as relações entre eles como bordas.
  • Duas contas compartilhando um dispositivo.
  • Um dispositivo associado a três endereços IP em dez minutos.
  • Um cartão vinculado a e-mails criados no mesmo dia.

  • Individualmente, nenhum desses sinais é suficiente para tomar uma decisão. Em uma rede, o padrão fica claro.
  • Essa abordagem é especialmente eficaz na detecção de fraudes organizadas: redes de contas falsas, ataques a várias contas, atividade coordenada de bots.
  • Muitas operações fraudulentas só se tornam visíveis quando a estrutura das relações entre identidades é analisada — não quando cada transação é avaliada isoladamente.

Visão real da plataforma GX

4. Engenharia de recursos: os sinais que realmente discriminam a fraude

  • Um modelo é tão bom quanto os recursos que o alimentam.
  • Na detecção de fraudes, os sinais mais eficazes capturam o comportamento no contexto, não apenas atributos estáticos.
  • As três dimensões com o maior poder preditivo na prática:

-Velocidade
  • Volume de transações por usuário, dispositivo ou IP em janelas de 1, 5 ou 60 minutos. Os padrões de velocidade de ataque coordenado e de bots são estruturalmente diferentes do comportamento humano — esse sinal sozinho separa uma grande parte das fraudes.

-Comportamento histórico
  • Número de novas tentativas, recusas recentes, contas vinculadas ao mesmo dispositivo, desvio do padrão histórico do usuário. Um usuário legítimo com 15 recusas em uma hora é um sinal muito diferente de um novo usuário que exibe o mesmo comportamento.

-Contexto geográfico
  • País do IP versus país da placa versus localização histórica do usuário. Viagens impossíveis — transações que ocorrem em regiões incompatíveis em janelas de tempo curtas — podem ser detectadas diretamente por meio desses recursos.

Os recursos mais eficazes são precisamente aqueles que traduzem as relações do gráfico de identidade em sinais quantificáveis ao longo de janelas de tempo:

  • O desafio técnico é computar esses sinais em tempo real, em janelas deslizantes, com baixa latência.

  • Isso requer um loja de recursos projetada para fraudes, não é um armazém analítico tradicional.

  • Também exige que a equipe de fraudes seja capaz de criar e ajustar recursos sem depender de um ciclo de desenvolvimento — porque quando um novo vetor de ataque aparece, a velocidade de resposta é determinada por quem controla a ferramenta, não por quem controla o código.

5. Decisões em tempo real: o problema da arquitetura

  • Em pagamentos digitais e integração, a janela de decisão é menor que 100 milissegundos.
  • Um sistema que não pode operar dentro dessa faixa deve escolher entre ser muito conservador — bloqueando usuários legítimos — ou muito permissivo — permitindo que a fraude passe.
  • A arquitetura que resolve isso combina a ingestão de eventos de streaming, um armazenamento de recursos de baixa latência para recursos pré-computados e um mecanismo de pontuação que consolida modelos, regras e sinais gráficos em uma única decisão.

  • Um ponto frequentemente subestimado: a maioria dos problemas de latência na produção não está no modelo em si.
  • Eles estão na forma como o sistema recupera dados contextuais no momento da decisão.
  • Mas outro gargalo aparece ainda mais cedo: a dependência da equipe de tecnologia para implementar mudanças operacionais.
  • Quando os dados são modelados adequadamente e o sistema projetado para isso, a equipe de fraudes pode ajustar as regras, incorporar novos sinais e responder às ameaças emergentes de forma autônoma — sem tickets, sem sprints, sem atritos.

6. Etiquetas e monitoramento contínuo: o problema silencioso de ML em fraudes

  • Há um desafio que as equipes de ML enfrentam em situações de fraude e que raramente é discutido abertamente: os rótulos chegam tarde.
  • Um estorno pode levar 60, 90 ou até 120 dias a ser confirmado.
  • Se esse atraso não for tratado explicitamente no processo de treinamento, o ruído sistemático é introduzido no modelo — transações que pareciam legítimas na época, mas depois se revelaram fraudulentas, ou vice-versa.

  • Organizações mais maduras operam com várias fontes de verdade, combinadas com diferentes pesos, dependendo da confiabilidade e da latência.

  • Eles também mantêm modelos em modo de sombra antes da implantaçãoe monitore o desempenho continuamente para detectar desvios antes que eles afetem a produção.
  • Sem esse nível de rigor na rotulagem, um modelo que mostra boas métricas off-line pode se deteriorar silenciosamente na produção.

Como fica na prática

Considere o seguinte cenário, típico em plataformas de pagamento digital:

  • Monitores de anomalias detectam um aumento incomum no atrito de um grupo de comerciantes. Ao analisar o padrão subjacente, fica evidente um volume atípico de tentativas de pagamento concentradas em um curto período — o perfil clássico de um cartões de teste de ataque de bots em grande escala.
  • Em um sistema sem os pilares descritos acima, esse cenário requer intervenção manual: um analista deve detectar o padrão, criar ou ajustar uma regra e implantá-la — tudo isso enquanto o ataque continua.
  • Em um sistema com dados normalizados, um gráfico de identidade ativo, recursos de velocidade pré-computados e um modelo treinado com sinais confiáveis, o mecanismo de pontuação detecta a anomalia em tempo real e age automaticamente. Sem intervenção manual. Sem permitir que o ataque se expanda a ponto de gerar perdas significativas.
  • A próxima etapa — e para onde os sistemas mais avançados estão se dirigindo — é automatizar a análise pós-ataque: reconstruir a rede de ataque, identificar o vetor de entrada e documentar padrões em minutos, em vez de horas.

Isso se torna possível por meio da combinação de consultas orquestradas e raciocínio com base em LLMs aplicados aos dados de ataque.

O que você pode começar a avaliar hoje

Antes de pensar em modelos ou arquiteturas, vale a pena fazer um diagnóstico honesto da situação atual:

1. Dados:

  • As principais entidades estão normalizadas em todos os sistemas?

  • Existe uma visão unificada do usuário que consolida a identidade, os dispositivos e o comportamento transacional?

2. Detecção:

  • O sistema atual detecta padrões de rede ou analisa apenas transações individuais?

  • Qual proporção de casos de fraude são detectados em tempo real versus casos pós-hoc?

3. Operações:

  • Quanto tempo da equipe é gasto criando e mantendo regras versus análise estratégica?

  • Quanto tempo leva, em média, para responder a um novo ataque?

  • Quantas dessas mudanças exigiram a intervenção da equipe de tecnologia?

As respostas a essas perguntas definem onde estão as lacunas mais críticas e por onde faz sentido começar.

Publicado:
March 18, 2026
Última atualização:
March 18, 2026

Oferece pontuações de risco com clareza, códigos de motivos explicáveis