Fuimos incluidos en la lista Forbes de «100 startups a tener en cuenta en Colombia en 2025»
Encuentre nuestra documentación técnica: docs.gatekeeperx.com
Arrow
Arrow
Fuimos incluidos en la lista Forbes de «100 startups a tener en cuenta en Colombia en 2025»
Encuentre nuestra documentación técnica: docs.gatekeeperx.com
Arrow
Arrow
Fraud Prevention

Cómo crear una estrategia de prevención del fraude basada en datos

Una guía para los equipos de prevención del fraude que necesitan escalar

El problema que todo administrador de fraudes conoce

Los equipos de prevención del fraude operan principalmente en modo reactivo. Un analista detecta un patrón sospechoso. Se intensifica. Se crea una regla. La regla funciona durante unas semanas hasta que el atacante la elude. Se crea otra regla. El ciclo se repite.

Mientras tanto, aumentan los falsos positivos, aumenta la fricción con los usuarios legítimos y los ataques más sofisticados (aquellos que operan a gran escala, coordinados y distribuidos) pasan desapercibidos hasta que el daño ya está hecho.

Hay un segundo problema al que se enfrentan los administradores de fraude con menos visibilidad pero igual impacto: la dependencia del equipo de tecnología para implementar los cambios.

Ajustar una regla, agregar una nueva señal, responder a un vector de ataque emergente: todo requiere un ticket, una priorización y un sprint. En un entorno en el que los atacantes se adaptan en cuestión de horas, esa fricción operativa tiene un coste real.

El problema no es la falta de atención o esfuerzo. El problema es que los sistemas tradicionales no se diseñaron para el volumen, la velocidad y la complejidad del fraude digital moderno.

Este documento describe los principios de una estrategia moderna de prevención del fraude: una estrategia que detecte en tiempo real, aprenda de forma continua y escale sin necesidad de intervención manual para cada ataque.

Por qué los sistemas tradicionales no escalan

Los sistemas de fraude de primera generación se basaron en reglas: si la cantidad supera X, si el país no coincide, si hay más de N intentos en Y minutos, bloquee.

Las reglas tienen un problema estructural: son estáticas en un entorno dinámico. Los atacantes las aprenden, las eluden y las explotan. Cada nueva regla añade complejidad operativa sin resolver el problema subyacente.

El segundo problema es la latencia de respuesta. Cuando un analista detecta un nuevo patrón, el ataque ya ha aumentado. En el fraude digital, el intervalo entre el inicio de un ataque y el daño significativo se puede medir en minutos.

El resultado es un equipo que siempre va un paso por detrás, reaccionando ante lo que ya ha sucedido, sin la capacidad de anticipar lo que vendrá después.

Los seis pilares de una estrategia de prevención del fraude basada en datos

1. Centralización: una única fuente de verdad

Vista real de la plataforma GX
  • El primer obstáculo en cualquier estrategia de fraude no es el modelo ni las reglas. Es saber dónde están los datos.
  • En la mayoría de las organizaciones, la información necesaria para detectar el fraude reside en sistemas fragmentados: los eventos de pago en un sistema, los datos de incorporación en otro y el historial de soporte en un tercero. Cada equipo tiene una visión parcial. Nadie tiene el panorama completo.
  • Sin una capa que consolide estas fuentes en una vista unificada por entidad (usuario, dispositivo, tarjeta), cualquier análisis funciona con información incompleta.
  • Un modelo entrenado con datos fragmentados no aprende patrones reales; aprende los límites de lo que cada sistema registra de forma independiente.
  • La centralización no significa necesariamente migrar todo a un único sistema de almacenamiento. Significa tener una arquitectura en la que las señales de diferentes fuentes converjan en el momento de la toma de decisiones, con una latencia lo suficientemente baja como para funcionar en tiempo real.

2. Normalización: la base que nadie ve pero que todos necesitan

  • El primer obstáculo en cualquier proyecto de fraude grave no es el modelo. Son los datos.
  • La misma persona puede existir con diferentes formatos de correo electrónico, número de teléfono o documento en todos los sistemas. En el caso de un algoritmo, se trata de entidades diferentes, lo que interrumpe todo el análisis.
  • La normalización significa estandarizar los correos electrónicos, los números de teléfono y los documentos en un esquema coherente, deduplicar los registros y resolver las entidades en todas las fuentes.
  • Sin este paso, no es posible crear un gráfico de identidad, calcular las características de comportamiento históricas ni entrenar modelos con señales confiables.
  • Es el paso menos visible y el que más influye en la calidad de todo lo que viene después.

Vista real de GX Platform

3. Gráfico de identidad: ver relaciones que las reglas no pueden ver

  • Una vez que los datos se normalizan, el siguiente paso es conectarlos.
  • El gráfico de identidad modela las entidades (usuarios, dispositivos, tarjetas, correos electrónicos, direcciones IP, números de teléfono) como nodos y las relaciones entre ellas como bordes.
  • Dos cuentas que comparten un dispositivo.
  • Un dispositivo asociado a tres direcciones IP en diez minutos.
  • Una tarjeta vinculada a correos electrónicos creados el mismo día.

  • Individualmente, ninguna de estas señales es suficiente para tomar una decisión. En una red, el patrón se vuelve claro.
  • Este enfoque es especialmente eficaz para detectar el fraude organizado: redes de cuentas falsas, ataques de cuentas múltiples, actividad coordinada de bots.
  • Muchas operaciones fraudulentas solo se hacen visibles cuando se analiza la estructura de las relaciones entre las identidades, no cuando cada transacción se evalúa de forma aislada.

Vista real de GX Platform

4. Ingeniería de características: las señales que realmente discriminan el fraude

  • Un modelo es tan bueno como las características que lo alimentan.
  • En la detección de fraudes, las señales más eficaces capturan el comportamiento en contexto, no solo los atributos estáticos.
  • Las tres dimensiones con el mayor poder predictivo en la práctica:

-Velocidad
  • Volumen de transacciones por usuario, dispositivo o IP en ventanas de 1, 5 o 60 minutos. Los patrones de velocidad de ataque coordinados y de bots son estructuralmente diferentes del comportamiento humano; esta señal por sí sola separa una gran parte del fraude.

-Comportamiento histórico
  • Número de reintentos, rechazos recientes, cuentas vinculadas al mismo dispositivo, desviación del patrón histórico del usuario. Un usuario legítimo con 15 rechazos en una hora es una señal muy diferente a la de un usuario nuevo que muestra el mismo comportamiento.

-Contexto geográfico
  • País de la IP frente al país de la tarjeta frente a la ubicación histórica del usuario. Los viajes imposibles (transacciones que se realizan en zonas geográficas incompatibles en períodos cortos de tiempo) se pueden detectar directamente a través de estas funciones.

Las características más eficaces son precisamente las que traducen las relaciones entre gráficos de identidad en señales cuantificables a lo largo de ventanas temporales:

  • El desafío técnico es computar estas señales en tiempo real, en ventanas deslizantes y con baja latencia.

  • Esto requiere un tienda de funciones diseñada para el fraude, no un almacén analítico tradicional.

  • También requiere que el equipo de fraude pueda crear y ajustar las funciones sin depender de un ciclo de desarrollo, ya que cuando aparece un nuevo vector de ataque, la velocidad de respuesta la determina quién controla la herramienta, no quién controla el código.

5. Decisiones en tiempo real: el problema de la arquitectura

  • En los pagos digitales y la incorporación, la ventana de decisión es inferior a 100 milisegundos.
  • Un sistema que no puede operar dentro de ese rango debe elegir entre ser demasiado conservador (bloquear a los usuarios legítimos) o demasiado permisivo (dejar pasar el fraude).
  • La arquitectura que resuelve este problema combina la ingesta de eventos de streaming, un almacén de funciones de baja latencia para funciones precalculadas y un motor de puntuación que consolida las señales del modelo, las reglas y los gráficos en una sola decisión.

  • Hay un punto que a menudo se subestima: la mayoría de los problemas de latencia en la producción no están en el modelo en sí.
  • Están relacionados con la forma en que el sistema recupera los datos contextuales en el momento de la decisión.
  • Sin embargo, otro obstáculo aparece incluso antes: la dependencia del equipo técnico para implementar los cambios operativos.
  • Cuando los datos se modelan correctamente y el sistema está diseñado para ello, el equipo de fraude puede ajustar las reglas, incorporar nuevas señales y responder a las amenazas emergentes de forma autónoma, sin tickets, sin sprints ni fricciones.

6. Etiquetas y monitoreo continuo: el problema silencioso del aprendizaje automático en el fraude

  • Hay un desafío al que se enfrentan los equipos de aprendizaje automático que se dedican al fraude y que rara vez se discute abiertamente: las etiquetas llegan tarde.
  • Una devolución de cargo puede tardar 60, 90 o incluso 120 días pendiente de confirmación.
  • Si ese retraso no se maneja de manera explícita en el proceso de capacitación, se introduce un ruido sistemático en el modelo: transacciones que parecían legítimas en ese momento pero que luego resultaron ser fraudulentas, o viceversa.

  • Las organizaciones más maduras operan con múltiples fuentes de verdad, combinadas con diferentes ponderaciones en función de la confiabilidad y la latencia.

  • También guardan modelos en modo sombra antes del desplieguey supervise el rendimiento de forma continua para detectar desviaciones antes de que afecten a la producción.
  • Sin este nivel de rigor en el etiquetado, un modelo que muestre buenas métricas offline puede deteriorarse silenciosamente en la producción.

Cómo se ve en la práctica

Considera el siguiente escenario, típico de las plataformas de pago digitales:

  • Los monitores de anomalías detectan un aumento inusual de la fricción en un grupo de comerciantes. Al analizar el patrón subyacente, se hace evidente un volumen atípico de intentos de pago concentrados en un período corto: el perfil clásico de un tarjetas de prueba de ataques de bots a escala.
  • En un sistema sin los pilares descritos anteriormente, este escenario requiere una intervención manual: un analista debe detectar el patrón, crear o ajustar una regla e implementarla, todo ello mientras el ataque continúa.
  • En un sistema con datos normalizados, un gráfico de identidad activo, características de velocidad precalculadas y un modelo entrenado con señales confiables, el motor de puntuación detecta la anomalía en tiempo real y actúa automáticamente. Sin intervención manual. Sin permitir que el ataque se escale hasta el punto de generar pérdidas significativas.
  • El siguiente paso, y hacia donde se dirigen los sistemas más avanzados, es automatizar el análisis posterior al ataque: reconstruir la red del ataque, identificar el vector de entrada y documentar los patrones en minutos en lugar de horas.

Esto es posible gracias a la combinación de consultas orquestadas y razonamientos basados en LLM aplicados a los datos de ataque.

Qué puede empezar a evaluar hoy

Antes de pensar en modelos o arquitecturas, vale la pena realizar un diagnóstico honesto de la situación actual:

1. Datos:

  • ¿Están normalizadas las entidades clave en todos los sistemas?

  • ¿Existe una visión unificada del usuario que consolide la identidad, los dispositivos y el comportamiento transaccional?

2. Detección:

  • ¿El sistema actual detecta los patrones de red o solo analiza las transacciones individuales?

  • ¿Qué proporción de casos de fraude se detectan en tiempo real en comparación con los casos posteriores?

3. Operaciones:

  • ¿Cuánto tiempo dedica el equipo a crear y mantener reglas en comparación con el análisis estratégico?

  • ¿Cuánto tiempo se tarda, en promedio, en responder a un nuevo ataque?

  • ¿Cuántos de estos cambios requirieron la intervención del equipo de tecnología?

Las respuestas a estas preguntas definen dónde están las brechas más críticas y por dónde tiene sentido empezar.

Publicado:
March 18, 2026
Última actualización:
March 18, 2026

Ofrece puntuaciones de riesgo claras, códigos de motivo explicables