Información general

Los procesadores descritos en esta documentación son específicos de entornos de generación de logs basados en la nube. Para analizar, estructurar y enriquecer logs on-premises, consulta Observability Pipelines.

Un procesador se ejecuta dentro de un pipeline para completar una acción de estructuración de datos y generar atributos para enriquecer tus logs.

Procesadores

En la sección de configuración de parámetros de logs, puedes configurar procesadores como el Analizador grok o el reasignador de datos para extraer, crear y reasignar atributos para enriquecer tus logs y mejorar las búsquedas con facetas.

Notas:

  • Los logs estructurados deben enviarse en un formato válido. Si la estructura contiene caracteres no válidos para el análisis, deben eliminarse en el nivel del Agent utilizando la función mask_sequences.

  • Una práctica recomendada es utilizar como máximo 20 procesadores por pipeline.

Analizador grok

Crea reglas grok personalizadas para analizar el mensaje completo o un atributo específico de tu evento sin procesar. Para obtener más información, consulta la sección Análisis. Una práctica recomendada es utilizar como máximo 10 reglas de análisis en un procesador grok.

Define el procesador grok en la página Pipelines:

Analizador grok

Haz clic en Parse my logs (Analizar mis logs) para configurar un conjunto de tres reglas de análisis para los logs que circulan a través del pipeline subyacente. A partir de ahí, refina los nombres de los atributos y, si es necesario, añade nuevas reglas para otros tipos de logs. Esta función requiere que los logs correspondientes se indexen y fluyan. Puedes desactivar temporalmente o reducir los filtros de exclusión para que esto funcione correctamente.

Selecciona una muestra haciendo clic en ella para activar su evaluación con la regla de análisis y mostrar el resultado en la parte inferior de la pantalla.

Se pueden guardar hasta cinco muestras con el procesador y cada muestra puede tener hasta 5000 caracteres de longitud. Todas las muestras presentan un estado (match o no match), que destaca si una de las reglas de análisis del analizador grok coincide con la muestra.

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del analizador grok:

{
  "type": "grok-parser",
  "name": "Parsing Log message",
  "is_enabled": true,
  "source": "message",
  "samples": ["sample log 1", "sample log 2"],
  "grok": {"support_rules": "<SUPPORT_RULES>", "match_rules": "<MATCH_RULES>"}
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi el procesador está habilitado o no. Por defecto: false.
sourceCadenaNombre del atributo de log a analizar. Por defecto: message.
samplesMatriz de cadenasNoLista de (hasta 5) muestras de logs para este analizador grok.
grok.support_rulesCadenaLista de reglas de compatibilidad para tu analizador grok.
grok.match_rulesCadenaLista de reglas de coincidencia para tu analizador grok.

Reasignador de fechas de logs

A medida que Datadog recibe logs, les coloca una marca de tiempo utilizando el valor o los valores de cualquiera de estos atributos predeterminados:

  • timestamp
  • date
  • _timestamp
  • Timestamp
  • eventTime
  • published_date

Si tus logs tienen fechas en un atributo que no están en este lista, utiliza el procesador del reasignador de fechas de logs para definir la marca de tiempo oficial del log como su atributo de fecha:

Los formatos de fecha reconocidos son: ISO8601, UNIX (formato EPOCH en milisegundos) y RFC3164.

Si tus logs no tienen una marca de tiempo que se ajuste a los formatos enumerados anteriormente, utiliza el procesador grok para extraer la hora epoch de la marca de tiempo para un atributo nuevo. El reasignador de fechas utiliza el atributo recién definido.

Para ver cómo se puede analizar un formato personalizado de fecha y hora en Datadog, consulta Análisis de fechas.

Notas:

  • Los eventos de logs pueden enviarse dentro de las 18 horas pasadas y las 2 futuras.
  • A partir de la norma ISO 8601-1:2019, el formato básico es T[hh][mm][ss] y el formato ampliado es T[hh]:[mm]:[ss]. Las versiones anteriores omitían la T (que representa la hora) en ambos formatos.
  • Si tus logs no contienen ninguno de los atributos predeterminados y no has definido su propio atributo de fecha, Datadog coloca una marca de tiempo con la fecha de recepción en los logs.
  • Si se aplican varios procesadores de reasignadores de fechas de logs a un determinado log del pipeline, se tiene en cuenta el último (según el orden del pipeline).

Define el procesador del reasignador de fechas de logs en la página Pipelines:

Definir un atributo de fecha
Hora y fecha en el panel lateral del Explorador de logs

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador de fechas de logs:

{
  "type": "date-remapper",
  "name": "Define <SOURCE_ATTRIBUTE> as the official Date of the log",
  "is_enabled": false,
  "sources": ["<SOURCE_ATTRIBUTE_1>"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenanoNombre del procesador.
is_enabledBooleanonoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasMatriz de atributos de origen.

Reasignador de estados de logs

Utiliza el procesador del reasignador de estados para asignar atributos como estado oficial a tus logs. Por ejemplo, añade un nivel de gravedad de log a tus logs con el reasignador de estados.

Nivel de gravedad del log tras la reasignación

Cada valor de estado entrante se asigna de la siguiente manera:

  • Los números enteros de 0 a 7 asignan según las normas de gravedad de syslog.
  • Las cadenas que empiezan por emerg o f (sin distinción entre mayúsculas y minúsculas) asignan a emerg (0).
  • Las cadenas que empiezan por a (sin distinción entre mayúsculas y minúsculas) asignan a alert (1).
  • Las cadenas que empiezan por c (sin distinción entre mayúsculas y minúsculas) asignan a critical (2).
  • Las cadenas que empiezan por err (sin distinguir mayúsculas de minúsculas) se asignan a error (3).
  • Las cadenas que empiezan por w (sin distinción entre mayúsculas y minúsculas) asignan a warning (4).
  • Las cadenas que empiezan por n (sin distinción entre mayúsculas y minúsculas) asignan a notice (5).
  • Las cadenas que empiezan por i (sin distinción entre mayúsculas y minúsculas) asignan a info (6).
  • Las cadenas que empiezan por d, t, v, trace o verbose (sin distinción entre mayúsculas y minúsculas) asignan a debug (7).
  • Las cadenas que empiezan por o o s, o que coinciden con OK o Success (sin distinción entre mayúsculas y minúsculas) asignan a OK.
  • Todos los demás se asignan a info (6).

Nota: Si se aplican varios procesadores del reasignador de estados de logs al log de un pipeline, sólo se tendrá en cuenta el primero en el orden del pipeline. Además, para todos los pipelines que coinciden con el log, sólo se aplica el primer reasignador de estados encontrado (de todos los pipelines aplicables).

Define el procesador del reasignador de estados de logs en la página Pipelines:

Reasignación de la gravedad de logs

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador de estados de logs:

{
  "type": "status-remapper",
  "name": "Define <SOURCE_ATTRIBUTE> as the official status of the log",
  "is_enabled": true,
  "sources": ["<SOURCE_ATTRIBUTE>"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasMatriz de atributos de origen.

Reasignador de servicios

El procesador del reasignador de servicios asigna uno o más atributos a tus logs como servicio oficial.

Nota: Si se aplican varios procesadores del reasignador de servicios a un determinado log del pipeline, sólo se tendrá en cuenta el primero (según el orden del pipeline).

Define el procesador del reasignador de servicios de logs en la página Pipelines:

Procesador del reasignador de servicios

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador de servicios de logs:

{
  "type": "service-remapper",
  "name": "Define <SOURCE_ATTRIBUTE> as the official log service",
  "is_enabled": true,
  "sources": ["<SOURCE_ATTRIBUTE>"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasMatriz de atributos de origen.

Reasignador de mensajes de logs

message es un atributo clave en Datadog. Su valor se muestra en la columna Contenido de log Explorer para proporcionar contexto en el log. Puede utilizar la barra de búsqueda para encontrar un log por el mensaje log.

Utiliza el procesador del reasignador de mensajes de logs para definir uno o más atributos como mensaje oficial del log. Define más de un atributo para los casos en los que los atributos no existan y haya una alternativa disponible. Por ejemplo, si los atributos de mensaje definidos son attribute1, attribute2 y attribute3, y attribute1 no existe, se utiliza attribute2. Del mismo modo, si attribute2 no existe, se utiliza attribute3.

Para definir los atributos de los mensajes, utiliza primero el procesador de creación de cadenas para crear un nuevo atributo de cadena para cada uno de los atributos que quieras utilizar. A continuación, utiliza el reasignador de mensajes de logs para reasignar los atributos de cadena como mensaje.

Nota: Si se aplican varios procesadores del reasignador de mensajes de logs a un determinado log del pipeline, sólo se tendrá en cuenta el primero (según el orden del pipeline).

Define el procesador del reasignador de mensajes de logs en la página Pipelines:

Procesador de mensajes

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador de mensajes de logs:

{
  "type": "message-remapper",
  "name": "Define <SOURCE_ATTRIBUTE> as the official message of the log",
  "is_enabled": true,
  "sources": ["msg"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasMatriz de atributos de origen. Por defecto: msg.

Reasignador

El procesador del reasignador reasigna cualquier atributo o etiqueta (tag) de origen a otro atributo u otra etiqueta de destino. Por ejemplo, reasigna user por firstname para dirigir tus logs en el Explorador de logs:

Atributo tras la reasignación

Las restricciones de nombre de etiquetas/atributos se explican en la documentación sobre atributos y etiquetas. Algunas restricciones adicionales, aplicadas como : o ,, no están permitidas en los nombres de etiquetas/atributos de destino.

Si el objetivo del reasignador es un atributo, el reasignador también puede intentar convertir el valor a un nuevo tipo (String, Integer o Double). Si la conversión no es posible, se conserva el tipo original.

Nota: El separador decimal para Double debe ser ..

Define el procesador del reasignador en la página de Pipelines. Por ejemplo, reasigna user a user.firstname.

Procesador del reasignador de atributos

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador:

{
  "type": "attribute-remapper",
  "name": "Remap <SOURCE_ATTRIBUTE> to <TARGET_ATTRIBUTE>",
  "is_enabled": true,
  "source_type": "attribute",
  "sources": ["<SOURCE_ATTRIBUTE>"],
  "target": "<TARGET_ATTRIBUTE>",
  "target_type": "tag",
  "target_format": "integer",
  "preserve_source": false,
  "override_on_conflict": false
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
source_typeCadenaNoDefine si la fuente es el attribute o la tag del log. Por defecto: attribute.
sourcesMatriz de cadenasMatriz de atributos o etiquetas de origen
targetCadenaNombre final de atributo o etiqueta al que reasignar las fuentes.
target_typeCadenaNoDefine si el objetivo es el attribute o la tag del log. Por defecto: attribute.
target_formatCadenaNoDefine si el valor del atributo debe convertirse a otro tipo. Valores posibles: auto, string o integer. Valor por defecto: auto. Si se configura como auto, no se aplica ninguna conversión.
preserve_sourceBooleanoNoElimina o conserva el elemento de origen reasignado. Por defecto: false.
override_on_conflictBooleanoNoAnula o no el elemento de destino, si ya está configurado. Por defecto: false.

Analizador de URL

El procesador del analizador de URL extrae los parámetros de consulta y otros parámetros importantes de una URL. Cuando está configurado, se generan los siguientes atributos:

Procesador de URL

Define el procesador del analizador de URL en la página Pipelines:

Cuadro del procesador de URL
{
  "type": "url-parser",
  "name": "Parse the URL from http.url attribute.",
  "is_enabled": true,
  "sources": ["http.url"],
  "target": "http.url_details"
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasNoMatriz de atributos de origen. Por defecto: http.url.
targetCadenaNombre del atributo principal que contiene todos los detalles extraídos de sources. Por defecto: http.url_details.

Analizador del agente de usuario

El procesador del analizador del agente de usuario toma un atributo useragent y extrae datos del sistema operativo, del navegador, del dispositivo y otros datos del usuario. Cuando está configurado, se generan los siguientes atributos:

Procesador de agentes de usuario

Nota: Si tus logs contienen agentes de usuario codificados (por ejemplo, logs IIS), configura este procesador para decodificar la URL antes del análisis.

Define el procesador del agente de usuario en la página Pipelines:

Cuadro del procesador de agentes de usuario

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del analizador de agentes de usuario:

{
  "type": "user-agent-parser",
  "name": "Parses <SOURCE_ATTRIBUTE> to extract all its User-Agent information",
  "is_enabled": true,
  "sources": ["http.useragent"],
  "target": "http.useragent_details",
  "is_encoded": false
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasNoMatriz de atributos de origen. Por defecto: http.useragent.
targetCadenaNombre del atributo principal que contiene todos los detalles extraídos de sources. Por defecto: http.useragent_details.
is_encodedBooleanoNoDefine si el atributo de origen está codificado con URL o no. Por defecto: false.

Procesador de categorías

Utiliza el procesador de categorías para añadir un nuevo atributo (sin espacios ni caracteres especiales en el nombre del nuevo atributo) a un log que coincida con una consulta de búsqueda proporcionada. A continuación, utiliza categorías para crear grupos para una vista analítica (por ejemplo, grupos de URL, grupos de máquinas, entornos, y buckets de tiempos de respuesta).

Notas:

  • La sintaxis de la consulta es la que aparece en la barra de búsqueda del Explorador de logs. Esta consulta puede hacerse sobre cualquier atributo o etiqueta de log, sea o no una faceta. También se pueden utilizar comodines en la consulta.
  • Una vez que el log ha coincidido con una de las consultas del procesador, se detiene. Asegúrate de que estén bien ordenados, en caso de que un log pueda coincidir con varias consultas.
  • Los nombres de las categorías deben ser únicos.
  • Una vez definidas las categorías en el procesador de categorías, puedes asignarlas al estado del log utilizando el Reasignador de estados de logs.

Define el procesador de categorías en la página Pipelines. Por ejemplo, para categorizar tus logs de acceso web basándote en el valor del rango de código de estado ("OK" for a response code between 200 and 299, "Notice" for a response code between 300 and 399, ...), añade este procesador:

Procesador de categorías

Este procesador genera el siguiente resultado:

Resultado del procesador de categorías

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del procesador de categorías:

{
  "type": "category-processor",
  "name": "Assign a custom value to the <TARGET_ATTRIBUTE> attribute",
  "is_enabled": true,
  "categories": [
    {"filter": {"query": "<QUERY_1>"}, "name": "<VALUE_TO_ASSIGN_1>"},
    {"filter": {"query": "<QUERY_2>"}, "name": "<VALUE_TO_ASSIGN_2>"}
  ],
  "target": "<TARGET_ATTRIBUTE>"
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false
categoriesMatriz de objetosMatriz de filtros para hacer coincidir o no un log y su name correspondiente, para asignar un valor personalizado al log.
targetCadenaNombre del atributo de destino cuyo valor está definido por la categoría coincidente.

Procesador aritmético

Utiliza el procesador aritmético para añadir un nuevo atributo (sin espacios ni caracteres especiales en el nombre del nuevo atributo) a un log con el resultado de la fórmula proporcionada. Esto reasigna diferentes atributos de tiempo con diferentes unidades en un único atributo, o computa operaciones en atributos del mismo log.

Una fórmula de procesador aritmético puede utilizar paréntesis y operadores aritméticos básicos: -, +, *, /.

Por defecto, si falta un atributo se omite un cálculo. Selecciona Replace missing attribute by 0 (Sustituir atributo omitido por 0) para rellenar automáticamente los valores de atributos omitidos con 0 y asegurarte de que se realiza el cálculo.

Notas:

  • Un atributo puede aparecer como ausente, si no se encuentra en los atributos del log o si no puede convertirse en un número.
  • Cuando se utiliza el operador -, añade espacios antes y después, ya que los nombres de atributos como start-time pueden contener guiones. Por ejemplo, la siguiente fórmula debe incluir espacios espacios antes y después del operador -: (end-time - start-time) / 1000.
  • Si el atributo de destino ya existe, se sobrescribe con el resultado de la fórmula.
  • Los resultados se redondean al noveno decimal. Por ejemplo, si el resultado de la fórmula es 0.1234567891, el valor real almacenado para el atributo es 0.123456789.
  • Si necesitas escalar una unidad de medida, utiliza el filtro para escalas.

Define el procesador aritmético en la página Pipelines:

Procesador aritmético

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del procesador aritmético:

{
  "type": "arithmetic-processor",
  "name": "<PROCESSOR_NAME>",
  "is_enabled": true,
  "expression": "<ARITHMETIC_OPERATION>",
  "target": "<TARGET_ATTRIBUTE>",
  "is_replace_missing": false
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
expressionCadenaOperación aritmética entre uno o varios atributos de logs.
targetCadenaNombre del atributo que contiene el resultado de la operación aritmética.
is_replace_missingBooleanoNoSi true, sustituye todos los atributos que faltan de expression por 0, false omite la operación si falta un atributo. Por defecto: false.

Procesador del creador de cadenas

Utilice el procesador del creador de cadenas para añadir un nuevo atributo (sin espacios ni caracteres especiales) a una log con el resultado de la plantilla proporcionada. Esto permite agregar diferentes atributos o cadenas sin procesar en un único atributo.

La plantilla está definida tanto por texto sin formato como por bloques con la sintaxis %{attribute_path}.

Notas:

  • Este procesador sólo acepta atributos con valores o una matriz de valores en el bloque (consulta los ejemplos de la sección de la interfaz de usuario a continuación).
  • Si no se puede utilizar un atributo (objeto o matriz de objetos), se sustituye por una cadena vacía o se omite toda la operación en función de tu selección.
  • Si ya existe un atributo de destino, se sobrescribe con el resultado de la plantilla.
  • Los resultados de una plantilla no pueden superar los 256 caracteres.

Define el procesador del creador de cadenas en la página Pipelines:

Procesador del creador de cadenas

Con el siguiente log, utiliza la plantilla Request %{http.method} %{http.url} was answered with response %{http.status_code} para devolver un resultado. Por ejemplo:

{
  "http": {
    "method": "GET",
    "status_code": 200,
    "url": "https://app.datadoghq.com/users"
  },
  "array_ids": [123, 456, 789],
  "array_users": [
    {"first_name": "John", "last_name": "Doe"},
    {"first_name": "Jack", "last_name": "London"}
  ]
}

Devuelve lo siguiente:

Request GET https://app.datadoghq.com/users was answered with response 200

Nota: http es un objeto y no puede utilizarse en un bloque (%{http} falla), mientras que %{http.method}, %{http.status_code}, o %{http.url} devuelven el valor correspondiente. Los bloques pueden utilizarse en matrices de valores o en un atributo específico dentro de una matriz.

  • Por ejemplo, añadir el bloque %{array_ids} devuelve:

    123,456,789
    
  • %{array_users} no devuelve nada porque es una lista de objetos. Sin embargo, %{array_users.first_name} devuelve una lista de los first_name contenidos en la matriz:

    John,Jack
    

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del procesador del creador de cadenas:

{
  "type": "string-builder-processor",
  "name": "<PROCESSOR_NAME>",
  "is_enabled": true,
  "template": "<STRING_BUILDER_TEMPLATE>",
  "target": "<TARGET_ATTRIBUTE>",
  "is_replace_missing": true
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi el procesador está habilitado o no, por defecto es false.
templateCadenaUna fórmula con uno o más atributos y texto sin formato.
targetCadenaEl nombre del atributo que contiene el resultado de la plantilla.
is_replace_missingBooleanoNoSi es true, sustituye todos los atributos que faltan de template por una cadena vacía. Si es false, omite la operación para los atributos que faltan. Por defecto: false.

Analizador GeoIP

El analizador GeoIP toma un atributo de una dirección IP y extrae información de continente, país, subdivisión o ciudad (si está disponible) en la ruta del atributo de destino.

Procesador GeoIP

La mayoría de los elementos contienen un atributo name y iso_code (o code para continente). subdivision es el primer nivel de subdivisión que utiliza el país, como “Estados” para Estados Unidos o “Departamentos” para Francia.

Por ejemplo, el analizador GeoIP extrae una localización del atributo network.client.ip y lo almacena en el atributo network.client.geoip:

Ejemplo de GeoIP

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del analizador GeoIP:

{
  "type": "geo-ip-parser",
  "name": "Parse the geolocation elements from network.client.ip attribute.",
  "is_enabled": true,
  "sources": ["network.client.ip"],
  "target": "network.client.geoip"
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasNoMatriz de atributos de origen. Por defecto: network.client.ip.
targetCadenaNombre del atributo principal que contiene todos los detalles extraídos de sources. Por defecto: network.client.geoip.

Procesador de búsqueda

Utiliza el procesador de búsqueda para definir una reasignación entre un atributo de log y un valor legible por el ser humano guardado en una tabla de referencia o en la tabla de asignación de procesadores.

Por ejemplo, puedes utilizar el procesador de búsqueda para asignar un ID interno de servicio a un nombre de servicio legible por el ser humano. También puedes utilizarlo para comprobar si la dirección MAC que acaba de intentar conectarse al entorno de producción pertenece a tu lista de máquinas robadas.

El procesador de búsqueda realiza las siguientes acciones:

  • Comprueba si el log actual contiene el atributo de origen.
  • Comprueba si el valor del atributo de origen existe en la tabla de asignación.
    • Si existe, crea el atributo de destino con el valor correspondiente en la tabla.

    • Opcionalmente, si no encuentra el valor en la tabla de asignación, crea un atributo de destino con el valor de reserva predeterminado establecido en el campo fallbackValue. Puede introducir manualmente una lista de pares source_key,target_value o cargar un archivo CSV en la pestaña Mapeo manual.

      Procesador de búsqueda

      El límite de tamaño de la tabla de asignación es de 100 Kb. Este límite se aplica a todos los procesadores de consulta de la plataforma. Sin embargo, las tablas de referencia admiten archivos de mayor tamaño.

    • Opcionalmente, si no encuentra el valor en la tabla de asignación, crea un atributo de destino con el valor de la tabla de referencia. Puedes seleccionar un valor para una tabla de referencias en la pestaña Reference Table (Tabla de referencia).

      Procesador de búsqueda
      style="width:80%;">}}

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del procesador de búsqueda:

{
  "type": "lookup-processor",
  "name": "<PROCESSOR_NAME>",
  "is_enabled": true,
  "source": "<SOURCE_ATTRIBUTE>",
  "target": "<TARGET_ATTRIBUTE>",
  "lookup_table": ["key1,value1", "key2,value2"],
  "default_lookup": "<DEFAULT_TARGET_VALUE>"
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoSi el procesador está habilitado o no. Por defecto: false.
sourceCadenaAtributo de origen utilizado para realizar la búsqueda.
targetCadenaNombre del atributo que contiene el valor correspondiente en la lista de asignaciones o la default_lookup si no se encuentra en la lista de asignaciones.
lookup_tableMatriz de cadenasTabla de asignación de valores para el atributo de origen y sus valores de atributo de destino asociados, con el formato [ “source_key1,target_value1”, “source_key2,target_value2” ].
default_lookupCadenaNoValor para configurar el atributo de destino, si no se encuentra el valor de origen en la lista.

Reasignador de trazas (trace)

Hay dos formas de definir la correlación entre trazas y logs de aplicaciones:

  1. Sigue la documentación sobre cómo inyectar un ID de rastreo en logs de aplicaciones. Por defecto, las integraciones de logs se encargan del resto de la configuración.

  2. Utiliza el procesador del reasignador de trazas para definir un atributo de log como su ID de rastreo asociado.

Define el procesador del reasignador de trazas en la página Pipelines. Introduce la ruta de atributo del ID de rastreo en el cuadro del procesador, de la siguiente manera:

Procesador del ID de rastreo

Utiliza el endpoint de API de pipeline para logs de Datadog con la siguiente carga útil JSON del reasignador de trazas:

{
  "type": "trace-id-remapper",
  "name": "Define dd.trace_id as the official trace id associate to this log",
  "is_enabled": true,
  "sources": ["dd.trace_id"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoSi los procesadores están habilitados o no. Por defecto: false.
sourcesMatriz de cadenasNoMatriz de atributos de origen. Por defecto: dd.trace_id.

Nota: Los ID de rastreo y los ID de tramos (span) no se muestran en tus logs o atributos de logs en la interfaz de usuario.

Reasignador de tramos

Hay dos formas de definir la correlación entre tramos y logs de aplicaciones:

  1. Sigue la documentación sobre cómo inyectar un ID de rastreo en logs de aplicaciones. Por defecto, las integraciones de logs se encargan del resto de la configuración.

  2. Utiliza el procesador del reasignador de tramos para definir un atributo de log como su ID de tramo asociado.

Define el procesador del reasignador de tramos en la página Pipelines. Introduce la ruta de atributo del ID de tramo en el cuadro del procesador, de la siguiente manera:

Procesador de ID de tramo

Utiliza el endpoint de la API de pipelines de logs de Datadog con la siguiente carga útil JSON del reasignador de tramos:

{
  "type": "span-id-remapper",
  "name": "Define dd.span_id as the official span id associate to this log",
  "is_enabled": true,
  "sources": ["dd.span_id"]
}
ParámetroTipoObligatorioDescripción
typeCadenaTipo de procesador.
nameCadenaNoNombre del procesador.
is_enabledBooleanoNoIndica si el procesador está habilitado. Por defecto: false.
sourcesMatriz de cadenasNoMatriz de atributos de origen. Por defecto: dd.trace_id.

Nota: Los ID de rastreo y los ID de tramos no se muestran en tus logs o atributos de logs en la interfaz de usuario.

Procesador de matrices

Utiliza el procesador de matrices para extraer, agregar o transformar los valores de matrices JSON en tus logs.

Las operaciones compatibles incluyen:

  • Seleccionar el valor de un elemento coincidente
  • Calcular la longitud de una matriz
  • Añadir un valor a una matriz

Cada operación se configura a través de un procesador específico.

Define el procesador de matrices en la página Pipelines.

Seleccionar el valor de un elemento coincidente

Extrae un valor específico de un objeto dentro de una matriz cuando coincide con una condición.

Procesador de matrices - Seleccionar el valor de un elemento

Entrada de ejemplo.

{
  "httpRequest": {
    "headers": [
      {"name": "Referrer", "value": "https://example.com"},
      {"name": "Accept", "value": "application/json"}
    ]
  }
}

Pasos de configuración:

  • Ruta de la matriz: httpRequest.headers
  • Condición: name:Referrer
  • Extraer valor de: value
  • Atributo de destino: referrer

Resultado:

{
  "httpRequest": {
    "headers": [...]
  },
  "referrer": "https://example.com"
}

Longitud de la matriz

Calcula el número de elementos de una matriz.

Procesador de matrices - Longitud

Entrada de ejemplo.

{
  "tags": ["prod", "internal", "critical"]
}

Pasos de configuración:

  • Atributo de matriz: etiquetas (tags)
  • Atributo de destino: tagCount

Resultado:

{
  "tags": ["prod", "internal", "critical"],
  "tagCount": 3
}

Añadir a la matriz

Añade un valor de atributo al final de un atributo de matriz de destino en el log.

Nota: Si el atributo de matriz de destino no existe en el log, se crea automáticamente.

Procesador de matrices - Añadir

Entrada de ejemplo.

{
  "network": {
    "client": {
      "ip": "198.51.100.23"
    }
  },
  "sourceIps": ["203.0.113.1"]
}

Pasos de configuración:

  • Atributo a añadir: "network.client.ip"
  • Atributo de matriz al que añadir: sourceIps

Resultado:

{
  "network": {
    "client": {
      "ip": "198.51.100.23"
    }
  },
  "sourceIps": ["203.0.113.1", "198.51.100.23"]
}

Amenaza procesador intel

Añada el Proceso de Inteligencia de Amenazas para evaluar logs con respecto a la tabla utilizando una clave específica de Indicador de Compromiso (IoC), como una dirección IP. Si se encuentra una coincidencia, log se enriquece con atributos de Inteligencia de Amenazas (TI) relevantes de la tabla, lo que mejora la detección, la investigación y la respuesta.

Para más información, véase Inteligencia sobre amenazas.

Referencias adicionales


*Logging without Limits es una marca registrada de Datadog, Inc.