Este producto no es compatible con el sitio Datadog seleccionado. ().

Información general

Los pipelines y procesadores descritos en esta documentación son específicos para entornos de registro on-premises. Para agregar, proceso y enrutar logs basados en la nube, consulta Pipelines de Log Management.

En Observability Pipelines, un pipeline es una ruta secuencial con tres tipos de componentes: origen, procesadores y destinos. El origen de Observability Pipeline recibe logs de tu fuente de logs (por ejemplo, el Datadog Agent ). Los procesadores enriquecen y transforman tus datos, y el destino es donde se envían tus logs procesados. En algunas plantillas, tus logs se envían a más de un destino. Por ejemplo, si utilizas la plantilla de Archivar logs, tus logs se envían a un proveedor de almacenamiento en la nube y a otro destino especificado.

Establecer un pipeline

Configura tus pipelines y sus fuentes, procesadores y destinos en la interfaz de usuario de Observability Pipelines. Los pasos generales de configuración son:

  1. Navega hasta Observability Pipelines.
  2. Selecciona una plantilla.
  3. Selecciona y configura tu fuente.
  4. Selecciona y configura tus destinos.
  5. Configura tus procesadores.
  6. Instala el worker de Observability Pipelines.
  7. Habilita monitores para tu pipeline.

Para obtener instrucciones detalladas de configuración, selecciona una documentación específica de la plantilla y, a continuación, selecciona tu fuente en esa página:

Una vez que hayas configurado tu pipeline, consulta Actualizar pipelines existentes si deseas realizar algún cambio en él.

La creación de pipelines utilizando la API de Datadog está en vista previa. Rellena el formulario para solicitar acceso.

Puedes utilizar la API de Datadog para crear un pipeline. Una vez creado el pipeline, instala el worker para empezar a enviar logs a través del pipeline.

Los pipelines creados mediante la API son de sólo lectura en la interfaz de usuario. Utiliza el endpoint actualizar un pipeline para realizar cambios en un pipeline existente.

Crear pipelines usando Terraform está en Vista previa. Rellena el formulario para solicitar acceso.

Puedes usar el módulo datadog_observability_pipeline para crear un pipeline usando Terraform. Una vez creado el pipeline, instala el worker para empezar a enviar logs a través del pipeline.

Los pipelines creados con Terraform son de sólo lectura en la interfaz de usuario. Utiliza el módulo datadog_observability_pipeline para realizar cambios en un pipeline existente.

Consulta Configuraciones avanzadas para conocer las opciones de arranque.

Indexar los logs del worker

Asegúrate de que tus logs del worker están indexados en Log Management para una funcionalidad óptima. Los logs proporcionan información de despliegue, como el estado del worker, la versión y cualquier error, que se muestra en la interfaz de usuario. Los logs también son útiles para solucionar problemas del worker o de pipelines. Todos los logs del worker tienen la etiqueta source (fuente):op_worker.

Clonar un pipeline

  1. Navega hasta Observability Pipelines.
  2. Selecciona el pipeline que deseas clonar.
  3. Haz clic en el engranaje de la parte superior derecha de la página y selecciona Clone (Clonar).

Eliminar un pipeline

  1. Navega hasta Observability Pipelines.
  2. Selecciona el pipeline que deseas eliminar.
  3. Haz clic en el engranaje situado en la parte superior derecha de la página y selecciona Delete (Eliminar).

Nota: No puedes eliminar un pipeline activo. Debes detener todos los workers de un pipeline antes de poder eliminarlo.

Referencias adicionales