host
Para configurar este check para un Agent que se ejecuta en un host:
Recopilación de métricas
Edita el archivo fluentd.d/conf.yaml
, en la carpeta conf.d/
en la raíz de tu directorio de configuración del Agent para comenzar a recopilar tus métricas de Fluentd. Consulta el ejemplo de fluentd.d/conf.yaml para conocer todas las opciones de configuración disponibles.
init_config:
instances:
## @param monitor_agent_url - string - required
## Monitor Agent URL to connect to.
#
- monitor_agent_url: http://example.com:24220/api/plugins.json
Reinicia el Agent.
Recopilación de logs
Puedes utilizar el complemento de Fluentd de Datadog para reenviar los logs directamente desde Fluentd a tu cuenta de Datadog.
Unos metadatos adecuados (incluidos el nombre de host y source (fuente)) son la clave para desbloquear todo el potencial de tus logs en Datadog. En forma predeterminada, los campos de nombre de host y marca de tiempo deben reasignarse correctamente con la reasignación para atributos reservados.
Añade el atributo ddsource
con el nombre de la integración log en tus logs para activar la configuración automática de la integración en Datadog.
Las etiquetas (tags) de host se configuran automáticamente en tus logs si hay un nombre de host coincidente en tu lista de infraestructuras. Utiliza el atributo ddtags
para añadir etiquetas (tags) personalizadas a sus logs:
Ejemplo de configuración:
# Match events tagged with "datadog.**" and
# send them to Datadog
<match datadog.**>
@type datadog
@id awesome_agent
api_key <your_api_key>
# Optional
include_tag_key true
tag_key 'tag'
# Optional tags
dd_source '<INTEGRATION_NAME>'
dd_tags '<KEY1:VALUE1>,<KEY2:VALUE2>'
<buffer>
@type memory
flush_thread_count 4
flush_interval 3s
chunk_limit_size 5m
chunk_limit_records 500
</buffer>
</match>
Por defecto, el complemento está configurado para enviar logs a través de HTTPS (puerto 443) utilizando la compresión gzip.
Puedes cambiar este comportamiento utilizando los siguientes parámetros:
use_http
: Defínelo como false
, si quieres utilizar el reenvío TCP, y actualiza el host
y el port
en consecuencia (por defecto es true
).use_compression
: La compresión sólo está disponible para HTTP. Desactívala configurándola como false
(por defecto es true
).compression_level
: Configura el nivel de compresión de HTTP. El rango es de 1 a 9, siendo 9 el mejor ratio (por defecto es 6
)
Se pueden utilizar parámetros adicionales para cambiar el endpoint utilizado para pasar por un proxy:
host
: Endpoint del proxy para logs no reenviados directamente a Datadog (valor por defecto: http-intake.logs.datadoghq.com
).port
: Puerto del proxy para logs no reenviados directamente a Datadog (valor por defecto: 80
).ssl_port
: Puerto utilizado para logs reenviados a Datadog con una conexión TCP/SSL segura (valor por defecto: 443
).use_ssl
: Indica al Agent que inicie una conexión TCP/SSL segura con Datadog (valor por defecto: true
).no_ssl_validation
: Desactiva la validación de nombres de host SSL (valor por defecto: false
).
Nota: Configura el host
y el port
en tu región
.
<match datadog.**>
#...
host 'http-intake.logs.datadoghq.eu'
</match>
Etiquetas de Kubernetes y Docker
Las etiquetas de Datadog son fundamentales para poder saltar de una parte del producto a otra. Por tanto, es importante disponer de los metadatos adecuados asociados a tus logs para saltar de una vista de contenedor o de cualquier métrica de contenedor a los logs más relacionados.
Si tus logs contienen alguno de los siguientes atributos, estos se añaden a tus logs automáticamente como etiquetas de Datadog:
kubernetes.container_image
kubernetes.container_name
kubernetes.namespace_name
kubernetes.pod_name
docker.container_id
Mientras que el Datadog Agent recopila los metadatos de Docker y Kubernetes automáticamente, Fluentd necesita un complemento para ello. Datadog recomienda utilizar fluent-plugin-kubernetes_metadata_filter para recopilar estos metadatos.
Ejemplo de configuración:
# Collect metadata for logs tagged with "kubernetes.**"
<filter kubernetes.*>
type kubernetes_metadata
</filter>