- 필수 기능
- 시작하기
- Glossary
- 표준 속성
- Guides
- Agent
- 통합
- 개방형텔레메트리
- 개발자
- Administrator's Guide
- API
- Datadog Mobile App
- CoScreen
- Cloudcraft
- 앱 내
- 서비스 관리
- 인프라스트럭처
- 애플리케이션 성능
- APM
- Continuous Profiler
- 스팬 시각화
- 데이터 스트림 모니터링
- 데이터 작업 모니터링
- 디지털 경험
- 소프트웨어 제공
- 보안
- AI Observability
- 로그 관리
- 관리
Supported OS
로그스태시(Logstash)에서 실시간으로 메트릭을 받아 다음을 수행할 수 있습니다.
로그스태시(Logstash) 점검이 Datadog 에이전트 패키지에 포함되어 있지 않습니다. 그러므로 패키지를 설치해야 합니다.
에이전트 v7.21+/v6.21+의 경우 아래 지침을 통해 호스트에서 로그스태시(Logstash) 점검을 설치합니다. 이전 버전의 에이전트를 보려면 커뮤니티 통합 사용을 참조하세요.
다음 명령어를 실행해 에이전트 통합을 설치하세요.
datadog-agent integration install -t datadog-logstash==<INTEGRATION_VERSION>
핵심 통합과 유사하게 통합을 설정합니다.
다음 Dockerfile을 사용하여 로그스태시(Logstash) 통합을 포함하는 커스텀 Datadog 에이전트 이미지를 빌드합니다.
FROM gcr.io/datadoghq/agent:latest
RUN datadog-agent integration install -r -t datadog-logstash==<INTEGRATION_VERSION>
쿠버네티스(Kubernetes)를 사용하는 경우 Datadog 오퍼레이터 또는 헬름 차트 설정을 업데이트하여 이 커스텀 Datadog 에이전트 이미지를 가져옵니다.
자세한 내용은 커뮤니티 통합 사용을 참조하세요.
에이전트 설정 디렉터리의 루트에 있는 conf.d/
폴더에서 logstash.d/conf.yaml
파일을 편집합니다.
init_config:
instances:
# The URL where Logstash provides its monitoring API.
# This will be used to fetch various runtime metrics about Logstash.
#
- url: http://localhost:9600
사용 가능한 모든 설정 옵션은 샘플 logstash.d/conf.yaml을 참조하세요.
에이전트를 재시작하세요.
컨테이너화된 환경의 경우 다음 파라미터와 함께 자동탐지 템플릿을 사용합니다.
파라미터 | 값 |
---|---|
<INTEGRATION_NAME> | logstash |
<INIT_CONFIG> | 비어 있음 또는 {} |
<INSTANCE_CONFIG> | {"server": "http://%%host%%:9600"} |
이 템플릿을 적용하는 방법을 알아보려면 도커(Docker) 통합 또는 쿠버네티스(Kubernetes) 통합을 참조하세요.
사용 가능한 모든 설정 옵션은 샘플 logstash.d/conf.yaml을 참조하세요.
Datadog에는 출력 플러그인이 있습니다. 로그스태시(Logstash)를 Datadog 플랫폼으로 전송하는 작업을 처리합니다.
이 플러그인을 설치하려면 다음 명령을 실행하세요.
logstash-plugin install logstash-output-datadog_logs
그런 다음 Datadog API 키를 사용하여 datadog_logs
플러그인을 설정하다 합니다.
output {
datadog_logs {
api_key => "<DATADOG_API_KEY>"
}
}
기본값으로 플러그인은 gzip 압축을 사용하여 HTTPS(포트 443)를 통해 로그를 전송하도록 설정됩니다. 다음 파라미터를 사용하여 해당 작업을 변경할 수 있습니다.
use_http
: TCP 전달을 사용하려면 false
로 설정하고 host
및 port
를 적절히 업데이트합니다(기본값은 true
).use_compression
: 압축은 HTTP에만 사용할 수 있습니다. false
(기본값은 true
)로 설정하여 비활성화합니다.compression_level
: HTTP에서 압축 수준을 설정합니다. 범위는 1에서 9까지이며 9가 가장 좋은 비율입니다(기본값은 6
).추가로 파라미터를 사용하여 프록시을 통과하기 위해 사용하는 엔드포인트를 변경할 수 있습니다.
host
: 로그의 프록시 엔드포인트가 Datadog로 직접 전달되지 않습니다(기본값: http-intake.logs.datadoghq.com
).port
: 로그의 프록시 포트가 Datadog으로 직접 전달되지 않습니다(기본값: 80
).ssl_port
: 로그에 사용되는 포트는 보안 TCP/SSL 연결을 통해 Datadog으로 전달됩니다(기본값: 443
).use_ssl
: Datadog에 대한 보안 TCP/SSL 연결을 초기화하도록 에이전트에 지시합니다(기본값: true
).no_ssl_validation
: SSL 호스트 이름 유효성 검사를 비활성화합니다(기본값: false
).참고: host
및 port
을 해당 지역
으로 설정합니다.
output {
datadog_logs {
api_key => "<DATADOG_API_KEY>"
host => "http-intake.logs.datadoghq.eu"
}
}
Datadog에서 로그를 최대한 활용하려면 호스트명과 소스 등 로그와 관련된 적절한 메타데이터를 확보하는 것이 중요합니다. 기본적으로, Datadog 예약된 속성에 대한 기본 리매핑 덕분에 호스트 이름과 타임스탬프가 올바르게 리매핑되어야 합니다. 서비스가 올바르게 리매핑되었는지 확인하려면 서비스 리매핑 목록에 해당 속성 값을 추가하세요.
필터를 설정하여 로그스태시(Logstash) 필터를 설정하여 로그에서 소스(Datadog 통합 이름)를 설정합니다.
filter {
mutate {
add_field => {
"ddsource" => "<MY_SOURCE_VALUE>"
}
}
}
이렇게 하면 Datadog에서 통합 자동 설정이 트리거됩니다.
호스트 태그는 인프라스트럭처 목록에 일치하는 호스트 네임이 있는 경우 로그에 자동으로 설정됩니다. ddtags
속성을 사용하여 커스텀 태그를 로그에 추가합니다.
filter {
mutate {
add_field => {
"ddtags" => "env:test,<KEY:VALUE>"
}
}
}
[에이전트의 status
하위 명령]을 실행하고9 점검 섹션에서 logstash
를 찾습니다.
로그스태시(Logstash) 점검 은 로그스태시(Logstash) 5.x, 6.x 및 7.x 버전과 함께 호환됩니다. 또한 로그스태시(Logstash) 6.0에 도입된 새로운 멀티파이프라인 메트릭을 지원합니다. 로그스태시(Logstash) 버전 5.6.15, 6.3.0 및 7.0.0에서 테스트되었습니다.
logstash.process.open_file_descriptors (gauge) | The number of open file descriptors used by this process. |
logstash.process.peak_open_file_descriptors (gauge) | The peak number of open file descriptors used by this process. |
logstash.process.max_file_descriptors (gauge) | The maximum number of file descriptors used by this process. |
logstash.process.mem.total_virtual_in_bytes (gauge) | Total virtual memory allocated to this process. Shown as byte |
logstash.process.cpu.total_in_millis (gauge) | The CPU time in milliseconds. Shown as millisecond |
logstash.process.cpu.percent (gauge) | CPU utilization in percentage. Shown as percent |
logstash.process.cpu.load_average.1m (gauge) | The average CPU load over one minute. |
logstash.process.cpu.load_average.5m (gauge) | The average CPU load over five minutes |
logstash.process.cpu.load_average.15m (gauge) | The average CPU load over fifteen minutes. |
logstash.jvm.threads.count (gauge) | Number of threads used by the JVM. Shown as thread |
logstash.jvm.threads.peak_count (gauge) | The peak number of threads used by JVM. Shown as thread |
logstash.jvm.mem.heap_used_percent (gauge) | Total Java heap memory used. Shown as percent |
logstash.jvm.mem.heap_committed_in_bytes (gauge) | Total Java heap memory committed. Shown as byte |
logstash.jvm.mem.heap_max_in_bytes (gauge) | Maximum Java heap memory size. Shown as byte |
logstash.jvm.mem.heap_used_in_bytes (gauge) | Total Java heap memory used. Shown as byte |
logstash.jvm.mem.non_heap_used_in_bytes (gauge) | Total Java non-heap memory used. Shown as byte |
logstash.jvm.mem.non_heap_committed_in_bytes (gauge) | Total Java non-heap memory committed. Shown as byte |
logstash.jvm.mem.pools.survivor.peak_used_in_bytes (gauge) | The Java memory used in the Survivor space. Shown as byte |
logstash.jvm.mem.pools.survivor.used_in_bytes (gauge) | The peak Java memory used in the Survivor space. Shown as byte |
logstash.jvm.mem.pools.survivor.peak_max_in_bytes (gauge) | The peak maximum Java memory used in the Survivor space. Shown as byte |
logstash.jvm.mem.pools.survivor.max_in_bytes (gauge) | The maximum Java memory used in the Survivor space. Shown as byte |
logstash.jvm.mem.pools.survivor.committed_in_bytes (gauge) | The committed Java memory used in the Survivor space. Shown as byte |
logstash.jvm.mem.pools.old.peak_used_in_bytes (gauge) | The peak Java memory used in the Old generation. Shown as byte |
logstash.jvm.mem.pools.old.used_in_bytes (gauge) | The Java memory used in the Old generation. Shown as byte |
logstash.jvm.mem.pools.old.peak_max_in_bytes (gauge) | The peak maximum Java memory used in the Old generation. Shown as byte |
logstash.jvm.mem.pools.old.max_in_bytes (gauge) | The maximum Java memory used in the Old generation. Shown as byte |
logstash.jvm.mem.pools.old.committed_in_bytes (gauge) | The committed Java memory used in the Old generation. Shown as byte |
logstash.jvm.mem.pools.young.peak_used_in_bytes (gauge) | The peak Java memory used in the Young space. Shown as byte |
logstash.jvm.mem.pools.young.used_in_bytes (gauge) | The Java memory used in the Young generation. Shown as byte |
logstash.jvm.mem.pools.young.peak_max_in_bytes (gauge) | The peak maximum Java memory used in the Young generation. Shown as byte |
logstash.jvm.mem.pools.young.max_in_bytes (gauge) | The maximum Java memory used in the Young generation. Shown as byte |
logstash.jvm.mem.pools.young.committed_in_bytes (gauge) | The committed Java memory used in the Young generation. Shown as byte |
logstash.jvm.gc.collectors.old.collection_time_in_millis (gauge) | Garbage collection time spent in the Old generation. Shown as millisecond |
logstash.jvm.gc.collectors.old.collection_count (gauge) | Garbage collection count in the Old generation. |
logstash.jvm.gc.collectors.young.collection_time_in_millis (gauge) | Garbage collection time spent in the Young generation. Shown as millisecond |
logstash.jvm.gc.collectors.young.collection_count (gauge) | Garbage collection time spent in the Young generation. |
logstash.reloads.successes (gauge) | Number of successful configuration reloads. |
logstash.reloads.failures (gauge) | Number of failed configuration reloads. |
logstash.pipeline.dead_letter_queue.queue_size_in_bytes (gauge) | Total size of the dead letter queue. Shown as byte |
logstash.pipeline.events.duration_in_millis (gauge) | Events duration in the pipeline. Shown as millisecond |
logstash.pipeline.events.in (gauge) | Number of events into the pipeline. |
logstash.pipeline.events.out (gauge) | Number of events out from the pipeline. |
logstash.pipeline.events.filtered (gauge) | Number of events filtered. |
logstash.pipeline.reloads.successes (gauge) | Number of successful pipeline reloads. |
logstash.pipeline.reloads.failures (gauge) | Number of failed pipeline reloads. |
logstash.pipeline.plugins.inputs.events.out (gauge) | Number of events out from the input plugin. |
logstash.pipeline.plugins.inputs.events.queue_push_duration_in_millis (gauge) | Duration of queue push in the input plugin. Shown as millisecond |
logstash.pipeline.plugins.outputs.events.in (gauge) | Number of events into the output plugin. |
logstash.pipeline.plugins.outputs.events.out (gauge) | Number of events out from the output plugin. |
logstash.pipeline.plugins.outputs.events.duration_in_millis (gauge) | Duration of events in the output plugin. Shown as millisecond |
logstash.pipeline.plugins.filters.events.in (gauge) | Number of events into the filter plugin. |
logstash.pipeline.plugins.filters.events.out (gauge) | Number of events out from the filter plugin. |
logstash.pipeline.plugins.filters.events.duration_in_millis (gauge) | Duration of events in the filter plugin. Shown as millisecond |
logstash.pipeline.queue.capacity.max_queue_size_in_bytes (gauge) | Maximum queue capacity in bytes of a persistent queue. Shown as byte |
logstash.pipeline.queue.capacity.max_unread_events (gauge) | Maximum unread events allowed in a persistent queue. |
logstash.pipeline.queue.capacity.page_capacity_in_bytes (gauge) | Queue page capacity in bytes of a persistent queue. Shown as byte |
logstash.pipeline.queue.capacity.queue_size_in_bytes (gauge) | Disk used in bytes of a persistent queue. Shown as byte |
logstash.pipeline.queue.events (gauge) | Number of events in a persistent queue. |
로그스태시(Logstash) 점검에는 이벤트가 포함되어 있지 않습니다.
logstash.can_connect
Returns Critical
if the Agent cannot connect to Logstash to collect metrics, returns OK
otherwise.
Statuses: ok, critical
logstash
-------
- instance #0 [ERROR]: "('Connection aborted.', error(111, 'Connection refused'))"
- Collected 0 metrics, 0 events & 1 service check
conf.yaml
의 url
가 올바른지 확인합니다.
추가 정보가 필요한 경우 Datadog 지원으로 문의하세요.