- 필수 기능
- 시작하기
- Glossary
- 표준 속성
- Guides
- Agent
- 통합
- 개방형텔레메트리
- 개발자
- Administrator's Guide
- API
- Datadog Mobile App
- CoScreen
- Cloudcraft
- 앱 내
- 서비스 관리
- 인프라스트럭처
- 애플리케이션 성능
- APM
- Continuous Profiler
- 스팬 시각화
- 데이터 스트림 모니터링
- 데이터 작업 모니터링
- 디지털 경험
- 소프트웨어 제공
- 보안
- AI Observability
- 로그 관리
- 관리
",t};e.buildCustomizationMenuUi=t;function n(e){let t='
",t}function s(e){let n=e.filter.currentValue||e.filter.defaultValue,t='${e.filter.label}
`,e.filter.options.forEach(s=>{let o=s.id===n;t+=``}),t+="${e.filter.label}
`,t+=`이 페이지에서는 Technology Partners가 어떻게 로그 파이프라인을 생성할 수 있는지에 대해 알아봅니다. 통합에서 Datadog으로 로그를 전송하려면 로그 파이프라인이 필요합니다.
Datadog으로 로그를 전송하는 통합을 개발할 때, 사용자에게 최상의 경험을 제공할 수 있도록 다음 가이드를 따르세요.
로그 파이프라인을 생성하기 전에 아래의 지침과 권장 사항을 참고하세요.
http-intake.logs
.
입니다.ddtags=<TAGS>
쿼리 파라미터를 사용하여 태그를 설정할 수 있습니다.source
태그를 통합 이름으로 설정합니다source
태그를 <integration_name>
(source:okta
)로 설정할 것을 권장합니다. Datadog UI에서 다시 매핑할 수 없으므로 Datadog 엔드포인트로 로그를 전송하기 전에 반드시 source
를 설정해야 합니다.source
태그는 소문자로 작성해야 하며, 통합 파이프라인 및 대시보드를 활성화하는 데 사용되므로 사용자가 편집할 수 없어야 합니다.Datadog 파트너 계정 내에서 직접 로그 통합 자산을 만들고 디자인할 수 있습니다.
로그 통합은 파이프라인과 관련 패싯이라는 두 가지 자산 세트로 구성됩니다. 다양한 기술 및 애플리케이션의 로그를 중앙에서 관리하면 여러 가지 고유한 특성을 얻을 수 있습니다. 기본 대시보드를 사용하려면 Technology Partner Integrations가 통합을 생성할 때 Datadog의 표준 명명 규칙을 따라야 합니다.
Datadog Integration 디자인을 마무리하고 Datadog의 로그 엔드포인트로 로그를 성공적으로 전송한 후, 로그 파이프라인과 패싯을 정의하여 통합의 로그를 풍부하게 하고 구조화합니다.
Datadog Technology Partner와 통합 개발 샌드박스 액세스에 관한 정보는 통합 구축에서 확인하세요.
Datadog으로 전송된 로그는 파이프라인 프로세서를 사용하여 로그 파이프라인에서 처리됩니다. 이 프로세서를 통해 사용자는 속성 정보를 파싱, 재매핑 및 추출하여 플랫폼 전반에서 사용할 수 있도록 로그를 풍부하게 하고 표준화할 수 있습니다.
파이프라인 프로세서로 지정된 로그를 처리하기 위해 로그 파이프라인을 생성합니다.
source
태그를 입력합니다. 예를 들어, Okta 통합은 source:okta
입니다.
참고: Datadog으로 전송되기 전 통합을 통해 전송되는 로그에 올바른 소스 태그가 적용되었는지 확인하세요.파이프라인을 설정한 후 프로세서를 추가하여 로그를 더욱 구조화하고 정보를 강화합니다.
파이프라인 프로세서를 정의하기 전에 Datadog의 Standard Attributes를 검토하세요.
파이프라인 내에서 프로세서를 사용하여 데이터를 보강하고 재구성하며 로그 속성을 생성하세요. 모든 로그 프로세서 목록은 프로세서 문서를 참고하세요.
network.client.ip
로 리매핑해야 합니다.service
태그를 원격 측정 데이터를 생성하는 서비스 이름에 매핑합니다service
속성을 리매핑합니다. 소스와 서비스가 동일한 값을 공유하는 경우, service
태그를 source
태그에 리매핑합니다. service
태그는 소문자여야 합니다.status
속성에 매핑합니다status
를 리매핑하거나, Category Processor를 사용하여 범위에 매핑된 상태(HTTP 상태 코드처럼)를 리매핑합니다.message
속성에 매핑합니다file
은 integration_name.file
로 다시 매핑됩니다.
Attribute Remapper를 사용하여 속성 키를 새로운 네임스페이스 속성으로 설정하세요.Arithmetic Processor
는 속성을 기반으로 정보를 계산하는 데 사용할 수도 있고, String Builder Processor
는 여러 문자열 속성을 연결하는 데 사용할 수도 있습니다.팁
preserveSource:false
를 사용하여 원래 속성을 제거하세요. 이렇게 하면 혼란을 줄이고 중복을 제거할 수 있습니다.%{data:}
및 %{regex(".*"):}
와 같은 와일드카드 매처를 사용하지 마세요. 파싱 구문은 최대한 구체적으로 작성하세요.패싯(Facet)은 검색 결과를 필터링하고 범위를 좁히는 데 사용할 수 있는 구체적인 질적 또는 양적 속성입니다. 패싯은 검색 결과를 필터링하는 데 반드시 필요한 것은 아니지만, 사용자가 검색을 세분화할 수 있는 기준(차원)을 이해하는 데 중요한 역할을 합니다.
파이프라인이 발행되면 Datadog에서 표준 속성에 대한 패싯을 자동으로 추가합니다. 해당 속성을 Datadog Standard Attribute로 다시 매핑해야 하는지 검토하세요.
모든 속성이 패싯으로 사용되지는 않습니다. 통합에서 패싯이 필요한 주요 이유는 다음과 같습니다.
@deviceCPUper
→ Device CPU Utilization Percentage
.Log Explorer에서 패싯을 생성할 수 있습니다.
패싯을 올바르게 정의하는 것이 중요합니다. Datadog의 Log Management 제품 전반에 걸쳐 분석, 모니터, 집계 기능에서 인덱싱된 로그의 유용성을 향상시키기 때문입니다.
Log Management 전반에 자동 완성 기능을 추가하여 애플리케이션 로그를 더 쉽게 찾을 수 있습니다.
attribute_name
은 integration_name.attribute_name
로 리매핑됩니다.source
이름 아래에 그룹화해야 합니다Group
값을 통합 이름과 동일하게 source
로 설정하세요.패싯 또는 측정값 추가
팁
millisecond
또는gibibyte
와 같은 단위를 사용하는 두 가지 단위 계열(TIME
, BYTES
)이 있습니다.preserveSource:true
옵션을 사용하여 속성을 다시 매핑하고 원본을 유지하는 경우, 단일 속성에만 패싯을 정의합니다..yaml
구성 파일에서 패싯을 수동으로 구성할 때 패싯에 source
가 할당됩니다. 이는 속성이 캡처된 위치를 나타내며, 속성의 경우 log
로, 태그의 경우 tag
로 표시될 수 있습니다.Datadog은 이 페이지에 명시된 지침 및 요구 사항을 기반으로 로그 통합을 검토하고 GitHub를 통해 Technology Partner에게 피드백을 제공합니다. Technology Partner는 이를 검토하고 그에 따라 수정 작업을 진행합니다.
검토 프로세스를 시작하려면 Logs Configuration 페이지의 Export 아이콘을 사용하여 로그 파이프라인과 관련 사용자 정의 패싯을 내보내세요.
통합을 통해 Datadog으로 전송될 모든 속성이 포함된 샘플 원시 로그를 포함하세요. 원시 로그는 Datadog으로 전송되기 전에 소스 애플리케이션에서 직접 생성된 원시 메시지로 구성됩니다.
로그 파이프라인을 내보낼 때 두 개의 YAML 파일이 포함됩니다.
pipeline-name.yaml
입니다.result
섹션이 있는 파일입니다. 내보낸 파일의 이름은 pipeline-name_test.yaml
입니다.참고: 브라우저에 따라 파일 다운로드를 허용하도록 설정을 조정해야 할 수도 있습니다.
이 파일들을 다운로드한 후 GitHub의 통합 풀 리퀘스트로 이동하여 Assets > Logs 디렉터리에 파일을 추가하세요. Logs 폴더가 아직 없다면 직접 생성할 수 있습니다.
풀 리퀘스트에서 자동으로 검증이 실행되며, 제공된 원시 샘플을 기준으로 파이프라인의 유효성을 검사합니다. 검증 결과는 pipeline-name_test.yaml
파일의 result
섹션으로 설정할 수 있습니다.
검증을 다시 실행한 후 감지되는 이슈가 없으면, 로그 검증이 성공적으로 완료됩니다.
일반적인 세 가지 검증 오류는 다음과 같습니다.
id
필드: 파이프라인을 통합에 연결하려면 id
필드가 통합 manifest.json
파일의 app_id
필드와 일치하는지 확인하세요.result
를 제공하지 않는 경우입니다. 검증 결과 출력이 정확하다면 해당 출력을 원시 예제 로그가 포함된 YAML 파일의 result
필드에 추가하세요.service
를 파라미터로 보내는 경우 yaml 파일 내 로그 샘플 아래에 있는 service
필드를 포함해야 합니다.검증이 통과되면 Datadog은 새로운 로그 통합 자산을 생성하고 배포합니다. 질문이 있으시면 풀 리퀘스트에 댓글로 남겨주세요. Datadog 담당자가 영업일 기준 2~3일 이내에 답변해 드립니다.
추가 유용한 문서, 링크 및 기사: