- 필수 기능
- 시작하기
- Glossary
- 표준 속성
- Guides
- Agent
- 통합
- 개방형텔레메트리
- 개발자
- Administrator's Guide
- API
- Datadog Mobile App
- CoScreen
- Cloudcraft
- 앱 내
- 서비스 관리
- 인프라스트럭처
- 애플리케이션 성능
- APM
- Continuous Profiler
- 스팬 시각화
- 데이터 스트림 모니터링
- 데이터 작업 모니터링
- 디지털 경험
- 소프트웨어 제공
- 보안
- AI Observability
- 로그 관리
- 관리
Datadog에서 모든 Google Compute Engine(GCE) 호스트를 보려면 Google Cloud Platform에 연결하세요. Datadog의 인프라스트럭처 개요에서 호스트를 확인하고 정렬할 수 있습니다. Datadog이 자동으로 GCE 호스트 태그와 추가한 GCE 라벨을 사용하여 호스트에 태그를 지정하기 때문입니다.
통합 | 설명 |
---|---|
App Engine | 확장 가능한 애플리케이션을 구축하기 위한 PaaS(Platform as a Service) |
Big Query | 엔터프라이즈 데이터 웨어하우스 |
Bigtable | NoSQL Big Data 데이터베이스 서비스 |
Cloud SQL | MySQL 데이터베이스 서비스 |
Cloud APIs | 모든 Google Cloud Platform 서비스를 위한 프로그래밍 방식 인터페이스 |
Cloud Armor | 서비스 거부 및 웹 공격으로부터 보호하는 데 도움이 되는 네트워크 보안 서비스 |
Cloud Composer | 완전 관리형 워크플로 오케스트레이션 서비스 |
Cloud Dataproc | Apache Spark 및 Apache Hadoop 클러스터를 실행하기 위한 클라우드 서비스 |
Cloud Dataflow | 스트림 및 배치 모드에서 데이터를 변환하고 강화하기 위한 완전 관리형 서비스 |
Cloud Filestore | 고성능, 완전 관리형 파일 스토리지 |
Cloud Firestore | 모바일, 웹, 서버 개발을 위한 유연하고 확장 가능한 데이터베이스 |
Cloud Interconnect | 하이브리드 연결 |
Cloud IoT | 안전한 디바이스 연결 및 관리 |
Cloud Load Balancing | 부하가 분산된 컴퓨팅 리소스 배포 |
Cloud Logging | 실시간 로그 관리 및 분석 |
Cloud Memorystore for Redis | 완전 관리형 인메모리 데이터 저장소 서비스 |
Cloud Router | BGP를 사용하여 VPC와 온프레미스 네트워크 간에 경로를 교환 |
Cloud Run | HTTP를 통해 상태 스테이트리스 컨테이너를 실행하는 관리형 컴퓨팅 플랫폼 |
Cloud Security Command Center | Security Command Center는 위협 보고 서비스입니다. |
Cloud Tasks | 분산된 작업 대기열 |
Cloud TPU | 머신 러닝 모델 학습 및 실행 |
Compute Engine | 고성능 가상 머신 |
Container Engine | Google이 관리하는 Kubernetes |
Datastore | NoSQL 데이터베이스 |
Firebase | 애플리케이션 개발을 위한 모바일 플랫폼 |
Functions | 이벤트 기반 마이크로서비스 구축을 위한 서버리스 플랫폼 |
Kubernetes Engine | 클러스터 관리자 및 오케스트레이션 시스템 |
Machine Learning | 머신 러닝 서비스 |
Private Service Connect | 프라이빗 VPC 연결로 관리형 서비스에 액세스 |
Pub/Sub | 실시간 메시징 서비스 |
Spanner | 수평적으로 확장 가능하고 전 세계적으로 일관된 관계형 데이터베이스 서비스 |
Storage | 통합 객체 스토리지 |
Vertex AI | 커스텀 머신 러닝(ML) 모델을 구축, 학습 및 배포합니다. |
VPN | 관리형 네트워크 기능 |
Datadog의 Google Cloud 통합을 설정하여 Google Cloud 서비스에서 메트릭과 로그를 수집하세요.
조직에서 도메인별로 ID를 제한하는 경우 Datadog의 고객 ID 를 정책에 허용되는 값으로 추가해야 합니다. Datadog의 고객 ID: C0147pk0i
서비스 계정 가장 및 프로젝트 자동 검색은 프로젝트를 모니터링할 수 있는 특정 역할과 API를 사용하도록 설정해야 합니다. 시작하기 전에 모니터링하려는 프로젝트에 대해 다음 API가 활성화되어 있는지 확인하세요.
사이트의 Datadog 구글 클라우드 통합은 서비스 계정을 사용하여 구글 클라우드와 Datadog 간 API 연결을 생성합니다. 아래 지침에 따라 서비스 계정을 만들고 Datadog에 서비스 계정 자격 증명을 제공하여 사용자를 대신하여 API 호출을 시작하세요.
서비스 계정 사칭은 사이트에서 사용할 수 없습니다.
참고: 모니터링 하려는 프로젝트에 대해 Google Cloud 빌링, Cloud 모니터링 API , 컴퓨팅 엔진 API, 클라우드 자산 API를 모두 활성화해야 합니다.
Datadog와 통합하려는 Google Cloud 프로젝트의 Google 클라우드 자격 증명 페이지로 이동합니다.
자격 증명 생성을 클릭합니다.
서비스 계정을 선택합니다.
서비스 계정에 고유한 이름과 부수적인 설명을 입력합니다.
생성 후 계속을 클릭합니다.
다음 역할 추가:
Done을 클릭합니다. 참고: 컴퓨팅 엔진 및 클라우드 자산 역할을 선택하려면 서비스 계정 키 관리자여야 합니다. 선택한 모든 역할은 Datadog에서 사용자를 대신하여 메트릭, 태그, 이벤트 및 사용자 레이블을 수집할 수 있도록 허용합니다.
페이지 하단에서 서비스 계정을 찾아 방금 생성한 계정을 선택합니다.
키 추가 -> 새 키 생성을 클릭하고 유형으로 JSON을 선택합니다.
생성을 클릭합니다. JSON 키 파일이 컴퓨터에 다운로드됩니다. 설치를 완료하는 데 필요하므로 저장된 위치를 확인하세요.
Datadog Google Cloud 통합 페이지로 이동합니다.
설정 탭 에서 키 파일 업로드 를 선택하여 이 프로젝트를 Datadog와 통합합니다.
선택적으로 태그를사용하여 호스트가 통합에 포함되지 않도록 필터링할 수 있습니다. 이에 대한 자세한 지침은 설정 섹션에서 확인할 수 있습니다.
_설치/업데이트_를 클릭합니다.
여러 프로젝트를 모니터링하려면 다음 방법 중 하나를 사용하세요.
project_id
을 업데이트하여 동일한 서비스 계정을 사용합니다. 그런 다음 11~14단계에 설명된 대로 Datadog 에 파일을 업로드합니다.선택적으로, 프로젝트의 드롭다운 메뉴 아래 메트릭 컬렉션 제한 텍스트 상자에 태그를 입력하여 Datadog로 가져오는 GCE 인스턴스를 제한할 수 있습니다. 정의된 태그 중 하나와 일치하는 호스트만 Datadog로 가져옵니다. 와일드카드(단일 문자의 경우?
, 다중 문자의 경우 *
)를 사용하여 많은 호스트를 일치시키거나 !
을 사용하여 특정 호스트를 제외할 수 있습니다. 이 예에서는 모든 c1*
크기의 인스턴스를 포함하지만 스테이징 호스트는 제외합니다.
datadog:monitored,env:production,!env:staging,instance-type:c1.*
자세한 내용은 라벨 생성 및 관리에 대한 Google 설명서를 참조하세요.
서비스 계정 사칭 및 자동 프로젝트 검색을 사용하여 Datadog 을 Google 클라우드와 통합할 수 있습니다.
이 방법을 사용하면 관련 프로젝트에 IAM 역할을 할당하여 서비스 계정에 표시되는 모든 프로젝트를 모니터링할 수 있습니다. 이러한 역할을 프로젝트에 개별적으로 할당하거나 조직 또는 폴더 수준에서 이러한 역할을 할당하여 Datadog가 프로젝트 그룹을 모니터링하도록 설정할 수 있습니다. 이러한 방식으로 역할을 할당하면 Datadog가 향후 그룹에 추가될 수 있는 새 프로젝트를 포함해 지정된 범위의 모든 프로젝트를 자동으로 검색하고 모니터링할 수 있습니다.
Datadog에서 통합 > Google 클라우드 플랫폼으로 이동합니다.
GCP 계정 추가를 클릭합니다. 설정된 프로젝트가 없는 경우 이 페이지로 자동 리디렉션됩니다.
조직에 대한 Datadog 주체를 생성하지 않은 경우 주체 생성 버튼을 클릭합니다.
Datadog 주체를 복사하여 다음 섹션을 위해 보관하세요.
[다음 섹션](#3-datadog에서-통합-설정-완료)을 위해 이 창을 계속 열어 두세요.Google 클라우드 콘솔의 서비스 계정 메뉴에서 첫 번째 섹션에서 생성한 서비스 계정을 찾습니다.
권한 탭 으로 이동하여 액세스 권한 부여를 클릭합니다.
Datadog 주체를 새 주체 텍스트 상자에 붙여넣습니다.
서비스 계정 토큰 생성자 역할을 할당하고 저장을 클릭합니다.
참고: 이전에 공유 Datadog 주체를 사용하여 액세스를 구성한 경우 이 단계를 완료한 후 해당 주체에 대한 권한을 취소할 수 있습니다.
<sa-name>@<project-id>.iam.gserviceaccount.com
과 유사합니다.약 15분 후 Datadog 에 메트릭이 나타납니다.
자동 프로젝트 검색 기능은 모니터링할 프로젝트를 추가하는 프로세스 작업을 간소화합니다. 서비스 계정에 다른 프로젝트, 폴더 또는 조직에 대한 액세스 권한을 부여하면 Datadog에서 이러한 프로젝트(및 폴더 또는 조직에 중복된 모든 프로젝트)를 검색하여 통합 타일에 자동으로 추가합니다.
선택적으로, 프로젝트의 드롭다운 메뉴 아래 메트릭 컬렉션 제한 텍스트 상자에 태그를 입력하여 Datadog로 가져오는 GCE 인스턴스를 제한할 수 있습니다. 정의된 태그 중 하나와 일치하는 호스트만 Datadog로 가져옵니다. 와일드카드(단일 문자의 경우?
, 다중 문자의 경우 *
)를 사용하여 많은 호스트를 일치시키거나 !
를 사용하여 특정 호스트를 제외할 수 있습니다. 이 예에서는 모든 c1*
크기의 인스턴스를 포함하지만 스테이징 호스트는 제외합니다:
datadog:monitored,env:production,!env:staging,instance-type:c1.*
자세한 내용은 라벨 생성 및 관리에 대한 Google 설명서를 참조하세요.
Google 클라우드 데이터 플로우]42와 Datadog 템플릿을 사용하여 로그를 Google 클라우드 서비스에서 Datadog로 전달합니다. 이 방법은 Datadog로 전달하기 전에 이벤트의 압축과 일괄 처리를 모두 제공합니다. 이 섹션의 지침을 따르세요.
1. 로그 Pub/Sub 주제 및 풀 구독을 생성하여 설정된 로그 싱크에서 로그를 수신합니다.
2. 커스텀 데이터플로우 근로자 서비스 계정을 생성하여 데이터플로우 파이프라인 근로자에게 최소 권한을 제공합니다.
3. 로그 싱크를 생성하여 로그 를 Pub/Sub 주제에 게시합니다.
4. Datadog 템플릿을 사용하여 데이터 흐름 작업을 생성해 로그를 Pub/Sub 구독에서 Datadog로 스트리밍합니다.
싱크에서 생성한 로깅 필터를 통해 Datadog 으로 전송되는 로그를 완전히 제어할 수 있습니다. 로그 싱크에서 생성한 로깅 필터를 통해 로그로 전송할 수 있습니다. 필터 작성에 대한 자세한 내용은 Google의 로깅 쿼리 언어 페이지를 참조하세요.
참고: Google 클라우드 데이터플로우를 사용하려면 데이터플로우 API를 활성화해야 합니다. 자세한 내용은 Google 클라우드 문서에서 API 활성화를 참조하세요.
GCE 또는 GKE에서 실행되는 애플리케이션에서 로그를 수집하려면 Datadog 에이전트를 사용할 수도 있습니다.
Pub/Sub 푸시 구독으로 Google 클라우드 로그를 수집하는 것은 다음과 같은 이유로 더 이상 사용되지 않는 프로세스에 포함됩니다.
푸시 구독에 대한 문서는 트러블슈팅 또는 레거시 설정 수정에 대해서만 유지 관리됩니다. 대신 Datadog 데이터 흐름 템플릿과 함께 풀 구독을 사용하여 Google Cloud 로그를 Datadog로 전달하세요.
클라우드 Pub/Sub 콘솔로 이동하여 새 항목을 만듭니다. 기본 구독 추가 옵션을 선택하여 설정을 간소화합니다.
참고: 또한 풀 전달 유형으로 클라우드 Pub/Sub 구독을 수동으로 설정할 수도 있습니다. 수동으로 Pub/Sub 구독을 생성하는 경우 Enable dead lettering
확인란을 *선택 안 함 상태로 둡니다. 자세한 내용은 지원되지 않는 Pub/Sub 기능을 참조하세요.
해당 주제에 export-logs-to-datadog
과 같은 명확한 이름을 지정하고 Create를 클릭합니다.
Datadog API 에서 거부된 로그 메시지를 처리하기 위한 추가 주제 및 기본 구독을 만듭니다. 이 주제의 이름은 outputDeadletterTopic
템플릿 파라미터에 대한 설정 경로의 일부로 Datadog 데이터 흐름 템플릿 내에서 사용됩니다. 실패한 메시지의 문제를 검사하고 수정한 후에는 Pub/Sub - Pub/Sub 템플릿 작업을 실행하여 원래 export-logs-to-datadog
주제로 다시 보냅니다.
Datadog 비밀 관리자에서 비밀을 생성할 때 유효한 Datadog API 키 값을 사용할 것을 권장합니다. 향후 Datadog 데이터흐름 템플릿에서 사용될 수 있습니다.
경고: 클라우드 Pub/Sub에는 Google 클라우드 할당량 및 제한이 적용됩니다. 보유한 로그의 개수가 이러한 제한을 초과하는 경우 Datadog에서는 로그를 여러 개의 주제로 분할할 것을 권장합니다. 이러한 제한에 도달하는 경우, 모니터 알림 설정에 대한 자세한 내용은 Pub/Sub 로그 모니터 전달 섹션을 참조하세요.
데이터 흐름 파이프라인 작업자의 기본 동작은 프로젝트의 모든 리소스에 권한을 부여하는 프로젝트의 컴퓨팅 엔진 기본 서비스 계정을 사용하는 것입니다. 프로덕션 환경 에서 로그를 전달하는 경우, 필요한 역할과 권한만 있는 커스텀 작업자 서비스 계정을 대신 생성하고 이 서비스 계정을 데이터 플로우 파이프라인 작업자에게 할당해야 합니다.
역할 | 경로 | 설명 |
---|---|---|
데이터 흐름 관리자 | roles/dataflow.admin | 이 서비스 계정이 Dataflow 관리 작업을 수행하도록 허용합니다. |
데이터 흐름 작업자 | roles/dataflow.worker | 이 서비스 계정이 Dataflow 작업을 실행하도록 허용합니다. |
Pub/Sub 뷰어 | roles/pubsub.viewer | 이 서비스 계정이 Google Cloud 로그를 통해 Pub/Sub 구독 메시지를 볼 수 있도록 허용합니다. |
Pub/Sub 구독자 | roles/pubsub.subscriber | 이 서비스 계정이 Google Cloud 로그를 통해 Pub/Sub 구독의 메시지를 사용하도록 허용합니다. |
Pub/Sub 게시자 | roles/pubsub.publisher | 이 서비스 계정이 실패한 메시지를 별도의 구독에 게시하도록 허용합니다. 이를 통해 로그를 분석하거나 다시 보낼 수 있습니다. |
비밀 관리자 비밀 접근자 | roles/secretmanager.secretAccessor | 이 서비스 계정이 Secret Manager의 Datadog API 키에 액세스하도록 허용합니다. |
스토리지 개체 관리자 | roles/storage.objectAdmin | 이 서비스 계정이 파일 준비용으로 지정된 Cloud Storage 버킷을 읽고 쓸 수 있도록 허용합니다. |
참고: Dataflow 파이프라인 작업자에 커스텀 서비스 계정을 만들지 않는 경우 기본 Compute Engine 서비스 계정에 위의 필수 권한이 있는지 확인하세요.
Google 클라우드 콘솔에서 로그 탐색기 페이지로 이동합니다.
Log Router 탭에서 Create Sink를 선택합니다.
싱크의 이름을 제공합니다.
_Cloud Pub/Sub_를 대상으로 선택하고 해당 목적으로 생성된 Cloud Pub/Sub 주제를 선택합니다. 참고: Cloud Pub/Sub 주제는 다른 프로젝트에 있을 수 있습니다.
부수적인 포함 또는 제외 필터를 사용하여 싱크에 포함할 로그를 선택합니다. 검색 쿼리로 로그를 필터링하거나 샘플 기능/함수를 사용할 수 있습니다. 예를 들어 severity
수준이 ERROR
인 로그의 10%만 포함하려면 severity="ERROR" AND sample(insertId, 0.01)
로 포함 필터를 만듭니다.
Create Sink를 클릭합니다.
참고: Google Cloud Logging에서 서로 다른 싱크를 사용하여 동일한 Cloud Pub/Sub 주제로 여러 내보내기를 만들 수 있습니다.
Google 클라우드 콘솔의 템플릿에서 작업 생성 페이지로 이동합니다.
작업 이름을 지정하고 Dataflow 리전 엔드포인트를 선택합니다.
Dataflow template 드롭다운에서 Pub/Sub to Datadog
을 선택하면 Required parameters 섹션이 나타납니다.
a. Pub/Sub input subscription 드롭다운에서 입력 구독을 선택합니다.
b. Datadog Logs API URL 필드에 다읍을 입력합니다:
https://
참고: 위의 URL을 복사하기 전에 페이지 오른쪽의 Datadog 사이트 선택기가 Datadog 사이트로 설정되어 있는지 확인하세요.
c. Output deadletter Pub/Sub topic 드롭다운에서 메시지 오류를 수신하기 위해 생성된 주제를 선택합니다. d. Temporary location 필드에 저장소 버킷의 임시 파일 경로를 지정합니다.
아래 부수적인 파라미터에서 Include full Pub/Sub message in the payload
를 확인하세요.
1단계에서 언급된 대로 Datadog API 키 값을 사용하여 Secret Manager에서 비밀을 생성한 경우 Google 클라우드 비밀 관리자 ID 필드에서 해당 비밀 리소스 이름을 입력하세요.
사용 가능한 다른 옵션 사용에 대한 자세한 내용은 데이터 흐름 템플릿의 템플릿 파라미터를 참조하세요.
apiKeySource=KMS
apiKeyKMSEncryptionKey
를 클라우드 KMS 키 ID로 설정하고 apiKey
를 암호화된 API 키로 설정합니다.apiKey
와 apiKeySource=PLAINTEXT
가 플레인 텍스트 API 키로 설정된 경우참고: 공유 VPC가 있는 경우, 데이터플로우 설명서의 네트워크 및 하위 네트워크 지정 페이지에서 Network
및 Subnetwork
파라미터 지정에 대한 지침을 참조하세요.
Datadog 로그 탐색기에 클라우드 Pub/Sub 주제로 전달된 새 로깅 이벤트가 나타납니다.
참고: Google 클라우드 요금 계산기를 사용하여 잠재적 비용을 계산할 수 있습니다.
Google Cloud Pub/Sub 통합은 로그 전달 상태를 모니터링하는 데 유용한 메트릭을 제공합니다.
gcp.pubsub.subscription.num_undelivered_messages
gcp.pubsub.subscription.oldest_unacked_message_age
메트릭 모니터링 위 메트릭을 사용해 입력한 메시지와 뉴스레터 구독에 대한 알림을 받습니다.
Datadog의 Google Cloud Dataflow 통합을 사용하여 Dataflow 파이프라인의 모든 측면을 모니터링하세요. Dataflow 워크로드를 실행하는 GCE 인스턴스 및 Pub/Sub 처리량에 대한 정보와 같은 상황별 데이터가 풍부한 기본 대시보드에서 모든 주요 Dataflow 메트릭을 확인할 수 있습니다.
미리 설정된 권장 모니터링을 사용하여 파이프라인의 백로그 시간을 늘리기 위해 알림을 설정할 수도 있습니다. 자세한 내용은 Datadog 블로그에서 Datadog를 사용한 데이터 플로우 파이프라인 모니터링을 참조하세요.
메트릭에 대해서는 개별 Google Cloud 통합 페이지를 참조하세요.
누적 메트릭은 각 메트릭 이름에 대한 .delta
메트릭과 함께 Datadog으로 가져옵니다. 누적 메트릭은 시간이 지남에 따라 값이 지속적으로 증가하는 메트릭입니다. 예를 들어 sent bytes
메트릭은 누적될 수 있습니다. 각 값은 해당 시점에 서비스에서 보낸 총 바이트 수를 기록합니다. 델타 값은 이전 측정 이후의 변화를 나타냅니다.
예시:
gcp.gke.container.restart_count
는 누적 메트릭입니다. 메트릭을 누적 메트릭으로 가져오는 동안 Datadog는 델타 값을 포함하는 gcp.gke.container.restart_count.delta
메트 을 추가합니다(누적 메트릭 의 일부로 전송되는 집계 값과는 반대). 자세한 내용은 Google 클라우드 메트릭 종류를 참조하세요.
Google 클라우드 플랫폼에서 생성된 모든 서비스 이벤트는 Datadog 이벤트 탐색기로 전달됩니다.
Google Cloud Platform 통합에는 서비스 검사가 포함되지 않습니다.
태그는 다양한 Google Cloud Platform 및 Google Compute Engine 설정 옵션에 따라 자동으로 할당됩니다. project_id
태그가 모든 메트릭에 추가됩니다. 추가 태그는 가능한 경우 Google Cloud Platform에서 수집되며 메트릭 유형에 따라 다릅니다.
또한 Datadog은 다음을 태그로 수집합니다.
<key>:<value>
라벨이 있는 모든 호스트Datadog 기본 제공 로깅 메트릭을 넘어서는 메트릭과 같은 비표준 gcp.logging 메트릭 의 경우, 적용된 메타데이터가 Google 클라우드 로깅과 일치하지 않을 수 있습니다.
이러한 경우 메트릭 요약 페이지로 이동하여 해당 메트릭을 검색하여 선택한 다음, 메타데이터 옆에 있는 연필 아이콘을 클릭하여 메타데이터를 수동으로 설정해야 합니다.
도움이 필요하세요? Datadog 지원으로 문의하세요.