- 重要な情報
- はじめに
- 用語集
- ガイド
- エージェント
- インテグレーション
- OpenTelemetry
- 開発者
- API
- CoScreen
- アプリ内
- Service Management
- インフラストラクチャー
- アプリケーションパフォーマンス
- 継続的インテグレーション
- ログ管理
- セキュリティ
- UX モニタリング
- 管理
Google Cloud Platform に接続して、すべての Google Compute Engine (GCE) ホストを Datadog に表示できます。GCE ホストタグと追加した GCE ラベルがホストに自動的にタグ付けされるため、Datadog のインフラストラクチャー概要にホストを表示し、分類することができます。
Datadog クリップボード | 説明 |
---|---|
App Engine | スケーラブルなアプリケーションを構築できる PaaS (サービスとしてのプラットフォーム) |
Big Query | 企業向けデータウェアハウス |
Bigtable | NoSQL ビッグデータデータベースサービス |
Cloud SQL | MySQL データベースサービス |
Cloud APIs | すべての Google Cloud Platform サービス向けのプログラムインターフェイス |
Cloud Armor | DoS 攻撃や Web 攻撃から保護するネットワークセキュリティサービス |
Cloud Composer | フルマネージド型のワークフローオーケストレーションサービス |
Cloud Dataproc | Apache Spark と Apache Hadoop のクラスターを実行するためのクラウドサービス |
Cloud Dataflow | ストリームおよびバッチモードでデータを変換し、リッチ化するためのフルマネージドサービス |
Cloud Filestore | 高パフォーマンスのフルマネージド型ファイルストレージ |
Cloud Firestore | モバイル、Web、およびサーバー開発向けの柔軟でスケーラブルなデータベース |
Cloud Interconnect | ハイブリッド接続 |
Cloud IoT | セキュリティ保護されたデバイス接続および管理 |
Cloud Load Balancing | 負荷分散型コンピューティングリソースの分配 |
Cloud Logging | リアルタイムのログ管理および分析 |
Cloud Memorystore for Redis | フルマネージド型のインメモリデータストアサービス |
Cloud Router | BGP を使用して、VPC とオンプレミスネットワークとの間でルートを交換 |
Cloud Run | HTTP 経由でステートレスコンテナを実行するマネージド型のコンピューティングプラットフォーム |
Cloud Security Command Center | Security Command Center は脅威レポートサービスです。 |
Cloud Tasks | 分散型タスクキュー |
Cloud TPU | 機械学習モデルのトレーニングと実行 |
Compute Engine | 高パフォーマンスの仮想マシン |
Container Engine | Google が管理する Kubernetes |
Datastore | NoSQL データベース |
Firebase | アプリケーション開発用のモバイルプラットフォーム |
Functions | イベントベースのマイクロサービスを構築するためのサーバーレスプラットフォーム |
Kubernetes Engine | クラスターマネージャーとオーケストレーションシステム |
Machine Learning | 機械学習サービス |
Pub/Sub | リアルタイムメッセージングサービス |
Spanner | 水平方向に拡張可能でグローバルな一貫性を持つリレーショナルデータベースサービス |
Storage | 統合型オブジェクトストレージ |
Vertex AI | カスタムの機械学習 (ML) モデルの構築、トレーニング、デプロイを行います。 |
VPN | マネージド型のネットワーク機能 |
Datadog と Google Cloud のインテグレーションには、サービスアカウントの権限委譲とプロジェクトの自動検出を使用することができます。
この方法では、関連するプロジェクトに IAM ロールを割り当てることで、サービスアカウントから見えるすべてのプロジェクトを監視することができます。これらのロールを個別にプロジェクトに割り当てることも、組織レベルやフォルダレベルでこれらのロールを割り当てて、プロジェクトのグループを監視するように Datadog を構成することもできます。このようにロールを割り当てることで、Datadog は、将来グループに追加される可能性のある新しいプロジェクトを含め、指定されたスコープ内のすべてのプロジェクトを自動的に検出して監視することができます。
組織がドメインによってアイデンティティを制限している場合、ポリシーに Datadog の顧客アイデンティティを許可値として追加する必要があります。Datadog の顧客アイデンティティ: C0147pk0i
サービスアカウントの権限委譲とプロジェクトの自動検出は、プロジェクトを監視するために特定のロールと API が有効になっている必要があります。開始する前に、以下の API が監視するプロジェクトで有効になっていることを確認してください。
注: 以前に共有 Datadog プリンシパルを使用してアクセスを構成している場合は、この手順を完了した後に、そのプリンシパルの権限を取り消すことができます。
<sa-name>@<project-id>.iam.gserviceaccount.com
のような形式です。約 15 分後、Datadog にメトリクスが表示されます。
プロジェクトの自動検出により、監視対象のプロジェクトを追加するプロセスが簡素化されます。サービスアカウントに他のプロジェクト、フォルダ、または組織へのアクセスを許可すると、Datadog はこれらのプロジェクト (およびフォルダや組織にネストされたプロジェクト) を検出し、インテグレーションタイルに自動的に追加します。
オプションで、プロジェクトのドロップダウンメニューの下にある Limit Metric Collection テキストボックスにタグを入力することで、Datadog に取り込まれる GCE インスタンスを制限することができます。定義されたタグの 1 つに一致するホストのみが Datadog にインポートされます。ワイルドカード (?
は 1 文字、*
は複数文字) を使って多くのホストに一致させたり、!
を使って特定のホストを除外することができます。この例では c1*
サイズのインスタンスをすべて含めますが、ステージングホストは除外します。
datadog:monitored,env:production,!env:staging,instance-type:c1.*
詳しくはラベルの作成と管理に関する Google のドキュメントを参照してください。
Google Cloud Dataflow と Datadog テンプレートを使用して Google Cloud サービスから Datadog にログを転送します。この方法では、Datadog に転送する前にイベントの圧縮とバッチ処理の両方が提供されます。このセクションの指示に従ってください。
1。構成されたログシンクからログを受信するために、Pub/Sub トピックとプルサブスクリプションを作成します 2。カスタム Dataflow ワーカーサービスアカウントを作成し、Dataflow パイプラインワーカーに最小権限を提供します 3。ログシンクを作成し、ログを Pub/Sub トピックに公開します 4。Datadog テンプレートを使用して Dataflow ジョブを作成し、Pub/Sub サブスクリプションから Datadog にログをストリーミングします
GCE や GKE ログを含め、ログシンクで作成したロギングフィルターを通して、どのログを Datadog に送信するかを完全に制御することができます。フィルターの書き方については Google の Logging のクエリ言語のページを参照してください。
注: Google Cloud Dataflow を使用するには、Dataflow API を有効にする必要があります。詳細は Google Cloud ドキュメントの API の有効化を参照してください。
GCE または GKE で実行されているアプリケーションからログを収集するには、Datadog Agent を使用することもできます。
Pub/Sub Push サブスクリプションによる Google Cloud ログの収集は、以下の理由により非推奨になるプロセス中です。
Push サブスクリプションのドキュメントは、トラブルシューティングやレガシーセットアップの変更のためにのみ維持されています。Google Cloud のログを Datadog に転送するには、Datadog Dataflow テンプレートで Pull サブスクリプションを代わりに使用してください。
Cloud Pub/Sub コンソールに移動し、新しいトピックを作成します。Add a default subscription オプションを選択し、セットアップを簡素化します。
注: 手動で Cloud Pub/Sub サブスクリプションを Pull 配信タイプで構成することもできます。手動で Pub/Sub サブスクリプションを作成する場合は、Enable dead lettering
ボックスをオフにしたままにしてください。詳細については、サポートされていない Pub/Sub 機能を参照してください。
トピックに export-logs-to-datadog
のような明示的な名前を付け、Create をクリックします。
Datadog API によって拒否されたログメッセージを処理するために、追加のトピックとデフォルトのサブスクリプションを作成します。このトピックの名前は Datadog Dataflow テンプレート内で outputDeadletterTopic
テンプレートパラメーターのパス構成の一部として使用されます。失敗したメッセージの問題を検査して修正したら、Pub/Sub to Pub/Sub テンプレートジョブを実行して元の export-logs-to-datadog
トピックに送り返します。
Datadog では、後で Datadog Dataflow テンプレートで使用するために、有効な Datadog API キーを使用して Secret Manager でシークレットを作成することを推奨しています。
警告: Cloud Pub/Sub は、Google Cloud の割り当てと制限の対象となります。Datadog では、ログ数がこの制限を超える場合は、ログを複数のトピックに分割することをお勧めしています。この制限に近づいた場合のモニター通知のセットアップについては、Pub/Sub ログの転送を監視するセクションを参照してください。
Dataflow パイプラインワーカーは、デフォルトの挙動として、プロジェクトの Compute Engine のデフォルトのサービスアカウントを使用します。これは、プロジェクト内のすべてのリソースに権限を与えるものです。Production 環境からログを転送する場合は、代わりに必要なロールと権限のみでカスタムワーカーサービスアカウントを作成し、このサービスアカウントを Dataflow パイプラインワーカーに割り当てる必要があります。
ロール | パス | 説明 |
---|---|---|
Dataflow Admin | roles/dataflow.admin | このサービスアカウントによる Dataflow 管理タスクの実行を許可します |
Dataflow Worker | roles/dataflow.worker | このサービスアカウントによる Dataflow ジョブ操作の実行を許可します |
Pub/Sub Viewer | roles/pubsub.viewer | このサービスアカウントが Google Cloud ログで Pub/Sub サブスクリプションからのメッセージを表示することを許可します |
Pub/Sub Subscriber | roles/pubsub.subscriber | このサービスアカウントが Google Cloud ログで Pub/Sub サブスクリプションからのメッセージを取得することを許可します |
Pub/Sub Publisher | roles/pubsub.publisher | このサービスアカウントが別のサブスクリプションにフィールドメッセージを公開することを許可します。これにより、ログの解析や再送信が可能になります |
Secret Manager Secret Accessor | roles/secretmanager.secretAccessor | このサービスアカウントが Secret Manager で Datadog API キーにアクセスすることを許可します |
Storage Object Admin | roles/storage.objectAdmin | このサービスアカウントがファイルのステージング用に指定された Cloud Storage バケットに対する読み取りと書き込みを行うことを許可します |
注: Dataflow パイプラインワーカー用のカスタムサービスアカウントを作成しない場合は、デフォルトの Compute Engine のサービスアカウントが上記の必要な権限を持っていることを確認してください。
Google Cloud コンソールの Logs Explorer ページにアクセスします。
Log Router タブより、Create Sink を選択します。
シンクに名前を設定します。
宛先として Cloud Pub/Sub を選択し、その目的で作成された Cloud Pub/Sub トピックを選択します。注: Cloud Pub/Sub トピックは別のプロジェクトに配置できます。
オプションの包含または除外フィルターを使用して、シンクに含めるログを選択します。検索クエリでログをフィルタリングするか、sample 関数を使用します。例えば、severity
レベルが ERROR
のログの 10% だけを含めるには、severity="ERROR" AND sample(insertId, 0.01)
の包含フィルターを作成します。
Create Sink をクリックします。
注: 異なるシンクを利用して、Google Cloud Logging から同一の Cloud Pub/Sub トピックに対して複数のエクスポートを行うことが可能です。
Google Cloud コンソールの Create job from template ページに移動します。
ジョブに名前を付け、Dataflow 地域エンドポイントを選択します。
Dataflow template ドロップダウンで Pub/Sub to Datadog
を選択すると、Required parameters セクションが表示されます。
a. Pub/Sub input subscription ドロップダウンで入力サブスクリプションを選択します。
b. Datadog Logs API URL フィールドに以下の値を入力します。
https://
注: 上記の URL をコピーする前に、ページの右側にある Datadog サイトセレクタがあなたの Datadog サイトに設定されていることを確認してください。
c. Output deadletter Pub/Sub topic ドロップダウンで、メッセージの失敗を受信するために作成されたトピックを選択します。 d. Temporary location フィールドで、ストレージバケット内の一時ファイルのパスを指定します。
その他の利用可能なオプションの使用については、Dataflow テンプレートのテンプレートパラメーターを参照してください。
apiKeySource=KMS
で、apiKeyKMSEncryptionKey
に Cloud KMS のキー ID を、apiKey
に暗号化された API キーを設定apiKeySource=PLAINTEXT
で、apiKey
にプレーンテキストの API キーを設定注: 共有 VPC がある場合は、Dataflow ドキュメントのネットワークとサブネットワークの指定ページを参照して、Network
と Subnetwork
パラメーターの指定のガイドラインを確認してください。
Datadog Log Explorer に Cloud Pub/Sub トピックに配信された新規ログイベントが表示されます。
注: Google Cloud Pricing Calculator を使用して、潜在的なコストを計算することができます。
Google Cloud Pub/Sub インテグレーションは、ログ転送のステータスを監視するのに役立つメトリクスを提供します。
gcp.pubsub.subscription.num_undelivered_messages
は配信保留中のメッセージ数を表しますgcp.pubsub.subscription.oldest_unacked_message_age
は、サブスクリプション内の最も古い未承認メッセージの年齢を表します上記のメトリクスをメトリクスモニターと一緒に使用すると、入力とデッドレターサブスクリプション内のメッセージのアラートを受け取ることができます。
Datadog の Google Cloud Dataflow インテグレーションを使用して、Dataflow パイプラインのあらゆる側面を監視することができます。すぐに使えるダッシュボード上で、Dataflow ワークロードを実行している GCE インスタンスに関する情報や Pub/Sub スループットなどのコンテキストデータでリッチ化された、すべての Dataflow 主要メトリクスを確認できます。
また、あらかじめ構成されている Recommended Monitor を使用して、パイプラインのバックログ時間の増加に対する通知をセットアップすることもできます。詳細は、Datadog ブログの Datadog による Dataflow パイプラインの監視を参照してください。
メトリクスについては、個別の Google Cloud インテグレーションのページを参照してください。
Google Cloud Platform によって生成されたすべてのサービスイベントが Datadog のイベントエクスプローラーに転送されます。
Google Cloud Platform インテグレーションには、サービスのチェック機能は含まれません。
タグは、Google Cloud Platform と Google Compute Engine の様々な構成オプションに基づいて自動的に割り当てられます。project_id
タグは、すべてのメトリクスに追加されます。追加のタグは、利用可能な場合に Google Cloud Platform から収集され、メトリクスの種類に応じて異なります。
また、Datadog は以下をタグとして収集します。
<キー>:<値>
ラベルが付けられたホスト。非標準の gcp.logging メトリクス (Datadog に付属するログメトリクス以外のメトリクスなど) に適用されるメタデータが Google Cloud Logging と一致しない場合があります。
このような場合は、メタデータを手動で設定する必要があります。設定するには、メトリクスサマリーページに移動し、問題のメトリクスを検索して選択し、メタデータの横にある鉛筆アイコンをクリックします。
ご不明な点は、Datadog のサポートチームまでお問い合わせください。