Databricks の Data Jobs Monitoring を有効にする

Join the Beta!

Data Jobs Monitoring は非公開ベータ版です。ウェイティングリストに参加するには、このフォームにご記入ください。

Request Access

Data Jobs Monitoring は、Apache Spark と Databricks のジョブのパフォーマンスと信頼性を視覚化します。

計画と使用

以下の手順に従って、Databricks の Data Jobs Monitoring を有効にしてください。

  1. Databricks API トークンを使って Datadog-Databricks インテグレーションを構成します。
  2. Databricks クラスターに Datadog Agent をインストールします。
  3. Databricks において Datadog API キーを追加します。

Datadog-Databricks インテグレーションの構成

  1. Databricks ワークスペースで、Settings > Developer に移動します。Access tokens の横にある Manage をクリックします。
  2. Generate new token をクリックし、コメントを入力して Generate をクリックします。トークンをメモしてください。
  3. Datadog で、Databricks インテグレーションタイルを開きます。
  4. Configure タブで、Add New をクリックします。
  5. ワークスペース名、Databricks ワークスペース URL、生成した Databricks トークンを入力します。
    Datadog-Databricks インテグレーションタイルに、Databricks ワークスペースが表示されます。このワークスペースには、名前、URL、API トークンがあります。

Datadog Agent を Databricks クラスターにインストールします。

以下の init スクリプトのいずれかを使用します。

Agent を全体的にインストールするか、特定の Databricks クラスターにインストールするかを選択できます。

  1. Databricks で、Settings > Compute に進みます。All purpose clusters セクションの Global init scripts の横にある Manage をクリックします。

  2. Add をクリックします。スクリプトに名前を付けます。次に、init スクリプトをコピーして Script フィールドに貼り付けます。

  3. すべての新しいクラスターと再起動したクラスターでスクリプトを有効にするには、Enabled に切り替えます。

    Databricks UI、管理者設定、グローバル init スクリプト。'install-datadog-Agent' というスクリプトが有効化トグルのあるリストにあります。
  4. Add をクリックします。

  1. init スクリプトをダウンロードします。

  2. Databricks のクラスター構成ページで、Advanced options トグルをクリックします。

  3. ページ下部の Init Scripts タブに移動します。

    Databricks UI、クラスター構成の高度なオプション、Init Scripts タブ。'Destination' ドロップダウンと 'Init script path' ファイルセレクタ。
    • Destination ドロップダウンで、Workspace を選択します。
    • Init script path に、init スクリプトのパスを入力します。
    • Add をクリックします。

Databricks に Datadog API キーを追加する

  1. Datadog API キーを見つけます。

  2. Databricks のクラスター構成ページで、Advanced options トグルをクリックします。

  3. ページ下部の Spark タブに移動します。

    Databricks UI、クラスター構成の高度なオプション、Spark タブ。'Environment variables' というテキストボックスに、DD_API_KEYとDD_SITE の値があります。

    Environment variables テキストボックスで、以下の値を設定します。

    • DD_API_KEY: あなたの Datadog API キーです。(API キーを保存するために、Databricks のシークレット管理機能を使用することも可能です。)
    • DD_SITE: あなたの Datadog サイトです。

    例えば、Datadog サイトが の場合、ボックスに以下を貼り付けます。

    DD_API_KEY=<YOUR API KEY>
    DD_SITE=
    

    オプションとして、ここで DD_ENVDD_SERVICE などの Datadog 環境変数を設定することもできます。

  4. Confirm をクリックします。

検証

Datadog で Data Jobs Monitoring ページを表示すると、Databricks の全ジョブのリストが表示されます。

ランタイムでのタグスパン

You can set tags on Spark spans at runtime. These tags are applied only to spans that start after the tag is added.

// Add tag for all next Spark computations
sparkContext.setLocalProperty("spark.datadog.tags.key", "value")
spark.read.parquet(...)

To remove a runtime tag:

// Remove tag for all next Spark computations
sparkContext.setLocalProperty("spark.datadog.tags.key", null)

その他の参考資料

お役に立つドキュメント、リンクや記事: