Databricks の Data Jobs Monitoring を有効にする
Join the Beta!
Data Jobs Monitoring は非公開ベータ版です。ウェイティングリストに参加するには、このフォームにご記入ください。
Request AccessData Jobs Monitoring は、Apache Spark と Databricks のジョブのパフォーマンスと信頼性を視覚化します。
計画と使用
以下の手順に従って、Databricks の Data Jobs Monitoring を有効にしてください。
- Databricks API トークンを使って Datadog-Databricks インテグレーションを構成します。
- Databricks クラスターに Datadog Agent をインストールします。
- Databricks において Datadog API キーを追加します。
Datadog-Databricks インテグレーションの構成
- Databricks ワークスペースで、Settings > Developer に移動します。Access tokens の横にある Manage をクリックします。
- Generate new token をクリックし、コメントを入力して Generate をクリックします。トークンをメモしてください。
- Datadog で、Databricks インテグレーションタイルを開きます。
- Configure タブで、Add New をクリックします。
- ワークスペース名、Databricks ワークスペース URL、生成した Databricks トークンを入力します。
Datadog Agent を Databricks クラスターにインストールします。
以下の init スクリプトのいずれかを使用します。
Agent を全体的にインストールするか、特定の Databricks クラスターにインストールするかを選択できます。
Databricks で、Settings > Compute に進みます。All purpose clusters セクションの Global init scripts の横にある Manage をクリックします。
Add をクリックします。スクリプトに名前を付けます。次に、init スクリプトをコピーして Script フィールドに貼り付けます。
すべての新しいクラスターと再起動したクラスターでスクリプトを有効にするには、Enabled に切り替えます。
Add をクリックします。
init スクリプトをダウンロードします。
Databricks のクラスター構成ページで、Advanced options トグルをクリックします。
ページ下部の Init Scripts タブに移動します。
- Destination ドロップダウンで、
Workspace
を選択します。 - Init script path に、init スクリプトのパスを入力します。
- Add をクリックします。
Databricks に Datadog API キーを追加する
Datadog API キーを見つけます。
Databricks のクラスター構成ページで、Advanced options トグルをクリックします。
ページ下部の Spark タブに移動します。
Environment variables テキストボックスで、以下の値を設定します。
DD_API_KEY
: あなたの Datadog API キーです。(API キーを保存するために、Databricks のシークレット管理機能を使用することも可能です。)DD_SITE
: あなたの Datadog サイトです。
例えば、Datadog サイトが
の場合、ボックスに以下を貼り付けます。
DD_API_KEY=<YOUR API KEY>
DD_SITE=
オプションとして、ここで DD_ENV
や DD_SERVICE
などの Datadog 環境変数を設定することもできます。
Confirm をクリックします。
検証
Datadog で Data Jobs Monitoring ページを表示すると、Databricks の全ジョブのリストが表示されます。
ランタイムでのタグスパン
You can set tags on Spark spans at runtime. These tags are applied only to spans that start after the tag is added.
// Add tag for all next Spark computations
sparkContext.setLocalProperty("spark.datadog.tags.key", "value")
spark.read.parquet(...)
To remove a runtime tag:
// Remove tag for all next Spark computations
sparkContext.setLocalProperty("spark.datadog.tags.key", null)
その他の参考資料