選択されたサイト () では、現時点で LLM Observability は利用できません。
概要
LLM Observability を使用すると、チャットボットなどの LLM 対応アプリケーションを監視、トラブルシューティング、および評価できます。これにより、問題の根本原因を特定し、運用パフォーマンスを監視し、LLM アプリケーションの品質・プライバシー・安全性を評価することが可能です。
アプリケーションが処理した各リクエストは、Datadog の LLM Observability ページにトレースとして表示されます。
トレースは以下のような要素を表せます。
- トークン、エラー情報、レイテンシーを含む個々の LLM 推論
- LLM コールやツールコール、前処理ステップなどを含む、あらかじめ定義された LLM ワークフロー
- LLM エージェントによって実行される動的な LLM ワークフロー
各トレースには、エージェントが下した選択や特定のワークフロー内の各ステップを表すスパンが含まれます。また、入力および出力、レイテンシー、プライバシー上の懸念点、エラーなどの情報が含まれる場合もあります。詳細は用語と概念を参照してください。
エンドツーエンドトレーシングによるトラブルシューティング
LLM アプリケーション内のあらゆるチェーンやコールを可視化し、問題のあるリクエストを特定してエラーの根本原因を突き止めることができます。
運用メトリクスの監視とコスト最適化
すぐに使えるダッシュボードを用いて、すべての LLM アプリケーションにおけるコスト、レイテンシー、パフォーマンス、使用状況の傾向を監視できます。
LLM アプリケーションの品質と有効性の評価
トピック別のクラスタリングや感情分析、回答不能チェックなどの手法を用いて、問題のあるクラスターを特定し、時間経過によるレスポンス品質を追跡できます。
機密データの保護と悪意あるユーザーの特定
AI アプリケーション内で機密データを自動的にスキャンおよびマスキングし、プロンプトインジェクションなどの潜在的脅威を特定できます。
LLM Observability とのインテグレーション活用
LLM Observability SDK for Python は、OpenAI、LangChain、AWS Bedrock、Anthropic などのフレームワークと統合できます。コード変更不要で、LLM コールを自動的にトレースし、レイテンシー、エラー、トークン使用状況などのメトリクスを取得できます。
詳細については、自動インスツルメンテーションのドキュメントを参照してください。
準備はいいですか?
セットアップドキュメントを参照して LLM アプリケーションへのインスツルメンテーション手順を確認するか、LLM アプリケーションのトレースガイドに従って LLM Observability SDK for Python を使用してトレースを生成してください。
その他の参考資料