Azure OpenAI

Información general

Monitoriza, soluciona problemas y evalúa tus aplicaciones impulsadas por LLM, como chatbots o herramientas de extracción de datos, mediante Azure OpenAI.

Si creas aplicaciones de LLM, usa la observabilidad de LLM para investigar la causa raíz de los problemas, monitorizar el rendimiento operativo y evaluar la calidad, la privacidad y la seguridad de tus aplicaciones de LLM.

Ve el vídeo sobre la vista de rastreo de observabilidad de LLM para obtener un ejemplo acerca de cómo puedes investigar una traza (trace).

Azure OpenAI permite el desarrollo de copilotos y aplicaciones de IA generativa utilizando la biblioteca de modelos de OpenAI. Utiliza la integración de Datadog para realizar un seguimiento del rendimiento y el uso de la API y los despliegues de Azure OpenAI.

Configuración

LLM Observability: visibilidad de extremo a extremo en tu aplicación de LLM mediante Azure OpenAI.

Puedes habilitar la observabilidad de LLM en diferentes entornos. Sigue la configuración adecuada en función de tu caso:

Instalación para Python

Si no dispones del Datadog Agent:
  1. Instala el paquete ddtrace:
  pip install ddtrace
  1. Inicia tu aplicación con el siguiente comando y habilita el modo sin Agent:
  DD_SITE=<YOUR_DATADOG_SITE> DD_API_KEY=<YOUR_API_KEY> DD_LLMOBS_ENABLED=1 DD_LLMOBS_AGENTLESS_ENABLED=1 DD_LLMOBS_ML_APP=<YOUR_ML_APP_NAME> ddtrace-run python <YOUR_APP>.py
Si ya tienes instalado el Datadog Agent:
  1. Asegúrate de que el Agent se encuentre en ejecución y de que se haya habilitado APM y StatsD. Por ejemplo, usa el siguiente comando con Docker:
docker run -d \
  --cgroupns host \
  --pid host \
  -v /var/run/docker.sock:/var/run/docker.sock:ro \
  -v /proc/:/host/proc/:ro \
  -v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \
  -e DD_API_KEY=<DATADOG_API_KEY> \
  -p 127.0.0.1:8126:8126/tcp \
  -p 127.0.0.1:8125:8125/udp \
  -e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true \
  -e DD_APM_ENABLED=true \
  gcr.io/datadoghq/agent:latest
  1. Si aún no lo has hecho, instala el paquete ddtrace:
  pip install ddtrace
  1. Inicia tu aplicación con el comando ddtrace-run para habilitar el rastreo de manera automática:
   DD_SITE=<YOUR_DATADOG_SITE> DD_API_KEY=<YOUR_API_KEY> DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP=<YOUR_ML_APP_NAME> ddtrace-run python <YOUR_APP>.py

Nota: Si el Agent se ejecuta en un host o puerto personalizado, configura DD_AGENT_HOST y DD_TRACE_AGENT_PORT según corresponda.

Si estás ejecutando LLM Observability en un entorno serverless (funciones de Azure):

Habilita la observabilidad de LLM al configurar las siguientes variables de entorno:

DD_SITE=<YOUR_DATADOG_SITE> DD_API_KEY=<YOUR_API_KEY> DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP=<YOUR_ML_APP_NAME>

Nota: En entornos serverless, Datadog vacía de manera automática los tramos (spans) cuando la función de Azure termina de ejecutarse.

Rastreo automático de Azure OpenAI

La integración de Azure OpenAI se activa automáticamente cuando se configura LLM Observability. Esto captura la latencia, los errores, los mensajes de entrada y salida, así como el uso de tokens para las llamadas de Azure OpenAI.

Los siguientes métodos son rastreados tanto para operaciones síncronas como asíncronas de Azure OpenAI:

  • AzureOpenAI().completions.create()
  • AsyncAzureOpenAI().completions.create()
  • AzureOpenAI().chat.completions.create()
  • AsyncAzureOpenAI().chat.completions.create()

Estos métodos no requieren ninguna configuración adicional.

Validación

Valida que LLM Observability capture tramos de manera adecuada al comprobar los logs de tu aplicación a fin de verificar si se crean de forma correcta. También puedes ejecutar el siguiente comando para comprobar el estado de la integración ddtrace:

ddtrace-run --info

Busca el siguiente mensaje para confirmar la configuración:

Agent error: None
Depuración

Si tienes problemas durante la configuración, habilita el registro de depuración al pasar la marca --debug:

ddtrace-run --debug

Aquí se muestran todos los errores relacionados con la instrumentación o transmisión de datos, incluidos los problemas con las trazas de Azure OpenAI.

Monitorización de infraestructura: métricas y visibilidad sobre tus recursos de Azure OpenAI

Si aún no lo has hecho, configura primero la integración de Microsoft Azure. No hay otros pasos de instalación.

Configuración de evaluaciones de LLM para la integración de Azure OpenAI de Datadog

Información general

LLM Observability de Datadog te permite evaluar tu aplicación de LLM usando tus modelos de Azure OpenAI. Sigue los pasos que se indican a continuación para establecer tu recurso de Azure OpenAI y configurarlo para realizar evaluaciones.

Requisitos previos

  • Una cuenta de Azure con acceso al servicio de Azure OpenAI.
  • Un recurso de Azure OpenAI desplegado en tu portal de Azure.
  • Las claves de API necesarias para acceder a tus modelos de OpenAI.
  • Inicia sesión en el portal de Azure

Configuración

Configurar LLM Observability de Datadog

  1. Ve a Integrations > Azure OpenAI (Integraciones > Azure OpenAI).
  2. En la pestaña Configure (Configurar), haz clic en Add New (Añadir nuevo).
  3. Comparte los siguientes datos:
  • Nombre
    1. Elige un nombre de cuenta de Datadog para identificar la cuenta de Azure OpenAi que se está configurando.
  • ID de despliegue
    1. Desde tu portal de Azure Open AI Foundry, navega hasta Model Deployments (Despliegues de modelo).
    2. Copia y proporciona el ID de despliegue que estableciste al desplegar el modelo.
  • Nombre del recurso
    1. Ve a All resources (Todos los recursos) y localiza tu recurso de Azure OpenAI.
    2. Haz clic en el nombre del recurso para abrir su página de resumen.
    3. Copia y proporciona el resource name (nombre de recurso).
  • Versión de la API
    1. En la Deployments Page (Página de despliegues) del portal de Azure, ve a la sección Endpoint.
    2. Pasa el ratón por encima de Target URI (URI de destino) y copia el valor después de api-version=.
  • Clave de API
    1. En el portal de Azure, ve a Keys and Endpoint (Claves y endpoint) en Resource Management (Gestión de recursos) dentro de tu recurso de Azure OpenAI.
    2. Copia y proporciona la Key 1 (Clave 1) o la Key 2 (Clave 2) como tu API key (Clave de API).
  1. Haz clic en la marca para guardar.

  2. Navega a LLM Observability > Settings (LLM Observability > Configuración) para crear y ejecutar evaluaciones para tu aplicación de LLM instrumentada.

Recursos adicionales

Datos recopilados

Métricas

Checks de servicio

La integración de Azure OpenAI no incluye ningún check de servicio.

Eventos

La integración de Azure OpenAI no incluye ningún evento.

Solucionar problemas

¿Necesitas ayuda? Ponte en contacto con el servicio de asistencia de Datadog.