Versión de la integración1.0.0
Monitoriza, soluciona problemas y evalúa tus aplicaciones impulsadas por LLM, como chatbots o herramientas de extracción de datos, mediante Azure OpenAI.
Si creas aplicaciones de LLM, usa la observabilidad de LLM para investigar la causa raíz de los problemas, monitorizar el rendimiento operativo y evaluar la calidad, la privacidad y la seguridad de tus aplicaciones de LLM.
Consulta el video de vista de rastreo de LLM Observability para ver un ejemplo de cómo puedes investigar una trace (traza).
Azure OpenAI permite el desarrollo de copilotos y aplicaciones de IA generativa utilizando la biblioteca de modelos de OpenAI. Utiliza la integración de Datadog para realizar un seguimiento del rendimiento y el uso de la API y los despliegues de Azure OpenAI.
Configuración
Puedes activar LLM Observability en diferentes entornos. Sigue la configuración adecuada en función de tu escenario:
Instalación para Python
Si no tienes el Datadog Agent:
- Instala el paquete
ddtrace:
- Inicia tu aplicación con el siguiente comando, habilitando el modo Agentless:
DD_SITE=<YOUR_DATADOG_SITE> DD_API_KEY=<YOUR_API_KEY> DD_LLMOBS_ENABLED=1 DD_LLMOBS_AGENTLESS_ENABLED=1 DD_LLMOBS_ML_APP=<YOUR_ML_APP_NAME> ddtrace-run python <YOUR_APP>.py
Si ya tienes instalado el Datadog Agent:
- Asegúrate de que el Agent se está ejecutando, y que APM y StatsD están activados. Por ejemplo, utiliza el siguiente comando con Docker:
docker run -d \
--cgroupns host \
--pid host \
-v /var/run/docker.sock:/var/run/docker.sock:ro \
-v /proc/:/host/proc/:ro \
-v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \
-e DD_API_KEY=<DATADOG_API_KEY> \
-p 127.0.0.1:8126:8126/tcp \
-p 127.0.0.1:8125:8125/udp \
-e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true \
-e DD_APM_ENABLED=true \
gcr.io/datadoghq/agent:latest
- Si aún no lo hiciste, instala el paquete
ddtrace:
- Inicia tu aplicación utilizando el comando
ddtrace-run para habilitar automáticamente el rastreo:
DD_SITE=<YOUR_DATADOG_SITE> DD_API_KEY=<YOUR_API_KEY> DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP=<YOUR_ML_APP_NAME> ddtrace-run python <YOUR_APP>.py
Nota: Si el Agent se ejecuta en un puerto o host personalizado, configura DD_AGENT_HOST y DD_TRACE_AGENT_PORT en consecuencia.
Si estás ejecutando LLM Observability en un entorno serverless (funciones de Azure):
Activa LLM Observability configurando las siguientes variables de entorno:
DD_SITE=<YOUR_DATADOG_SITE> DD_API_KEY=<YOUR_API_KEY> DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP=<YOUR_ML_APP_NAME>
Nota: En entornos serverless, Datadog vacía de manera automática los tramos (spans) cuando la función de Azure termina de ejecutarse.
Rastreo automático de Azure OpenAI
La integración de Azure OpenAI se activa automáticamente cuando se configura LLM Observability. Esto captura la latencia, los errores, los mensajes de entrada y salida, así como el uso de tokens para las llamadas de Azure OpenAI.
Los siguientes métodos son rastreados tanto para operaciones síncronas como asíncronas de Azure OpenAI:
AzureOpenAI().completions.create()AsyncAzureOpenAI().completions.create()AzureOpenAI().chat.completions.create()AsyncAzureOpenAI().chat.completions.create()
Estos métodos no requieren ninguna configuración adicional.
Validación
Comprueba si LLM Observability captura correctamente los tramos, verificando la creación exitosa de tramos en tus logs de aplicación. También puedes ejecutar el siguiente comando para comprobar el estado de la integración ddtrace:
Busca el siguiente mensaje para confirmar la configuración:
Depuración
Si tienes problemas durante la configuración, activa el registro de depuración pasando el marcador --debug:
Aquí se muestran todos los errores relacionados con la instrumentación o transmisión de datos, incluidos los problemas con las trazas de Azure OpenAI.
Monitorización de infraestructura: métricas y visibilidad sobre tus recursos de Azure OpenAI
Si aún no lo has hecho, configura primero la integración de Microsoft y Azure. No hay más pasos de instalación.
Configuración de evaluaciones de LLM para la integración Azure OpenAI de Datadog
LLM Observability de Detadog te permite evaluar tu aplicación LLM utilizando tus modelos de Azure OpenAI. Sigue los pasos que se indican a continuación para configurar tu recurso Azure OpenAI y configurarlo para las evaluaciones.
Requisitos previos
- Una cuenta Azure con acceso al servicio Azure OpenAI.
- Un recurso Azure OpenAI desplegado en tu portal Azure.
- Las claves de API necesarias para acceder a tus modelos OpenAI.
- Inicia sesión en el portal Azure
Configuración
Configura LLM Observability de Datadog
- Ve a Integraciones > Azure OpenAI.
- En la pestaña Configure (Configurar), haz clic en Add New (Añadir nueva).
- Facilite los siguientes datos:
- Nombre
- Elige un nombre de cuenta de Datadog para identificar la cuenta de Azure OpenAi que se estás configurando.
- Identificación de despliegue
- Desde tu Azure Open AI Foundry Portal, ve a Model Deployments (Despliegues de modelos).
- Copia y proporciona el ID de despliegue que configuraste al desplegar el modelo.
- Nombre del recurso
- Ve a Todos los recursos y localiza tu recurso Azure OpenAI.
- Haz clic en el nombre del recurso para abrir tu page (página) de información general.
- Copia y proporciona el nombre del recurso.
- Versión de API
- Desde la Page (página) de despliegue en el Portal Azure, ve a la sección Endpoint.
- Pasa el ratón por encima de Target URI (URI del objetivo) y copia el valor después de
api-version=.
- **Clave de API
- En el Portal Azure, ve a Keys and Endpoint (Claves y endpoint) en Resource Management (Gestión de recursos) en tu recurso Azure OpenAI.
- Copia y proporciona la Clave 1 o la Clave 2 como tu Clave de API.
Haz clic en la marca de verificación para guardar.
Ve a LLM Observability > Settings (LLM Observability > Parámetros) para crear y ejecutar evaluaciones para tu aplicación LLM instrumentada.
Recursos adicionales
Datos recopilados
Métricas
| |
|---|
azure.cognitiveservices_accounts.active_tokens (gauge) | Total de tokens menos tokens almacenados en caché durante un periodo de tiempo. Se aplica a despliegues PTU y gestionados por PTU. Utiliza esta métrica para comprender tu utilización basada en TPS o TPM para PTU y compárala con tus puntos de referencia para TPS o TPM objetivo para sus escenarios. |
azure.cognitiveservices_accounts.azure_open_ai_requests (count) | Número de llamadas realizadas a la API Azure OpenAI durante un periodo de tiempo. Se aplica a los despliegues PTU, PTU-Managed y Pay-as-you-go. |
azure.cognitiveservices_accounts.blocked_volume (count) | Número de llamadas realizadas a la API Azure OpenAI y rechazadas por un filtro de contenido aplicado durante un periodo de tiempo. Puedes añadir un filtro o aplicar la división por las siguientes dimensiones: ModelDeploymentName, ModelName y TextType. |
azure.cognitiveservices_accounts.generated_completion_tokens (count) | Número de tokens de finalización generados a partir de un modelo OpenAI. |
azure.cognitiveservices_accounts.processed_fine_tuned_training_hours (count) | Número de horas de entrenamiento procesadas en un modelo de ajuste fino de OpenAI. |
azure.cognitiveservices_accounts.harmful_volume_detected (count) | Número de llamadas realizadas a la API de Azure OpenAI y detectadas como dañinas (tanto en el modelo de bloque como en el modo de anotación) por el filtro de contenido aplicado durante un periodo de tiempo. |
azure.cognitiveservices_accounts.processed_prompt_tokens (count) | Número de tokens de aviso procesados en un modelo OpenAI. |
azure.cognitiveservices_accounts.processed_inference_tokens (count) | Número de tokens de inferencia procesados en un modelo OpenAI. |
azure.cognitiveservices_accounts.prompt_token_cache_match_rate (gauge) | Porcentaje de los tokens que han llegado a la caché. Mostrado como porcentaje |
azure.cognitiveservices_accounts.provisioned_managed_utilization (gauge) | Porcentaje de utilización para un despliegue gestionado con provisión, calculado como (PTU consumidas / PTU desplegadas) x 100. Cuando la utilización es superior o igual al 100 %, las llamadas se limitan y se devuelve el código de error 429. Mostrado como porcentaje |
azure.cognitiveservices_accounts.provisioned_managed_utilization_v2 (gauge) | Porcentaje de utilización para un despliegue gestionado con provisión, calculado como (PTU consumidas / PTU desplegadas) x 100. Cuando la utilización es superior o igual al 100 %, las llamadas se limitan y se devuelve el código de error 429. Mostrado como porcentaje |
azure.cognitiveservices_accounts.time_to_response (gauge) | Medida de latencia (capacidad de respuesta) recomendada para solicitudes de streaming. Se aplica a los despliegues gestionados por PTU y PTU. Calculado como el tiempo que tarda en aparecer la primera respuesta después de que un usuario envíe una solicitud, medido por la puerta de enlace de la API. Mostrado en milisegundos. |
azure.cognitiveservices_accounts.total_volume_sent_for_safety_check (count) | Número de llamadas realizadas a la API Azure OpenAI y detectadas por un filtro de contenido aplicado durante un periodo de tiempo. |
Checks de servicio
La integración de Azure OpenAI no incluye ningún check de servicio.
Eventos
La integración de Azure OpenAI no incluye ningún evento.
Solucionar problemas
¿Necesitas ayuda? Ponte en contacto con asistencia técnica de Datadog.