Versión de la integración1.0.0
Utiliza la integración de CrewAI para monitorizar, solucionar problemas y evaluar tus aplicaciones basadas en el marco de CrewAI.
Nota: Requiere Python.
Configuración
Instalación
Si no tienes el Datadog Agent:
- Instala el paquete
ddtrace:
- Inicia tu aplicación con el siguiente comando para habilitar el modo sin Agent:
DD_SITE=<YOUR_DATADOG_SITE> DD_API_KEY=<YOUR_API_KEY> DD_LLMOBS_ENABLED=1 DD_LLMOBS_AGENTLESS_ENABLED=1 DD_LLMOBS_ML_APP=<YOUR_ML_APP_NAME> ddtrace-run python <YOUR_APP>.py
Si ya tienes instalado el Datadog Agent:
- Asegúrate de que el Agent se está ejecutando, y que APM y StatsD están activados. Por ejemplo, utiliza el siguiente comando con Docker:
docker run -d \
--cgroupns host \
--pid host \
-v /var/run/docker.sock:/var/run/docker.sock:ro \
-v /proc/:/host/proc/:ro \
-v /sys/fs/cgroup/:/host/sys/fs/cgroup:ro \
-e DD_API_KEY=<DATADOG_API_KEY> \
-p 127.0.0.1:8126:8126/tcp \
-p 127.0.0.1:8125:8125/udp \
-e DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true \
-e DD_APM_ENABLED=true \
gcr.io/datadoghq/agent:latest
- Si aún no lo hiciste, instala el paquete
ddtrace:
- Para habilitar de manera automática el rastreo, inicia tu aplicación con el comando
ddtrace-run:
DD_SITE=<YOUR_DATADOG_SITE> DD_API_KEY=<YOUR_API_KEY> DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP=<YOUR_ML_APP_NAME> ddtrace-run python <your_app>.py
Nota: Si el Agent se ejecuta en un puerto o host personalizado, configura DD_AGENT_HOST y DD_TRACE_AGENT_PORT en consecuencia.
Si estás ejecutando LLM Observability en un entorno serverless (AWS Lambda):
- Instala las capas de Lambda Datadog-Python y Datadog-Extension como parte de tu configuración de AWS Lambda.
- Activa LLM Observability configurando las siguientes variables de entorno:
DD_SITE=<YOUR_DATADOG_SITE> DD_API_KEY=<YOUR_API_KEY> DD_LLMOBS_ENABLED=1 DD_LLMOBS_ML_APP=<YOUR_ML_APP_NAME>
Nota: En entornos serverless, Datadog vacía de manera automática los tramos (spans) al final de la función de Lambda.
Rastreo automático de CrewAI
La integración de CrewAI permite el seguimiento automático de los lanzamientos de Crew, incluidas las invocaciones de tareas/agents/herramientas, realizadas a través del SDK Python de CrewAI. La integración de CrewAI también detecta la latencia, los errores, los mensajes de entrada/salida y la vinculación direccional del flujo de datos durante las ejecuciones de Crew.
Se rastrean los siguientes métodos de CrewAI:
Estos métodos no requieren ninguna configuración adicional.
Validación
Valida que la observabilidad de LLM capture tramos de manera adecuada al comprobar los logs de tu aplicación a fin de verificar si se crean de forma correcta. También puedes ejecutar el siguiente comando para comprobar el estado de la integración dd-trace:
Busca el siguiente mensaje para confirmar la configuración:
Depuración
Si tienes problemas durante la configuración, activa el registro de depuración pasando el marcador --debug:
Muestra cualquier error relacionado con la transmisión o la instrumentación de datos, incluidos los problemas con las trazas (traces) de CrewAI.
Datos recopilados
Métricas
La integración de CrewAI no incluye métricas personalizadas.
Checks de servicio
La integración de CrewAI no incluye checks de servicio.
Eventos
La integración CrewAI no incluye eventos.
Solucionar problemas
¿Necesitas ayuda? Ponte en contacto con el servicio de asistencia de Datadog.