Monitoriza, soluciona problemas y evalúa tus aplicaciones basadas en LLM, como chatbots o herramientas de extracción de datos, utilizando Google Gemini.
Si estás creando aplicaciones LLM, utiliza LLM Observability de Datadog para investigar la causa de origen de los problemas, monitorizar el rendimiento operativo, y evaluar la calidad, la privacidad y la seguridad de tus aplicaciones LLM.
Nota: En entornos serverless, Datadog descarga automáticamente tramos (spans) cuando la función serverless termina de ejecutarse.
Rastreo automático de Google Gemini
La integración Google Gemini proporciona un rastreo automático de las llamadas de generación de contenido del SDK Python de Google AI. Esto captura la latencia, los errores, los mensajes de entrada y salida, así como el uso de tokens para operaciones de Google Gemini.
Los siguientes métodos se rastrean tanto para operaciones síncronas como asíncronas de Google Gemini:
Generación de contenidos (incluidas las llamadas transmitidas): model.generate_content(), model.generate_content_async()
Mensajes de chat: chat.send_message(), chat.send_message_async()
Estos métodos no requieren ninguna configuración adicional.
Validación
Comprueba si LLM Observability captura correctamente los tramos, verificando la creación exitosa de tramos en tus logs de aplicación. También puedes ejecutar el siguiente comando para comprobar el estado de la integración ddtrace:
ddtrace-run --info
Busca el siguiente mensaje para confirmar la configuración:
Agent error: None
Depuración
Si tienes problemas durante la configuración, activa el registro de depuración pasando el marcador --debug:
ddtrace-run --debug
Se muestra cualquier error relacionado con la instrumentación o la transmisión de datos, incluyendo problemas con las trazas de Google Gemini.
Datos recopilados
Métricas
La integración Google Gemini no incluye métricas.
Checks de servicio
La integración Google Gemini no incluye checks de servicios.