L’APM et le tracing distribué de Datadog permettent d’analyser en détail vos applications grâce à des dashboards de performance prêts à l’emploi qui surveillent les requêtes, les erreurs et la latence de vos services Web, vos files d’attente et vos bases de données. Les traces distribuées sont automatiquement mises en corrélation avec les sessions de navigateur, les logs, les checks Synthetics ainsi que les métriques réseau, de processus et d’infrastructure sur l’ensemble de vos hosts, conteneurs, proxies et fonctions sans serveur. Ingérez l’ensemble de vos traces sans aucun échantillonnage, recherchez-les, analysez leurs valeurs lors des 15 dernières minutes et utilisez des filtres de rétention basés sur des tags afin de conserver uniquement les traces pertinentes pour votre entreprise pendant une durée de 15 jours.
Les traces sont créées dans vos applications instrumentées et sont transmises à Datadog, qui les ingère toutes au rythme de 50 traces par seconde (par host d’APM). Dans le cas de services caractérisés par un débit élevé, vous pouvez visualiser et contrôler le processus à l’aide des commandes d’ingestion. Toutes les traces ingérées peuvent être utilisées afin de rechercher et d’analyser des données en temps réel sur une durée de 15 minutes. Vous pouvez également utiliser des filtres de rétention personnalisés basés sur des tags afin de conserver uniquement les traces pertinentes pour votre entreprise. Ainsi, vous pourrez rechercher et analyser ces traces pendant 15 jours.
Lorsque que vous passez d’une application monolithique à une architecture de microservices, implémenter l’APM Datadog sur l’ensemble de vos hosts, conteneurs et fonctions sans serveur ne prend que quelques minutes.
Ajoutez la bibliothèque de tracing Datadog pour obtenir les instructions pour votre environnement et votre langage, que vous souhaitiez effectuer le tracing d’un proxy ou le tracing sur des fonctions Lambda AWS et des hosts via l’instrumentation automatique, dd-trace-api, OpenTracing ou OpenTelemetry.
Maintenant que vous avez configuré votre application pour qu’elle envoie des traces à Datadog, vous pouvez commencer à analyser les performances de votre application :
Analysez les dépendances entre les services avec une service map générée automatiquement à partir de vos traces, ainsi que des métriques de performance des services et des statuts d’alerte de monitor.
Surveillez les métriques de services pour détecter des requêtes, erreurs et centiles de latence. Analysez en détail les requêtes de base de données ou les endpoints mis en corrélation avec les données de votre infrastructure.
Effectuez une recherche sur l’ensemble de vos traces par tag, en temps réel et sans aucun échantillonnage, pendant 15 minutes.
Lors d’une panne, analysez les performances par tag sur n’importe quelle span en temps réel, sur une durée de 15 minutes, afin d’identifier les utilisateurs ou transactions concernés.
Conservez les traces pertinentes grâce à des filtres de rétention basés sur des tags, et effectuez des analyses sur toutes les spans indexées pendant 15 jours.
Surveillez les performances de vos services et comparez les versions pour les déploiements progressifs, bleus/verts, fantômes et Canary.
Visualisez vos logs d’application en même temps que la trace associée pour une requête distribuée spécifique grâce à l’injection automatique de l’ID de trace.
Associez les tests d’API simulés aux traces pour identifier l’origine des échecs parmi vos requêtes front-end, réseau et back-end.
Améliorez l’efficacité du code avec le profiling continu en production, qui vous permet d’identifier les lignes de code qui sollicitent le plus le processeur, la mémoire et l’E/S.
Documentation, liens et articles supplémentaires utiles: