APM et tracing distribué
La gestion des incidents est désormais disponible pour tous ! La gestion des incidents est désormais disponible pour tous !

APM et tracing distribué


L’APM et le tracing distribué de Datadog permettent d’analyser en détail vos applications grâce à des dashboards de performance prêts à l’emploi qui surveillent les requêtes, les erreurs et la latence de vos services Web, vos files d’attente et vos bases de données. Les traces distribuées sont automatiquement mises en corrélation avec les sessions de navigateur, les logs, les checks Synthetics ainsi que les métriques réseau, de processus et d’infrastructure sur l’ensemble de vos hosts, conteneurs, proxies et fonctions sans serveur. Ingérez l’ensemble de vos traces sans aucun échantillonnage, recherchez-les, analysez leurs valeurs lors des 15 dernières minutes et utilisez des filtres de rétention basés sur des tags afin de conserver uniquement les traces pertinentes pour votre entreprise pendant une durée de 15 jours.

Tracing Without Limits : le parcours d’une trace

Les traces sont créées dans vos applications instrumentées et sont transmises à Datadog, qui les ingère toutes au rythme de 50 traces par seconde (par host d’APM). Dans le cas de services caractérisés par un débit élevé, vous pouvez visualiser et contrôler le processus à l’aide des commandes d’ingestion. Toutes les traces ingérées peuvent être utilisées afin de rechercher et d’analyser des données en temps réel sur une durée de 15 minutes. Vous pouvez également utiliser des filtres de rétention personnalisés basés sur des tags afin de conserver uniquement les traces pertinentes pour votre entreprise. Ainsi, vous pourrez rechercher et analyser ces traces pendant 15 jours.

Envoyer des traces à Datadog

Lorsque que vous passez d’une application monolithique à une architecture de microservices, implémenter l’APM Datadog sur l’ensemble de vos hosts, conteneurs et fonctions sans serveur ne prend que quelques minutes.

Ajoutez la bibliothèque de tracing Datadog pour obtenir les instructions pour votre environnement et votre langage, que vous souhaitiez effectuer le tracing d’un proxy ou le tracing sur des fonctions Lambda AWS et des hosts via l’instrumentation automatique, dd-trace-api, OpenTracing ou OpenTelemetry.


Explorer l’APM Datadog

Maintenant que vous avez configuré votre application pour qu’elle envoie des traces à Datadog, vous pouvez commencer à analyser les performances de votre application :

Service Map

Analysez les dépendances entre les services avec une service map générée automatiquement à partir de vos traces, ainsi que des métriques de performance des services et des statuts d’alerte de monitor.

Service Map

Dashboards sur les performances des services

Surveillez les métriques de services pour détecter des requêtes, erreurs et centiles de latence. Analysez en détail les requêtes de base de données ou les endpoints mis en corrélation avec les données de votre infrastructure.

Pages Service

Effectuez une recherche sur l’ensemble de vos traces par tag, en temps réel et sans aucun échantillonnage, pendant 15 minutes.

Live Analytics

Lors d’une panne, analysez les performances par tag sur n’importe quelle span en temps réel, sur une durée de 15 minutes, afin d’identifier les utilisateurs ou transactions concernés.

Rétention et ingestion des traces

Conservez les traces pertinentes grâce à des filtres de rétention basés sur des tags, et effectuez des analyses sur toutes les spans indexées pendant 15 jours.

Suivi des déploiements

Surveillez les performances de vos services et comparez les versions pour les déploiements progressifs, bleus/verts, fantômes et Canary.

Associer vos logs à vos traces distribuées

Visualisez vos logs d’application en même temps que la trace associée pour une requête distribuée spécifique grâce à l’injection automatique de l’ID de trace.

Associer vos données de test Synthetic à vos traces

Associez les tests d’API simulés aux traces pour identifier l’origine des échecs parmi vos requêtes front-end, réseau et back-end.

Tests Synthetics

Profileur en continu

Améliorez l’efficacité du code avec le profiling continu en production, qui vous permet d’identifier les lignes de code qui sollicitent le plus le processeur, la mémoire et l’E/S.

Pour aller plus loin