APM


La solution Application Performance Monitoring (APM) de Datadog permet d’analyser en détail vos applications grâce à des dashboards de performance prêts à l’emploi qui surveillent les requêtes, les erreurs et la latence de vos services Web, vos files d’attente et vos bases de données. Les traces distribuées sont automatiquement mises en corrélation avec les sessions de navigateur, les logs, les profils, les checks Synthetic ainsi que les métriques réseau, de processus et d’infrastructure sur l’ensemble de vos hosts, conteneurs, proxies et fonctions sans serveur. Passez directement de l’analyse d’une trace lente à l’identification de la ligne de code spécifique à l’origine des goulots d’étranglement limitant les performances avec les hotspots de code.

Pour découvrir la terminologie en lien avec la solution APM Datadog, consultez la section Termes et concepts d’APM.

Envoyer des traces à Datadog

Lorsque vous passez d’une application monolithique à une architecture de microservices, l’implémentation de la solution APM Datadog sur l’ensemble de vos hosts, conteneurs et fonctions sans serveur ne prend que quelques minutes.

Bêta : instrumentation APM en une seule étape. Activez l'instrumentation APM lors de l'installation de l'Agent Datadog pour profiter au plus vite de la surveillance des performances de votre application. Cette fonctionnalité permet d'instrumenter automatiquement vos services, sans avoir à modifier le code. Pour en savoir plus, consultez la section Instrumentation APM en une seule étape.

Pour commencer, consultez la section Envoyer des traces à Datadog.

Ajoutez la bibliothèque de tracing Datadog pour votre environnement et langage, que ce soit pour tracer un proxy, tracer des fonctions Lambda AWS, tirer profit de l’instrumentation automatique ou personnalisée, ou encore instrumenter votre application avec OpenTelemetry.

Contrôler et gérer les données transmises et conservées par Datadog

Cycle de vie d'APM

Les traces sont créées dans vos applications instrumentées et sont transmises à Datadog. Dans le cas de services caractérisés par un débit élevé, vous pouvez visualiser et contrôler l’ingestion à l’aide des paramètres d’ingestion. Toutes les traces ingérées peuvent être utilisées afin de rechercher et d’analyser des données en temps réel sur une durée de 15 minutes. Vous pouvez utiliser des filtres de rétention personnalisés basés sur des tags afin de conserver uniquement les traces pertinentes pour votre entreprise. Ainsi, vous pourrez rechercher et analyser ces traces pendant 15 jours.

Rétention et ingestion des traces

Générer des métriques custom à partir de spans

Générez des métriques avec une période de rétention de 15 mois à partir de l’ensemble des spans ingérées, afin de créer des indicateurs de performance et d’activité clés et de surveiller leur évolution.

Générer des métriques custom à partir des spans ingérées

Associer des traces à d’autres données de télémétrie

Visualisez vos logs d’application en même temps que la trace associée pour une requête distribuée spécifique grâce à l’injection automatique de l’ID de trace. Associez vos sessions à vos traces pour visualiser les traces spécifiques qui correspondent aux expériences utilisateur ainsi qu’aux problèmes signalés. Associez les tests simulés aux traces pour identifier l’origine des échecs parmi vos requêtes frontend, réseau et backend.

Associer vos logs à vos traces

Explorer des requêtes en temps réel et des requêtes indexées

Effectuez une recherche sur vos traces ingérées lors des 15 dernières minutes en vous basant sur n’importe quel tag. Lors d’une panne, analysez les performances par tag sur n’importe quelle span afin d’identifier les utilisateurs ou transactions concernés. Visualisez des cartes illustrant les flux de requêtes ainsi que d’autres représentations, afin de mieux comprendre l’impact de votre code et de déterminer plus facilement comment améliorer ses performances.

Tout savoir sur vos services

Analysez les dépendances entre les services grâce à une service map générée automatiquement à partir de vos traces, et consultez les métriques de performance liées à vos services ainsi que les statuts d’alerte des monitors associés.

Surveillez les métriques liées à vos services pour détecter des requêtes, erreurs et centiles de latence. Analysez des requêtes de base de données ou des endpoints mis en corrélation avec les données de votre infrastructure.

Page Service

Surveillez les performances de vos services et comparez les versions pour les déploiements progressifs, bleus/verts, shadow et Canary.

Versions sur la page Service

Effectuer le profiling de votre code de production

Améliorez la latence des applications et optimisez les ressources de calcul avec le profiling continu en production. Vous pourrez ainsi identifier les lignes de code qui sollicitent le plus le processeur, la mémoire et l’E/S.

Profiling

Pour aller plus loin