Utilisez ce guide pour commencer à surveiller votre environnement Google Cloud. Cette approche simplifie la configuration des environnements Google Cloud comportant plusieurs projets, vous permettant de maximiser votre couverture de surveillance.
Voir la liste complète des intégrations Google Cloud
L'intégration Google Cloud de Datadog collecte toutes les métriques Google Cloud. Datadog met régulièrement à jour la documentation pour répertorier chaque intégration dépendante, mais cette liste peut ne pas refléter les derniers services ou métriques disponibles.
Si vous ne voyez pas d’intégration pour un service Google Cloud spécifique, contactez l’assistance Datadog.
Configurez lʼintégration Datadog/Google Cloud pour recueillir des métriques et des logs à partir de vos services Google Cloud.
Prérequis
Si votre organisation restreint les identités en fonction de leur domaine, vous devez ajouter l’identité client Datadog à la liste blanche de votre stratégie. L’identité client de Datadog est C0147pk0i.
Pour utiliser les fonctionnalités d’emprunt d’identité de compte de service et de découverte automatique des projets, et ainsi surveiller vos projets, il est nécessaire d’attribuer certains rôles et d’activer certaines API. Avant de commencer, vérifiez que les API suivantes sont activées pour chacun des projets à surveiller :
Permet aux développeurs de gérer la facturation de leurs projets Google Cloud Platform de manière programmatique. Consultez la documentation relative à Cloud Cost Management (CCM) pour plus d’informations.
Vérifiez que les projets surveillés ne sont pas configurés en tant que projets de surveillance récupérant des métriques à partir d’autres projets.
Collecte de métriques
Installation
La collecte de métriques au niveau de l’organisation n’est pas disponible pour le site .
Une surveillance au niveau de l’organisation (ou du dossier) est recommandée pour assurer une couverture complète de tous les projets, y compris les projets futurs qui pourraient être créés dans l’organisation ou le dossier.
Remarque : votre compte utilisateur Google Cloud Identity doit disposer du rôle Admin assigné à la portée souhaitée (par exemple, Organization Admin) pour effectuer la configuration dans Google Cloud.
1. Créer un compte de service Google Cloud dans le projet par défaut
Cliquez sur Create service account en haut de la page.
Saisissez un nom unique pour le compte de service.
Cliquez sur Done pour finaliser la création du compte de service.
2. Ajouter le compte de service au niveau de l'organisation ou d'un dossier
Dans la console Google Cloud, accédez à la page IAM.
Sélectionnez un dossier ou une organisation.
Pour attribuer un rôle à un service principal qui ne possède pas encore de rôle pour la ressource, cliquez sur Grant Access, puis saisissez l’adresse e-mail du compte de service créé précédemment.
Saisissez l’adresse e-mail du compte de service.
Attribuez les rôles suivants :
Compute Viewer : fournit un accès en lecture seule pour obtenir et lister les ressources Compute Engine
Monitoring Viewer : fournit un accès en lecture seule aux données de monitoring disponibles dans votre environnement Google Cloud
Cloud Asset Viewer : fournit un accès en lecture seule aux métadonnées des ressources cloud
Browser : fournit un accès en lecture seule à la hiérarchie d’un projet
Remarque : le rôle Browser est requis uniquement dans le projet par défaut du compte de service. Les autres projets nécessitent uniquement les autres rôles listés.
3. Ajouter le principal Datadog à votre compte de service
Remarque : si vous avez précédemment configuré l’accès à l’aide d’un principal Datadog partagé, vous pouvez révoquer cette autorisation une fois les étapes suivantes terminées.
Cliquez sur Add Google Cloud Account.
Si aucun projet n’est encore configuré, vous serez automatiquement redirigé vers cette page.
Copiez votre service principal Datadog et conservez-le pour la prochaine section.
Remarque : gardez cette fenêtre ouverte pour la section 4.
Dans la console Google Cloud, dans le menu Service Accounts, recherchez le compte de service que vous avez créé à l’étape 1.
Allez dans l’onglet Permissions et cliquez sur Grant Access.
Collez votre service principal Datadog dans la zone New Principals.
Attribuez le rôle Service Account Token Creator.
Cliquez sur Save.
4. Finaliser la configuration de l'intégration dans Datadog
Dans la console Google Cloud, accédez à l’onglet Details du Service Account. Sur cette page, trouvez l’adresse email associée à ce compte de service Google. Elle suit le format <SA_NAME>@<PROJECT_ID>.iam.gserviceaccount.com.
Copiez cette adresse e-mail.
Revenez sur le carré de configuration de l’intégration dans Datadog (là où vous avez copié le principal Datadog lors de la section précédente).
Collez l’adresse email copiée dans le champ Add Service Account Email.
Cliquez sur Verify and Save Account.
Les métriques apparaissent dans Datadog environ 15 minutes après la configuration.
Bonnes pratiques pour la surveillance de plusieurs projets
Activer l’attribution des coûts et quotas d’API par projet
Par défaut, Google Cloud attribue les coûts liés aux appels d’API de monitoring ainsi que l’utilisation des quotas d’API au projet contenant le compte de service utilisé pour cette intégration. Dans les environnements Google Cloud comportant plusieurs projets, il est recommandé d’activer l’attribution des coûts et des quotas par projet. Lorsque cette option est activée, les coûts et l’utilisation des quotas sont attribués au projet interrogé, plutôt qu’au projet contenant le compte de service. Cela permet d’obtenir une meilleure visibilité sur les coûts de monitoring générés par chaque projet, tout en contribuant à éviter d’atteindre les limites de quotas d’API.
Pour activer cette fonctionnalité :
Assurez-vous que le compte de service Datadog dispose du rôle Service Usage Consumer à la portée souhaitée (dossier ou organisation).
L’intégration Google Cloud de Datadog pour le site utilise des comptes de service pour établir une connexion API entre Google Cloud et Datadog. Suivez les instructions ci-dessous pour créer un compte de service et fournir à Datadog les identifiants nécessaires pour exécuter des appels API en votre nom.
Saisissez un nom unique pour le compte de service et ajoutez éventuellement une description.
Cliquez sur Create and continue.
Ajoutez les rôles suivants :
Compute Viewer
Monitoring Viewer
Cloud Asset Viewer
Cliquez sur Done.
Remarque : vous devez être un administrateur clé de compte de service pour sélectionner les rôles Compute Engine et Cloud Asset. Tous les rôles sélectionnés permettent à Datadog de recueillir des métriques, des tags, des événements et des étiquettes dʼutilisateurs à votre place.
En bas de la page se trouvent vos comptes de service. Sélectionnez celui que vous venez de créer.
Cliquez sur Add Key -> Create new key et choisissez JSON comme type.
Cliquez sur Create. Un fichier de clé JSON est alors téléchargé sur votre ordinateur. Souvenez-vous de son emplacement, car vous en aurez besoin pour terminer lʼinstallation.
Dans l’onglet Configuration, sélectionnez Upload Key File pour intégrer ce projet à Datadog.
Si vous le souhaitez, vous pouvez utiliser des tags pour exclure des hosts de cette intégration. Vous trouverez des instructions détaillées à ce sujet dans la section relative aux configurations.
Cliquez sur Install/Update.
Si vous souhaitez surveiller plusieurs projets, utilisez l’une des méthodes suivantes :
Répétez les étapes ci-dessus pour utiliser plusieurs comptes de service.
Utilisez le même compte de service en modifiant la valeur de project_id dans le fichier JSON téléchargé à l’étape 10. Importez ensuite le fichier dans Datadog, tel que décrit aux étapes 11 à 14.
Cette approche vous permet de surveiller tous les projets accessibles depuis un compte de service, en attribuant des rôles IAM aux projets pertinents. Il est possible d’attribuer ces rôles à des projets spécifiques, mais aussi de les attribuer à l’échelle d’une organisation ou d’un dossier, afin de surveiller des groupes de projets. De cette façon, Datadog découvre et surveille automatiquement tous les projets d’un contexte donné, y compris les nouveaux projets qui intègrent ultérieurement le groupe.
Accédez à l’onglet Permissions, puis cliquez sur Grant Access.
Collez votre service principal Datadog dans la zone New Principals.
Attribuez le rôle Service Account Token Creator, puis cliquez sur SAVE.
Remarque : si vous avez déjà configuré l’accès à l’aide d’un service principal Datadog partagé, vous pouvez révoquer l’autorisation pour ce service principal après avoir suivi ces étapes.
3. Finaliser la configuration de l'intégration dans Datadog
Dans votre console Google Cloud, accédez à l’onglet Service Account > Details, afin de consulter l’adresse e-mail associée à ce compte de service Google. Son format est <sa-name>@<project-id>.iam.gserviceaccount.com.
Copiez cette adresse e-mail.
Revenez sur le carré de configuration de l’intégration dans Datadog (là où vous avez copié votre service principal Datadog lors de la section précédente).
Dans la zone de texte sous Add Service Account Email, collez l’adresse e-mail que vous avez précédemment copiée.
Cliquez sur Verify and Save Account.
Les métriques apparaîtront dans Datadog environ quinze minutes après la configuration.
Validation
Pour consulter vos métriques, utilisez le menu de gauche pour accéder à Metrics > Summary, puis recherchez gcp :
Configuration
Limiter la collecte de métriques par espace de noms
Vous pouvez, si vous le souhaitez, choisir les services Google Cloud à surveiller avec Datadog. Configurer la collecte de métriques pour des services spécifiques vous permet d’optimiser les coûts liés à l’API Google Cloud Monitoring tout en conservant la visibilité sur vos services critiques.
Sous l’onglet Metric Collection de la page d’intégration Google Cloud dans la page d’intégration Google Cloud de Datadog, décochez les espaces de nommage des métriques à exclure. Vous pouvez également désactiver la collecte de tous les espaces de nommage.
Limiter la collecte de métriques par tag
Par défaut, toutes vos instances Google Compute Engine (GCE) apparaissent dans la vue d’ensemble de l’infrastructure de Datadog. Datadog les taggue automatiquement avec les tags d’hôte GCE ainsi que les éventuels labels GCE que vous avez ajoutés.
Vous pouvez éventuellement utiliser des tags pour limiter les instances importées dans Datadog. Dans l’onglet Metric Collection d’un projet, saisissez les tags dans le champ Limit Metric Collection Filters. Seuls les hosts correspondant à l’un des tags définis seront importés dans Datadog. Vous pouvez utiliser des jokers (? pour un caractère, * pour plusieurs caractères) pour cibler de nombreux hosts, ou ! pour exclure certains hosts. Cet exemple inclut toutes les instances de type c1* mais exclut les hosts de staging :
Transférez les logs de vos services Google Cloud vers Datadog en utilisant Google Cloud Dataflow et le modèle Datadog. Cette méthode permet la compression et le regroupement des événements avant leur envoi vers Datadog.
Vous pouvez utiliser le module terraform-gcp-datadog-integration pour gérer cette infrastructure via Terraform, ou suivre les étapes ci-dessous pour :
Créer un compte de service personnalisé pour Dataflow afin d’appliquer le principe du moindre privilège à vos workers Dataflow
Créer un récepteur de logs pour publier les logs sur la rubrique Pub/Sub
Créer un job Dataflow à l’aide du modèle Datadog pour diffuser les logs depuis l’abonnement Pub/Sub vers Datadog
Vous gardez un contrôle total sur les logs envoyés à Datadog grâce aux filtres que vous définissez dans le récepteur de logs, y compris pour les logs GCE et GKE. Consultez la page Langage de requête Logging de Google pour écrire vos filtres. Pour un aperçu complet de l’architecture mise en place, consultez Stream logs from Google Cloud to Datadog (en anglais) dans le Cloud Architecture Center.
Remarque : vous devez activer l’API Dataflow pour utiliser Google Cloud Dataflow. Consultez la rubrique Activer des API dans la documentation Google Cloud pour plus d’informations.
Pour collecter les logs d’applications exécutées sur GCE ou GKE, vous pouvez également utiliser l’Agent Datadog.
1. Créer un sujet et un abonnement Cloud Pub/Sub
Accédez à la console Cloud Pub/Sub et créez un nouveau sujet. Sélectionnez l’option Add a default subscription pour simplifier la configuration.
Remarque : vous pouvez également configurer manuellement un abonnement Cloud Pub/Sub avec le type de livraison Pull. Si vous créez manuellement votre abonnement Pub/Sub, laissez la case Enable dead letteringnon cochée. Pour plus de détails, consultez la section Fonctionnalités Pub/Sub non compatibles.
Donnez un nom clair à ce sujet, comme export-logs-to-datadog, et cliquez sur Create.
Créez un autre sujet et un autre abonnement par défaut pour gérer tous les messages de log rejetés par lʼAPI Datadog. Le nom de ce sujet est utilisé dans le modèle Dataflow Datadog, où il fait partie de la configuration du chemin pour le paramètre de modèleoutputDeadletterTopic. Une fois que vous avez inspecté et corrigé tous les problèmes des messages d’échec, renvoyez-les au sujet export-logs-to-datadog d’origine en exécutant une tâche Modèle Pub/Sub vers Pub/Sub.
Datadog recommande de créer un secret dans Secret Manager avec la valeur de votre clé d’API Datadog valide, afin de l’utiliser plus tard dans le modèle Dataflow Datadog.
Avertissement : les Cloud Pub/Sub sont inclus dans les quotas et limites de Google Cloud. Si votre nombre de logs dépasse ces limites, Datadog vous conseille de les répartir sur plusieurs sujets. Consultez la rubrique Surveiller la redirection de logs Pub/Sub pour découvrir comment configurer des notifications de monitor si vous vous approchez de ces limites.
2. Créer un compte de service de worker Dataflow personnalisé
Par défaut, les workers de pipeline Dataflow utilisent le compte de service Compute Engine par défaut de votre projet, qui accorde des autorisations pour toutes les ressources du projet. Si vous transmettez des logs d’un environnement Production, il est conseillé de privilégier la création d’un compte de service de worker personnalisé n’incluant que les rôles et les autorisations nécessaires, et d’attribuer ce compte de service à vos workers de pipeline Dataflow.
Accédez à la page Service Accounts de la console Google Cloud et sélectionnez votre projet.
Cliquez sur CREATE SERVICE ACCOUNT et attribuez un nom descriptif au compte de service. Cliquez sur CREATE AND CONTINUE.
Ajoutez les rôles dans le tableau des autorisations correspondant et cliquez sur DONE.
roles/pubsub.publisher Permet au compte de service de publier les messages ayant échoué dans un abonnement distinct, ce qui permet d’analyser ou de renvoyer les logs.
roles/storage.objectAdmin permet au compte de service de lire et d’écrire sur le compartiment Cloud Storage indiqué pour les fichiers en staging.
Remarque : si vous ne créez par de compte de service pour les workers de pipeline Dataflow, assurez-vous que le compte de service Compute Engine par défaut possède les autorisations requises ci-dessus.
3. Exporter des logs depuis le sujet Pub/Sub Google Cloud
Depuis lʼonglet Log Router, sélectionnez Create Sink.
Nommez le récepteur.
Choisissez Cloud Pub/Sub comme destination et sélectionnez le sujet Cloud Pub/Sub créé à cette fin. Remarque : le sujet Cloud Pub/Sub peut se situer dans un autre projet.
Choisissez les logs que vous souhaitez inclure dans le récepteur avec un filtre d’inclusion ou d’exclusion facultatif. Vous pouvez filtrer les logs avec une requête de recherche, ou utiliser l’exemple de fonction. Par exemple, si vous souhaitez inclure seulement 10 % des logs avec ERROR comme niveau de severity, créez un filtre d’inclusion avec severity="ERROR" AND sample(insertId, 0.1).
Cliquez sur Create Sink.
Remarque : il est possible de créer plusieurs exportations depuis Google Cloud Logging vers le même sujet Cloud Pub/Sub en utilisant plusieurs récepteurs.
Donnez un nom à la tâche et sélectionnez un endpoint régional Dataflow.
Sélectionnez Pub/Sub to Datadog dans la liste déroulante Dataflow template, et la section Required parameters apparaît.
a. Sélectionnez l’abonnement en entrée dans la liste déroulante Pub/Sub input subscription.
b. Saisissez les informations suivantes dans le champ Datadog logs API URL :
https://
Remarque : assurez-vous que le sélecteur de site Datadog à droite de la page est défini sur votre site Datadog avant de copier l’URL ci-dessus.
c. Sélectionnez le sujet créé pour recevoir les échecs de messages dans la liste déroulante Output deadletter Pub/Sub topic.
d. Indiquez un chemin d’accès pour les fichiers temporaires dans votre compartiment de stockage dans le champ Temporary location.
Sous Optional Parameters, cochez Include full Pub/Sub message in the payload.
Si vous avez créé un secret dans Secret Manager avec la valeur de votre clé d’API Datadog comme indiqué dans étape 1), entrez le nom de la ressource du secret dans le champ Google Cloud Secret Manager ID.
Consultez la rubrique Paramètres de modèle dans le modèle Dataflow pour en savoir plus sur l’utilisation des autres options disponibles :
apiKeySource=KMS avec apiKeyKMSEncryptionKey défini sur l’ID de votre clé Cloud KMS et apiKey défini sur la clé d’API chiffrée
Non conseillé : apiKeySource=PLAINTEXT avec apiKey défini sur la clé dʼAPI en texte brut
Si vous avez créé un compte service de worker personnalisé, sélectionnez-le dans le menu déroulant Service account email.
Cliquez sur RUN JOB.
Remarque : si vous possédez un VPC partagé, consultez la page Spécifier un réseau et un sous-réseau de la documentation Dataflow pour obtenir des instructions sur la spécification des paramètres Network et Subnetwork.
Validation
Les nouveaux événements de log envoyés au sujet Cloud Pub/Sub apparaissent dans le Log Explorer de Datadog.
gcp.pubsub.subscription.num_undelivered_messages pour le nombre de messages en attente de livraison
gcp.pubsub.subscription.oldest_unacked_message_age pour l’âge du plus ancien message non acquitté dans un abonnement
Utilisez les métriques ci-dessus avec un [monitor de métrique][72] pour recevoir des alertes pour les messages dans vos abonnements d’entrée et de lettres mortes.
Surveiller le pipeline Dataflow
Utilisez lʼintégration Google Cloud Dataflow de Datadog pour surveiller tous les aspects de vos pipelines Dataflow. Vous pouvez voir toutes vos métriques Dataflow principales sur le dashboard prêt à l’emploi, doté de données contextuelles telles que des informations sur les instances GCE qui exécutent vos workloads Dataflow, et votre débit Pub/Sub.
Vous pouvez également utiliser un monitor recommandé préconfiguré pour configurer des notifications pour les augmentations du temps de backlog dans votre pipeline. Pour en savoir plus, lisez la section Monitor your Dataflow pipelines with Datadog (en anglais) dans le blog de Datadog.
La documentation ci-dessus relative à l’abonnement Push n’est maintenue que pour le dépannage ou la modification d’anciennes configurations.
Utilisez un abonnement Pull avec le modèle Dataflow de Datadog, comme décrit dans la méthode Dataflow, pour transférer vos logs Google Cloud vers Datadog.
Surveillance étendue de BigQuery
Join the Preview!
La surveillance étendue de BigQuery est disponible en préversion. Utilisez ce formulaire pour vous inscrire et commencer à obtenir des informations sur les performances de vos requêtes.
La surveillance étendue de BigQuery offre une visibilité granulaire sur vos environnements BigQuery.
Surveillance des performances des jobs BigQuery
Pour surveiller les performances de vos jobs BigQuery, attribuez le rôle BigQuery Resource Viewer au compte de service Datadog pour chaque projet Google Cloud.
Remarques :
Vous devez avoir vérifié votre compte de service Google Cloud dans Datadog, comme indiqué dans la section de configuration.
Vous n’avez pas besoin de configurer Dataflow pour collecter les logs dans le cadre de la surveillance BigQuery étendue.
Dans la console Google Cloud, accédez à la page IAM.
Cliquez sur Accorder un accès.
Saisissez l’adresse e-mail de votre compte de service dans Nouveaux principaux.
La surveillance de la qualité des données BigQuery fournit des métriques de qualité à partir de vos tables BigQuery (comme la fraîcheur ou les mises à jour du nombre de lignes et de la taille). Explorez en profondeur les données de vos tables sur la page Surveillance de la qualité des données.
Pour collecter les métriques de qualité, attribuez le rôle BigQuery Metadata Viewer au compte de service Datadog pour chaque table BigQuery que vous utilisez.
Remarque : le rôle BigQuery Metadata Viewer peut être appliqué à une table, un ensemble de données, un projet ou une organisation.
Pour surveiller la qualité des données de toutes les tables d’un ensemble de données, attribuez l’accès au niveau de l’ensemble de données.
Pour surveiller la qualité des données de tous les ensembles de données d’un projet, attribuez l’accès au niveau du projet.
Datadog recommande de créer un nouvel index de logs appelé data-observability-queries, et d’y indexer les logs de vos jobs BigQuery pendant 15 jours. Utilisez le filtre d’index suivant pour inclure les logs :
Sélectionnez Enable Resource Collection dans l’onglet Resource Collection de la page d’intégration Google Cloud. Cela vous permet de recevoir des événements de ressource dans Datadog lorsque l’inventaire des ressources Cloud de Google détecte des modifications dans vos ressources cloud.
Suivez ensuite les étapes ci-dessous pour transférer les événements de modification depuis un sujet Pub/Sub vers l’Event Explorer de Datadog.
Saisissez export-asset-changes-to-datadog pour le nom de l’abonnement.
Sélectionnez le sujet Cloud Pub/Sub précédemment créé.
Sélectionnez le type de diffusion Pull.
Cliquez sur CREATE.
Autoriser l’accès
Pour pouvoir lire les données de l’abonnement Pub/Sub, le compte de service Google Cloud utilisé par l’intégration doit disposer de l’autorisation pubsub.subscriptions.consume pour l’abonnement. Le rôle par défaut Pub/Sub subscriber possède cette autorisation, en plus d’autres autorisations minimales. Suivez les étapes ci-dessous pour attribuer ce rôle :
Depuis le volet d’informations sur la droite de la page, cliquez sur l’onglet Permissions. Si vous ne voyez pas ce volet, cliquez sur SHOW INFO PANEL.
Cliquez sur ADD PRINCIPAL.
Saisissez l’adresse e-mail du compte de service utilisée par l’intégration Datadog/Google Cloud. Vos comptes de service sont répertoriés sur la gauche de l’onglet Configuration, sur la page de l’intégration Google Cloud dans Datadog.
Créer un flux d’éléments
Exécutez la commande ci-dessous dans Cloud Shell ou dans la CLI gcloud pour créer un flux d’inventaire d’éléments cloud qui envoie les événements de changement au sujet Pub/Sub précédemment créé.
Remplacez les placeholders comme indiqué ci-dessous :
<NOM_FLUX> : nom descriptif du flux d’inventaire d’éléments cloud.
<ID_PROJET> : ID de votre projet Google Cloud.
<NOM_SUJET> : le nom du sujet Pub/Sub associé à l’abonnement export-asset-changes-to-datadog.
<ASSET_NAMES> : liste des noms complets des ressources (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-types est défini.
<ASSET_TYPES> : liste des types d’éléments (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-names est défini.
<CONTENT_TYPE> : type de contenufacultatif des éléments d’où proviennent les événements de changement.
Remplacez les placeholders comme indiqué ci-dessous :
<NOM_FLUX> : nom descriptif du flux d’inventaire d’éléments cloud.
<ID_FOLDER> : ID de votre dossier Google Cloud.
<NOM_SUJET> : le nom du sujet Pub/Sub associé à l’abonnement export-asset-changes-to-datadog.
<ASSET_NAMES> : liste des noms complets des ressources (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-types est défini.
<ASSET_TYPES> : liste des types d’éléments (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-names est défini.
<CONTENT_TYPE> : type de contenufacultatif des éléments d’où proviennent les événements de changement.
Remplacez les placeholders comme indiqué ci-dessous :
<NOM_FLUX> : nom descriptif du flux d’inventaire d’éléments cloud.
<ID_ORGANISATION> : ID de votre organisation Google Cloud.
<NOM_SUJET> : le nom du sujet Pub/Sub associé à l’abonnement export-asset-changes-to-datadog.
<ASSET_NAMES> : liste des noms complets des ressources (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-types est défini.
<ASSET_TYPES> : liste des types d’éléments (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-names est défini.
<CONTENT_TYPE> : type de contenufacultatif des éléments d’où proviennent les événements de changement.
Terraform
Créer un flux d’éléments
Copiez le modèle Terraform suivant et remplacez les arguments nécessaires :
Remplacez les placeholders comme indiqué ci-dessous :
<ID_PROJET> : ID de votre projet Google Cloud.
<TOPIC_NAME> : le nom du sujet Pub/Sub associé à l’abonnement export-asset-changes-to-datadog.
<SERVICE_ACCOUNT_EMAIL> : adresse e-mail du compte de service utilisé par l’intégration Google Cloud de Datadog.
<NOM_FLUX> : nom descriptif du flux d’inventaire d’éléments cloud.
<ASSET_NAMES> : liste des noms complets des ressources (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-types est défini.
<ASSET_TYPES> : liste des types d’éléments (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-names est défini.
<CONTENT_TYPE> : type de contenufacultatif des éléments d’où proviennent les événements de changement.
Remplacez les placeholders comme indiqué ci-dessous :
<ID_PROJET> : ID de votre projet Google Cloud.
<FOLDER_ID> : ID du dossier dans lequel créer ce flux.
<TOPIC_NAME> : le nom du sujet Pub/Sub associé à l’abonnement export-asset-changes-to-datadog.
<SERVICE_ACCOUNT_EMAIL> : adresse e-mail du compte de service utilisé par l’intégration Google Cloud de Datadog.
<NOM_FLUX> : nom descriptif du flux d’inventaire d’éléments cloud.
<ASSET_NAMES> : liste des noms complets des ressources (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-types est défini.
<ASSET_TYPES> : liste des types d’éléments (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-names est défini.
<CONTENT_TYPE> : type de contenufacultatif des éléments d’où proviennent les événements de changement.
Remplacez les placeholders comme indiqué ci-dessous :
<ID_PROJET> : ID de votre projet Google Cloud.
<TOPIC_NAME> : le nom du sujet Pub/Sub associé à l’abonnement export-asset-changes-to-datadog.
<SERVICE_ACCOUNT_EMAIL> : adresse e-mail du compte de service utilisé par l’intégration Google Cloud de Datadog.
<ID_ORGANISATION> : ID de votre organisation Google Cloud.
<NOM_FLUX> : nom descriptif du flux d’inventaire d’éléments cloud.
<ASSET_NAMES> : liste des noms complets des ressources (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-types est défini.
<ASSET_TYPES> : liste des types d’éléments (séparés par des virgules) d’où proviennent les événements de changement. Facultatif si asset-names est défini.
<CONTENT_TYPE> : type de contenufacultatif des éléments d’où proviennent les événements de changement.
Datadog vous conseille de définir le paramètre asset-types sur l’expression régulière .* afin de recueillir les changements concernant toutes les ressources.
Remarque : vous devez spécifier au moins une valeur pour le paramètre asset-names ou le paramètre asset-types.
Consultez la section gcloud asset feeds create (en anglais) pour obtenir la liste complète des paramètres configurables.
Activer la collecte de données sur les changements de ressource
Cliquez sur Enable Resource Changes Collection dans l’onglet Resource Collection de la page d’intégration Google Cloud.
Private Service Connect n'est disponible que pour les sites US5 et EU de Datadog.
Utilisez l’intégration Private Service Connect de Google Cloud pour visualiser les connexions, les données transférées et les paquets rejetés via Private Service Connect. Cela vous permet de superviser les métriques clés de vos connexions PSC, qu’il s’agisse du côté producteur ou consommateur.
Private Service Connect (PSC) est un service de mise en réseau Google Cloud qui permet d’accéder à des services Google Cloud, services partenaires tiers ou applications internes de manière privée depuis votre VPC (Virtual Private Cloud).
Consultez les différentes pages des intégrations Google Cloud pour en savoir plus sur les métriques associées.
Métriques cumulatives
Les métriques cumulatives sont importées dans Datadog avec une métrique .delta chaque nom de métrique. Une métrique cumulative est une métrique dont la valeur augmente constamment au fil du temps. Par exemple, une métrique pour sent bytes peut être cumulative. Chaque valeur enregistre le nombre total d’octets envoyés par un service à ce moment-là. La valeur delta représente la différence avec la mesure précédente.
Exemple :
gcp.gke.container.restart_count est une métrique CUMULATIVE. Lors de l’importation de cette métrique en tant que métrique cumulative, Datadog ajoute la métrique gcp.gke.container.restart_count.delta, qui inclut les valeurs delta (par opposition à la valeur agrégée émise dans le cadre de la métrique CUMULATIVE). Référez-vous à a documentation relative aux types de métriques de Google Cloud pour en savoir plus.
Événements
Tous les événements de service générés par Google Cloud Platform sont transférés vers l’Events Explorer Datadog.
Checks de service
L’intégration Google Cloud Platform n’inclut aucun check de service.
Tags
Les tags sont automatiquement attribués en fonction d’un ensemble d’options de configuration Google Cloud Platform et Google Compute Engine. Toutes les métriques bénéficient du tag project_id. Des tags supplémentaires sont recueillis à partir de la plateforme Google Cloud, le cas échéant. Les tags recueillis dépendent du type de métrique.
En outre, Datadog recueille les éléments suivants en tant que tags :
Les hosts avec les libellés <key>:<value>
Les libellés personnalisés de Google Pub/Sub, GCE, Cloud SQL et Cloud Storage
Dépannage
Mes métadonnées sont incorrectes pour les métriques gcp.logging définies par l’utilisateur
Pour les métriques gcp.logging non standard, comme les métriques qui ne correspondent pas aux métriques de journalisation Datadog prêtes à l’emploi, les métadonnées appliquées peuvent différer de celles de Google Cloud Logging.
Dans ce cas, les métadonnées doivent être définies manuellement sur la page de résumé de la métrique : recherchez et sélectionnez la métrique en question, puis cliquez sur l’icône en forme de crayon à côté des métadonnées.