Para informar resultados de test a Datadog, debes configurar la biblioteca de Datadog .NET:
Puedes usar la acción de Datadog Test Visibility Github dedicada para activar la visibilidad de test.
Si lo haces, el resto de los pasos de configuración a continuación pueden omitirse.
Puedes usar la configuración basada en interfaz de usuario para activar la Visibilidad de test para tus trabajos y pipelines.
Si lo haces, el resto de los pasos de configuración a continuación pueden omitirse.
El modo sin Agent está disponible en las versiones de biblioteca de Datadog .NET >= 2.5.1
If you are using a cloud CI provider without access to the underlying worker nodes, such as GitHub Actions or CircleCI, configure the library to use the Agentless mode. For this, set the following environment variables:
DD_CIVISIBILITY_AGENTLESS_ENABLED=true (Required)
Enables or disables Agentless mode. Default: false
DD_API_KEY (Required)
The Datadog API key used to upload the test results. Default: (empty)
Additionally, configure the Datadog site to which you want to send data.
DD_SITE (Required)
The Datadog site to upload results to. Default: datadoghq.com
If you are running tests on an on-premises CI provider, such as Jenkins or self-managed GitLab CI, install the Datadog Agent on each worker node by following the Agent installation instructions.
This is the recommended option as it allows you to automatically link test results to logs and underlying host metrics.
If you are using a Kubernetes executor, Datadog recommends using the Datadog Operator.
The operator includes Datadog Admission Controller which can automatically inject the tracer library into the build pods.
Note: If you use the Datadog Operator, there is no need to download and inject the tracer library since the Admission Controller can do this for you, so you can skip the corresponding step below.
However, you still need to make sure that your pods set the environment variables or command-line parameters necessary to enable Test Visibility.
If you are not using Kubernetes or can’t use the Datadog Admission Controller and the CI provider is using a container-based executor, set the DD_TRACE_AGENT_URL environment variable (which defaults to http://localhost:8126) in the build container running the tracer to an endpoint that is accessible from within that container. Note: Using localhost inside the build references the container itself and not the underlying worker node or any container where the Agent might be running in.
DD_TRACE_AGENT_URL includes the protocol and port (for example, http://localhost:8126) and takes precedence over DD_AGENT_HOST and DD_TRACE_AGENT_PORT, and is the recommended configuration parameter to configure the Datadog Agent’s URL for CI Visibility.
If you still have issues connecting to the Datadog Agent, use the Agentless Mode.
Note: When using this method, tests are not correlated with logs and infrastructure metrics.
Instalación de la CLI del rastreador de .NET
Instala o actualiza el comando dd-trace de una de las siguientes maneras:
Para instrumentar tu conjunto de tests, antepone a tu comando de test dd-trace ci run, proporcionando el nombre de servicio o biblioteca en proceso de test como el parámetro --dd-service parameter, and the environment where tests are being run (for example, local when running tests on a developer workstation, or ci when running them on a CI provider) as the --dd-env. Por ejemplo:
dd-trace ci run --dd-service=my-dotnet-app --dd-env=ci -- VSTest.Console.exe {test_assembly}.dll
Todos los tests se instrumentan automáticamente.
Compatibilidad con el paquete nuget de Microsoft.CodeCoverage
Desde la versión 17.2.0 de Microsoft.CodeCoverage, Microsoft introdujo la instrumentación dinámica con la .NET CLR Profiling API habilitada por defecto solo en Windows. La instrumentación automática de Datadog se basa en la .NET CLR Profiling API. Esta API solo permite un suscriptor (por ejemplo, dd-trace). El uso de la instrumentación dinámica de CodeCoverage rompe la instrumentación de test automática.
La solución es cambiar de instrumentación dinámica a instrumentación estática. Modifica tu archivo .runsettings con los siguientes mandos de configuración:
<?xml version="1.0" encoding="utf-8"?><RunSettings><DataCollectionRunSettings><DataCollectors><DataCollectorfriendlyName="Code Coverage"><Configuration><CodeCoverage><!-- Cambio a la instrumentación estática (la instrumentación dinámica colapsa cn la instrumentación dd-trace) --><EnableStaticManagedInstrumentation>True</EnableStaticManagedInstrumentation><EnableDynamicManagedInstrumentation>False</EnableDynamicManagedInstrumentation><UseVerifiableInstrumentation>False</UseVerifiableInstrumentation><EnableStaticNativeInstrumentation>True</EnableStaticNativeInstrumentation><EnableDynamicNativeInstrumentation>False</EnableDynamicNativeInstrumentation> ...
</CodeCoverage></Configuration></DataCollector></DataCollectors></DataCollectionRunSettings></RunSettings>
Ajustes de configuración
Puedes cambiar la configuración predeterminada de la CLI utilizando argumentos de línea de comandos o variables de entorno. Para obtener una lista completa de los ajustes de configuración, ejecuta:
dd-trace ci run --help
En la siguiente lista, se muestran los valores por defecto de los ajustes de configuración clave:
--dd-service
nombre del servicio o biblioteca en proceso de test. **Variable de entorno **: DD_SERVICE Por defecto: el nombre del repositorio Ejemplo: my-dotnet-app
--dd-env
nombre del entorno donde se están ejecutando los tests. **Variable de entorno **: DD_ENV Por defecto: none Ejemplos: local, ci
--agent-url
URL del Datadog Agent para la recopilación de trazas con el formato http://hostname:port. Variable de entorno: DD_TRACE_AGENT_URL Por defecto: http://localhost:8126
Puedes añadir etiquetas personalizadas a tus tests con el tramo activo en ese momento:
// dentro de tu testvarscope=Tracer.Instance.ActiveScope;// from Datadog.Trace;if(scope!=null){scope.Span.SetTag("test_owner","my_team");}// test sigue con normalidad// ...
Para crear filtros o campos group by para estas etiquetas, primero debes crear facetas. Para obtener más información sobre la adición de etiquetas, consulta la sección Adición de etiquetas de la documentación de instrumentación personalizada de .NET.
Al igual que con las etiquetas, puedes añadir medidas personalizadas a tus tests utilizando el tramo activo en ese momento:
// dentro de tu testvarscope=Tracer.Instance.ActiveScope;// from Datadog.Trace;if(scope!=null){scope.Span.SetTag("memory_allocations",16);}// test sigue normalmente// ...
Para crear filtros o visualizaciones para estas etiquetas, primero debes crear facetas. Para obtener más información sobre la adición de etiquetas, consulta la sección Adición de etiquetas de la documentación de instrumentación personalizada de .NET.
Cuando la cobertura del código está disponible, el rastreador de Datadog (v2.31.0 o posterior) informa de ella en la etiqueta test.code_coverage.lines_pct para tus sesiones de test.
Si utilizas Coverlet para calcular la cobertura del código, indica la ruta del archivo de informe en la variable de entorno DD_CIVISIBILITY_EXTERNAL_CODE_COVERAGE_PATH al ejecutar dd-trace. El archivo de informe debe estar en los formatos OpenCover o Cobertura. Alternativamente, puedes activar el cálculo de cobertura del código integrado del rastreador de Datadog con la variable de entorno DD_CIVISIBILITY_CODE_COVERAGE_ENABLED=true.
Nota: Cuando se utiliza Intelligent Test Runner, la cobertura del código integrada en el rastreador está activada de forma predeterminada.
Puedes ver la evolución de la cobertura de los tests en la pestaña Coverage (Cobertura) de una sesión de tests.
Para más información sobre las opciones de exclusión, consulta Cobertura del código.
Instrumentación de los tests de BenchmarkDotNet
Para instrumentar tus tests de referencia, debes hacer lo siguiente:
Configura tu proyecto para utilizar el exportador Datadog.Trace.BenchmarkDotNet con el atributo DatadogDiagnoser o el método de extensión WithDatadog(). Por ejemplo:
Ejecuta el proyecto de referencia como lo haces normalmente, todos los tests de referencia se instrumentarán automáticamente.
Datadog uses Git information for visualizing your test results and grouping them by repository, branch, and commit. Git metadata is automatically collected by the test instrumentation from CI provider environment variables and the local .git folder in the project path, if available.
If you are running tests in non-supported CI providers or with no .git folder, you can set the Git information manually using environment variables. These environment variables take precedence over any auto-detected information. Set the following environment variables to provide Git information:
DD_GIT_REPOSITORY_URL
URL of the repository where the code is stored. Both HTTP and SSH URLs are supported. Example: git@github.com:MyCompany/MyApp.git, https://github.com/MyCompany/MyApp.git
DD_GIT_BRANCH
Git branch being tested. Leave empty if providing tag information instead. Example: develop
DD_GIT_TAG
Git tag being tested (if applicable). Leave empty if providing branch information instead. Example: 1.0.1
DD_GIT_COMMIT_SHA
Full commit hash. Example: a18ebf361cc831f5535e58ec4fae04ffd98d8152
DD_GIT_COMMIT_MESSAGE
Commit message. Example: Set release number
DD_GIT_COMMIT_AUTHOR_NAME
Commit author name. Example: John Smith
DD_GIT_COMMIT_AUTHOR_EMAIL
Commit author email. Example: john@example.com
DD_GIT_COMMIT_AUTHOR_DATE
Commit author date in ISO 8601 format. Example: 2021-03-12T16:00:28Z
DD_GIT_COMMIT_COMMITTER_NAME
Commit committer name. Example: Jane Smith
DD_GIT_COMMIT_COMMITTER_EMAIL
Commit committer email. Example: jane@example.com
DD_GIT_COMMIT_COMMITTER_DATE
Commit committer date in ISO 8601 format. Example: 2021-03-12T16:00:28Z
Instrumentación personalizada
Nota: Tu configuración de instrumentación personalizada depende de la versión dd-trace. Para utilizar la instrumentación personalizada, debes mantener sincronizadas las versiones del paquete para dd-trace y Datadog.Trace de NuGet.
Para utilizar la instrumentación personalizada en tu aplicación .NET:
Ejecuta dd-trace --version para obtener la versión de la herramienta.
Añade el paquete de NuGetDatadog.Trace con la misma versión a tu aplicación.
En tu código de aplicación, accede al rastreador global por medio de la propiedad de Datadog.Trace.Tracer.Instance para crear nuevos tramos.
Nota: Para utilizar la API de tests manuales, debes añadir el paquete de NuGet Datadog.Trace en el proyecto .NET de destino.
Si utilizas XUnit, NUnit o MSTest con tus proyectos de .NET, CI Visibility los instrumenta automáticamente y envía los resultados de los tests a Datadog. Si utilizas un marco de test no compatible o si tienes un mecanismo de test diferente, puedes utilizar la API para informar de los resultados de los tests a Datadog.
La API se basa en tres conceptos: módulo de test, conjuntos de tests y tests.
Módulo de test
Un módulo de test representa el ensamblado de .NET que incluye los tests.
Para iniciar un módulo de test, llama a TestModule.Create() y pasa el nombre del módulo o el nombre del ensamblado de .NET donde se encuentran los tests.
Cuando todos tus tests hayan finalizado, llama a module.Close() o module.CloseAsync(), lo que obliga a la biblioteca a enviar todos los resultados de los tests restantes al backend.
Conjuntos de tests
Un conjunto de tests comprende un grupo de tests. Pueden tener métodos comunes de inicialización y desmontaje y compartir algunas variables. En .NET, suelen implementarse como una clase de test o fixture que contiene varios métodos de test. Un conjunto de tests puede tener opcionalmente información adicional como atributos o información de error.
Crea conjuntos de tests en el módulo de test llamando a module.GetOrCreateSuite() y pasando el nombre del conjunto de tests.
Llama a suite.Close() cuando todos los tests relacionados en el conjunto hayan finalizado su ejecución.
Tests
Cada test se ejecuta dentro de un conjunto y debe terminar en uno de estos tres estados: TestStatus.Pass, TestStatus.Fail o TestStatus.Skip.
Un test puede tener opcionalmente información adicional como:
Parámetros
Atributos
Información sobre errores
Rasgos de test
Datos de referencia
Crea tests en un conjunto llamando a suite.CreateTest() y pasando el nombre del test. Cuando un test finaliza, llama a test.Close() con uno de los estados predefinidos.
API de interfaz
namespaceDatadog.Trace.Ci{/// <summary>/// CI Visibility test module/// </summary>publicsealedclassTestModule{/// <summary>/// Gets the test framework/// </summary>publicstring?Framework{get;}/// <summary>/// Gets the module name/// </summary>publicstringName{get;}/// <summary>/// Gets the test module start date/// </summary>publicSystem.DateTimeOffsetStartTime{get;}/// <summary>/// Close test module/// </summary>/// <remarks>Use CloseAsync() version whenever possible.</remarks>publicvoidClose(){}/// <summary>/// Close test module/// </summary>/// <remarks>Use CloseAsync() version whenever possible.</remarks>/// <param name="duration">Duration of the test module</param>publicvoidClose(System.TimeSpan?duration){}/// <summary>/// Close test module/// </summary>/// <returns>Task instance </returns>publicSystem.Threading.Tasks.TaskCloseAsync(){}/// <summary>/// Close test module/// </summary>/// <param name="duration">Duration of the test module</param>/// <returns>Task instance </returns>publicSystem.Threading.Tasks.TaskCloseAsync(System.TimeSpan?duration){}/// <summary>/// Create a new test suite for this session/// </summary>/// <param name="name">Name of the test suite</param>/// <returns>Test suite instance</returns>publicDatadog.Trace.Ci.TestSuiteGetOrCreateSuite(stringname){}/// <summary>/// Create a new test suite for this session/// </summary>/// <param name="name">Name of the test suite</param>/// <param name="startDate">Test suite start date</param>/// <returns>Test suite instance</returns>publicDatadog.Trace.Ci.TestSuiteGetOrCreateSuite(stringname,System.DateTimeOffset?startDate){}/// <summary>/// Set Error Info from Exception/// </summary>/// <param name="exception">Exception instance</param>publicvoidSetErrorInfo(System.Exceptionexception){}/// <summary>/// Set Error Info/// </summary>/// <param name="type">Error type</param>/// <param name="message">Error message</param>/// <param name="callStack">Error callstack</param>publicvoidSetErrorInfo(stringtype,stringmessage,string?callStack){}/// <summary>/// Sets a number tag into the test/// </summary>/// <param name="key">Key of the tag</param>/// <param name="value">Value of the tag</param>publicvoidSetTag(stringkey,double?value){}/// <summary>/// Sets a string tag into the test/// </summary>/// <param name="key">Key of the tag</param>/// <param name="value">Value of the tag</param>publicvoidSetTag(stringkey,string?value){}/// <summary>/// Create a new Test Module/// </summary>/// <param name="name">Test module name</param>/// <returns>New test module instance</returns>publicstaticDatadog.Trace.Ci.TestModuleCreate(stringname){}/// <summary>/// Create a new Test Module/// </summary>/// <param name="name">Test module name</param>/// <param name="framework">Testing framework name</param>/// <param name="frameworkVersion">Testing framework version</param>/// <returns>New test module instance</returns>publicstaticDatadog.Trace.Ci.TestModuleCreate(stringname,stringframework,stringframeworkVersion){}/// <summary>/// Create a new Test Module/// </summary>/// <param name="name">Test module name</param>/// <param name="framework">Testing framework name</param>/// <param name="frameworkVersion">Testing framework version</param>/// <param name="startDate">Test session start date</param>/// <returns>New test module instance</returns>publicstaticDatadog.Trace.Ci.TestModuleCreate(stringname,stringframework,stringframeworkVersion,System.DateTimeOffsetstartDate){}}/// <summary>/// CI Visibility test suite/// </summary>publicsealedclassTestSuite{/// <summary>/// Gets the test module for this suite/// </summary>publicDatadog.Trace.Ci.TestModuleModule{get;}/// <summary>/// Gets the test suite name/// </summary>publicstringName{get;}/// <summary>/// Gets the test suite start date/// </summary>publicSystem.DateTimeOffsetStartTime{get;}/// <summary>/// Close test suite/// </summary>publicvoidClose(){}/// <summary>/// Close test suite/// </summary>/// <param name="duration">Duration of the test suite</param>publicvoidClose(System.TimeSpan?duration){}/// <summary>/// Create a new test for this suite/// </summary>/// <param name="name">Name of the test</param>/// <returns>Test instance</returns>publicDatadog.Trace.Ci.TestCreateTest(stringname){}/// <summary>/// Create a new test for this suite/// </summary>/// <param name="name">Name of the test</param>/// <param name="startDate">Test start date</param>/// <returns>Test instance</returns>publicDatadog.Trace.Ci.TestCreateTest(stringname,System.DateTimeOffsetstartDate){}/// <summary>/// Set Error Info from Exception/// </summary>/// <param name="exception">Exception instance</param>publicvoidSetErrorInfo(System.Exceptionexception){}/// <summary>/// Set Error Info/// </summary>/// <param name="type">Error type</param>/// <param name="message">Error message</param>/// <param name="callStack">Error callstack</param>publicvoidSetErrorInfo(stringtype,stringmessage,string?callStack){}/// <summary>/// Sets a number tag into the test/// </summary>/// <param name="key">Key of the tag</param>/// <param name="value">Value of the tag</param>publicvoidSetTag(stringkey,double?value){}/// <summary>/// Sets a string tag into the test/// </summary>/// <param name="key">Key of the tag</param>/// <param name="value">Value of the tag</param>publicvoidSetTag(stringkey,string?value){}}/// <summary>/// CI Visibility test/// </summary>publicsealedclassTest{/// <summary>/// Gets the test name/// </summary>publicstring?Name{get;}/// <summary>/// Gets the test start date/// </summary>publicSystem.DateTimeOffsetStartTime{get;}/// <summary>/// Gets the test suite for this test/// </summary>publicDatadog.Trace.Ci.TestSuiteSuite{get;}/// <summary>/// Add benchmark data/// </summary>/// <param name="measureType">Measure type</param>/// <param name="info">Measure info</param>/// <param name="statistics">Statistics values</param>publicvoidAddBenchmarkData(Datadog.Trace.Ci.BenchmarkMeasureTypemeasureType,stringinfo,inDatadog.Trace.Ci.BenchmarkDiscreteStatsstatistics){}/// <summary>/// Close test/// </summary>/// <param name="status">Test status</param>publicvoidClose(Datadog.Trace.Ci.TestStatusstatus){}/// <summary>/// Close test/// </summary>/// <param name="status">Test status</param>/// <param name="duration">Duration of the test suite</param>publicvoidClose(Datadog.Trace.Ci.TestStatusstatus,System.TimeSpan?duration){}/// <summary>/// Close test/// </summary>/// <param name="status">Test status</param>/// <param name="duration">Duration of the test suite</param>/// <param name="skipReason">In case </param>publicvoidClose(Datadog.Trace.Ci.TestStatusstatus,System.TimeSpan?duration,string?skipReason){}/// <summary>/// Set benchmark metadata/// </summary>/// <param name="hostInfo">Host info</param>/// <param name="jobInfo">Job info</param>publicvoidSetBenchmarkMetadata(inDatadog.Trace.Ci.BenchmarkHostInfohostInfo,inDatadog.Trace.Ci.BenchmarkJobInfojobInfo){}/// <summary>/// Set Error Info from Exception/// </summary>/// <param name="exception">Exception instance</param>publicvoidSetErrorInfo(System.Exceptionexception){}/// <summary>/// Set Error Info/// </summary>/// <param name="type">Error type</param>/// <param name="message">Error message</param>/// <param name="callStack">Error callstack</param>publicvoidSetErrorInfo(stringtype,stringmessage,string?callStack){}/// <summary>/// Set Test parameters/// </summary>/// <param name="parameters">TestParameters instance</param>publicvoidSetParameters(Datadog.Trace.Ci.TestParametersparameters){}/// <summary>/// Sets a number tag into the test/// </summary>/// <param name="key">Key of the tag</param>/// <param name="value">Value of the tag</param>publicvoidSetTag(stringkey,double?value){}/// <summary>/// Sets a string tag into the test/// </summary>/// <param name="key">Key of the tag</param>/// <param name="value">Value of the tag</param>publicvoidSetTag(stringkey,string?value){}/// <summary>/// Set Test method info/// </summary>/// <param name="methodInfo">Test MethodInfo instance</param>publicvoidSetTestMethodInfo(System.Reflection.MethodInfomethodInfo){}/// <summary>/// Set Test traits/// </summary>/// <param name="traits">Traits dictionary</param>publicvoidSetTraits(System.Collections.Generic.Dictionary<string,System.Collections.Generic.List<string>>traits){}}/// <summary>/// Test status/// </summary>publicenumTestStatus{/// <summary>/// Pass test status/// </summary>Pass=0,/// <summary>/// Fail test status/// </summary>Fail=1,/// <summary>/// Skip test status/// </summary>Skip=2,}/// <summary>/// Test parameters/// </summary>publicclassTestParameters{/// <summary>/// Gets or sets the test arguments/// </summary>publicSystem.Collections.Generic.Dictionary<string,object>?Arguments{get;set;}/// <summary>/// Gets or sets the test parameters metadata/// </summary>publicSystem.Collections.Generic.Dictionary<string,object>?Metadata{get;set;}}/// <summary>/// Benchmark measurement discrete stats/// </summary>publicreadonlystructBenchmarkDiscreteStats{/// <summary>/// Kurtosis value/// </summary>publicreadonlydoubleKurtosis;/// <summary>/// Max value/// </summary>publicreadonlydoubleMax;/// <summary>/// Mean value/// </summary>publicreadonlydoubleMean;/// <summary>/// Median value/// </summary>publicreadonlydoubleMedian;/// <summary>/// Min value/// </summary>publicreadonlydoubleMin;/// <summary>/// Number of samples/// </summary>publicreadonlyintN;/// <summary>/// 90 percentile value/// </summary>publicreadonlydoubleP90;/// <summary>/// 95 percentile value/// </summary>publicreadonlydoubleP95;/// <summary>/// 99 percentile value/// </summary>publicreadonlydoubleP99;/// <summary>/// Skewness value/// </summary>publicreadonlydoubleSkewness;/// <summary>/// Standard deviation value/// </summary>publicreadonlydoubleStandardDeviation;/// <summary>/// Standard error value/// </summary>publicreadonlydoubleStandardError;/// <summary>/// Initializes a new instance of the <see cref="BenchmarkDiscreteStats"/> struct./// </summary>/// <param name="n">Number of samples</param>/// <param name="max">Max value</param>/// <param name="min">Min value</param>/// <param name="mean">Mean value</param>/// <param name="median">Median value</param>/// <param name="standardDeviation">Standard deviation value</param>/// <param name="standardError">Standard error value</param>/// <param name="kurtosis">Kurtosis value</param>/// <param name="skewness">Skewness value</param>/// <param name="p99">99 percentile value</param>/// <param name="p95">95 percentile value</param>/// <param name="p90">90 percentile value</param>publicBenchmarkDiscreteStats(intn,doublemax,doublemin,doublemean,doublemedian,doublestandardDeviation,doublestandardError,doublekurtosis,doubleskewness,doublep99,doublep95,doublep90){}/// <summary>/// Get benchmark discrete stats from an array of doubles/// </summary>/// <param name="values">Array of doubles</param>/// <returns>Benchmark discrete stats instance</returns>publicstaticDatadog.Trace.Ci.BenchmarkDiscreteStatsGetFrom(double[]values){}}/// <summary>/// Benchmark host info/// </summary>publicstructBenchmarkHostInfo{/// <summary>/// Chronometer Frequency/// </summary>publicdouble?ChronometerFrequencyHertz;/// <summary>/// Chronometer resolution/// </summary>publicdouble?ChronometerResolution;/// <summary>/// Logical core count/// </summary>publicint?LogicalCoreCount;/// <summary>/// OS Version/// </summary>publicstring?OsVersion;/// <summary>/// Physical core count/// </summary>publicint?PhysicalCoreCount;/// <summary>/// Physical processor count/// </summary>publicint?ProcessorCount;/// <summary>/// Processor max frequency hertz/// </summary>publicdouble?ProcessorMaxFrequencyHertz;/// <summary>/// Processor Name/// </summary>publicstring?ProcessorName;/// <summary>/// Runtime version/// </summary>publicstring?RuntimeVersion;}/// <summary>/// Benchmark job info/// </summary>publicstructBenchmarkJobInfo{/// <summary>/// Job description/// </summary>publicstring?Description;/// <summary>/// Job platform/// </summary>publicstring?Platform;/// <summary>/// Job runtime moniker/// </summary>publicstring?RuntimeMoniker;/// <summary>/// Job runtime name/// </summary>publicstring?RuntimeName;}/// <summary>/// Benchmark measure type/// </summary>publicenumBenchmarkMeasureType{/// <summary>/// Duration in nanoseconds/// </summary>Duration=0,/// <summary>/// Run time in nanoseconds/// </summary>RunTime=1,/// <summary>/// Mean heap allocations in bytes/// </summary>MeanHeapAllocations=2,/// <summary>/// Total heap allocations in bytes/// </summary>TotalHeapAllocations=3,/// <summary>/// Application launch in nanoseconds/// </summary>ApplicationLaunch=4,/// <summary>/// Garbage collector gen0 count/// </summary>GarbageCollectorGen0=5,/// <summary>/// Garbage collector gen1 count/// </summary>GarbageCollectorGen1=6,/// <summary>/// Garbage collector gen2 count/// </summary>GarbageCollectorGen2=7,/// <summary>/// Memory total operations count/// </summary>MemoryTotalOperations=8,}}
Ejemplo de código
El siguiente código representa un uso sencillo de la API: