Este producto no es compatible con el
sitio Datadog seleccionado. (
).
Utiliza el destino Azure Storage para enviar logs a un bucket de Azure Storage. Si deseas enviar logs a Azure Storage para archivado y rehidratación, debes configurar archivos de logs. Si no deseas rehidratar los logs en Datadog, pase a Configurar el destino para tu pipeline.
Configurar archivos de logs
Este step (UI) / paso (generic) solo es necesario si deseas enviar logs a Azure Storage en formato rehidratable de Datadog para archivado y rehidratación y aún no tienes un archivo de logs de Datadog configurado para Observability Pipelines. Si ya tienes un archivo de logs de Datadog configurado o no deseas rehidratar los logs en Datadog, ve a Configurar el destino para tu pipeline.
Necesitas tener la integración de Azure de Datadog instalada para configurar archivos de logs de Datadog.
Create a storage account
Create an Azure storage account if you don’t already have one.
- Navigate to Storage accounts.
- Click Create.
- Select the subscription name and resource name you want to use.
- Enter a name for your storage account.
- Select a region in the dropdown menu.
- Select Standard performance or Premium account type.
- Click Next.
- In the Blob storage section, select Hot or Cool storage.
- Click Review + create.
Create a storage bucket
- In your storage account, click Containers under Data storage in the left navigation menu.
- Click + Container at the top to create a new container.
- Enter a name for the new container. This name is used later when you set up the Observability Pipelines Azure Storage destination.
Note: Do not set immutability policies because the most recent data might need to be rewritten in rare cases (typically when there is a timeout).
Connect the Azure container to Datadog Log Archives
- Navigate to Datadog Log Forwarding.
- Click New archive.
- Enter a descriptive archive name.
- Add a query that filters out all logs going through log pipelines so that none of those logs go into this archive. For example, add the query
observability_pipelines_read_only_archive, assuming no logs going through the pipeline have that tag added. - Select Azure Storage.
- Select the Azure tenant and client your storage account is in.
- Enter the name of the storage account.
- Enter the name of the container you created earlier.
- Optionally, enter a path.
- Optionally, set permissions, add tags, and define the maximum scan size for rehydration. See Advanced settings for more information.
- Click Save.
See the Log Archives documentation for additional information.
Configurar el destino de tu pipeline
Configura el destino de Azure Storage y tus variables de entorno cuando configures un pipeline de logs de archivo. La siguiente información se configura en la interfaz de usuario de pipelines.
- Introduce el nombre del contenedor Azure que creaste anteriormente.
- Si lo deseas, introduce un prefijo.
- Los prefijos son útiles para particionar objetos. Por ejemplo, puedes utilizar un prefijo como clave de objeto para almacenar objetos en un directorio concreto. Si se utiliza un prefijo con este fin, debe terminar en
/ para que actúe como una ruta de directorio; no se añade automáticamente un / al final. - Consulta sintaxis de plantillas si deseas dirigir los logs a diferentes claves de objeto en función de campos específicos de tus logs.
- Nota: Datadog recomienda empezar los prefijos con el nombre del directorio y sin barra oblicua (
/). Por ejemplo, app-logs/ o service-logs/.
- Opcionalmente, activa el interruptor para activar Buffering Options (Opciones de almacenamiento en búfer).
Nota: Las opciones de almacenamiento en búfer están en vista previa. Ponte en contacto con tu gestor de cuenta para solicitar acceso.- Si se deja desactivado, el tamaño máximo del búfer es de 500 eventos.
- Si está activado:
- Selecciona el tipo de búfer que deseas configurar (Memoria o Disco).
- Introduce el tamaño del búfer y selecciona la unidad.
Configurar las variables de entorno
Azure Storage
- Azure connections string to give the Worker access to your Azure Storage bucket.
- Stored in the environment variable
DD_OP_DESTINATION_DATADOG_ARCHIVES_AZURE_BLOB_CONNECTION_STRING.
To get the connection string:
- Navigate to Azure Storage accounts.
- Click Access keys under Security and networking in the left navigation menu.
- Copy the connection string for the storage account and paste it into the Azure connection string field on the Observability Pipelines Worker installation page.
Cómo funciona el destino
Procesamiento de eventos por lotes
Un lote de eventos se descarga cuando se cumple uno de estos parámetros. Consulta lote de eventos para obtener más información.
| Eventos máximos | Bytes máximos | Tiempo de espera (segundos) |
|---|
| Ninguno | 100,000,000 | 900 |