diff --git a/config/_default/params.es.yaml b/config/_default/params.es.yaml index 47fba7cd402a6..96b618bb9c7ae 100644 --- a/config/_default/params.es.yaml +++ b/config/_default/params.es.yaml @@ -1,10 +1,16 @@ -site_name: "Datadog Infrastructure and Application Monitoring" -meta_title: Getting Started with Datadog -meta_description: Datadog, the leading service for cloud-scale monitoring. -disclaimer: "This page is not yet available in Spanish. We are working on its translation.
If you have any questions or feedback about our current translation project, feel free to reach out to us!" announcement_banner: - desktop_message: Datadog named a Leader in the Gartner® Magic Quadrant™ for Observability Platforms - mobile_message: Leader in the Gartner® Magic Quadrant™ + desktop_message: Datadog named a Leader in the Gartner® Magic Quadrant™ for Observability + Platforms external_link: https://www.datadoghq.com/resources/gartner-magic-quadrant-observability-platforms-2025/?utm_source=inbound&utm_medium=corpsite-display&utm_campaign=dg-apm-ww-announcement-corpsite-announcement-gartnermq2025-obsplat -translate_status_banner: "This translation isn't up-to-date. For the latest English version, click here" -site_support_banner: "This product is not supported for your selected Datadog site." + mobile_message: Leader in the Gartner® Magic Quadrant™ +disclaimer: Esta página aún no está disponible en español. Estamos trabajando en su + traducción.
Si tienes alguna pregunta o comentario sobre nuestro actual proyecto + de traducción, no dudes en ponerte + en contacto con nosotros. +meta_description: Datadog, el servicio líder de monitorización a escala en nube. +meta_title: Empezando con Datadog +site_name: Monitorización de la infraestructura y las aplicaciones de Datadog +site_support_banner: Este producto no es compatible con el sitio + Datadog seleccionado. +translate_status_banner: Esta traducción no está actualizada. Para consultar la última + versión en inglés, haz clic aquí diff --git a/content/es/account_management/_index.md b/content/es/account_management/_index.md index 53071c178908e..723c9ea06a80f 100644 --- a/content/es/account_management/_index.md +++ b/content/es/account_management/_index.md @@ -6,10 +6,17 @@ cascade: algolia: rank: 70 description: Gestiona tu cuenta de Datadog y tu organización +further_reading: +- link: https://www.datadoghq.com/blog/volkswagen-organizations/ + tag: Blog + text: Prácticas recomendadas para gestionar organizaciones de Datadog a escala title: Gestión de cuentas --- {{< site-region region="gov" >}} -
El sitio Datadog for Government solo admite el inicio de sesión con SAML.
+
La plataforma Datadog for Government sólo admite la autenticación SAML o básica mediante nombre de usuario/correo electrónico y contraseña. Antes de configurar la autenticación SAML, asegúrate de definir al menos una cuenta con nombre de usuario/correo electrónico y contraseña para mantener el acceso durante el proceso de configuración. Datadog recomienda habilitar la autenticación multifactor (MFA) para las cuentas basadas en contraseña. + +Si necesitas habilitar SAML para una cuenta de prueba, ponte en contacto con el servicio de asistencia de Datadog.
+ {{< /site-region >}} ## Parámetros personales @@ -26,13 +33,13 @@ Si inicias sesión en Datadog mediante la autenticación de Google, tu cuenta de ### Preferencias -{{% site-region region="us,us3,us5,eu,ap1" %}} -Puedes gestionar tu zona horaria, preferencia de accesibilidad visual y suscripciones de correo electrónico desde la pestaña [Preferences][3] (Preferencias) en la página **Personal Settings** (Configuración personal). +{{% site-region region="us,us3,us5,eu,ap1,ap2" %}} +Puedes gestionar tu zona horaria, preferencia de accesibilidad visual y suscripciones de correo electrónico desde la [pestaña Preferencias][3] en la página **Configuración personal**. #### Suscripciones por correo electrónico En las suscripciones por correo electrónico, tienes acceso a los siguientes informes: -{{< site-region region="us3,us5,gov,ap1" >}} +{{< site-region region="us3,us5,gov,ap1,ap2" >}}
Los resúmenes de correo electrónico no están disponibles en el sitio seleccionado ({{< region-param key="dd_site_name" >}}).
{{< /site-region >}} @@ -59,7 +66,7 @@ En la pestaña [Organizations][12] (Organizaciones) de **Personal Settings** (Co **Nota**: Si abandonas una organización, no podrás volver a unirte, a no ser que te invite un administrador de esa organización. -Para unirte a una organización existente, es necesario que un administrador te invite. Tras recibir la invitación, se te enviará un correo electrónico con el asunto "You've been invited to join ". Haz clic en el botón **Join Account** (Unirse a la cuenta) en el mensaje. +Para unirte a una organización existente, debes recibir la invitación de un administrador. Después de recibirla, se te enviará un correo electrónico con el asunto "Recibiste una invitación para unirte \". Haz clic en el botón **Unirse a la cuenta** del correo electrónico. Si eres administrador de una organización, consulta la documentación de referencia adicional para: diff --git a/content/es/agent/configuration/network.md b/content/es/agent/configuration/network.md new file mode 100644 index 0000000000000..383ec2ae337a3 --- /dev/null +++ b/content/es/agent/configuration/network.md @@ -0,0 +1,432 @@ +--- +algolia: + tags: + - tráfico de red + - destinos + - puertos + - almacenamiento de datos en buffer + - direcciones IP estáticas +aliases: +- /es/account_management/faq/what-are-the-required-ip-s-and-ports-i-need-open-to-connect-to-the-datadog-service +- /es/account_management/faq/can-i-whitelist-the-ip-addresses-for-data-coming-from-datadog-via-webhook-and-integrations +- /es/agent/network +- /es/agent/faq/network +- /es/agent/guide/network +further_reading: +- link: /getting_started/site + tag: Documentación + text: Más información sobre el sitio de Datadog +- link: /logs/ + tag: Documentación + text: Recopilar logs +- link: /infrastructure/process + tag: Documentación + text: Recopilar procesos +- link: rastreo + tag: Documentación + text: Recopilar trazas (traces) +title: Tráfico de red +--- + +## Información general + +
+El Agent siempre inicia el tráfico hacia Datadog. Nunca se inician sesiones desde Datadog hacia el Agent. +
+ +Todo el tráfico del Agent se envía a través de SSL. El destino depende del sitio y servicio de Datadog. Para ver los destinos basados en tu [sitio de Datadog][11], haz clic en el selector `DATADOG SITE` de la derecha. + +## Instalación + +Añade los siguientes dominios a tu lista de inclusión para permitir la instalación del Agent: + +- `install.datadoghq.com` +- `yum.datadoghq.com` +- `keys.datadoghq.com` +- `apt.datadoghq.com` + +## Destinos + +[APM][1] +: `trace.agent.`{{< region-param key="dd_site" code="true" >}}
+`instrumentation-telemetry-intake.`{{< region-param key="dd_site" code="true" >}} + +[LLM Observabilty][23] +: `llmobs-intake.`{{< region-param key="dd_site" code="true" >}} + +[Imágenes de contenedor][13] +: `contimage-intake.`{{< region-param key="dd_site" code="true" >}} + +[Live Containers][3], [Live Process][4], [Monitorización de red en la nube][24], [Universal Service Monitoring][25] +: `process.`{{< region-param key="dd_site" code="true" >}} + +[Monitorización de dispositivos de red][10] +: `ndm-intake.`{{< region-param key="dd_site" code="true" >}}
+`snmp-traps-intake.`{{< region-param key="dd_site" code="true" >}}
+`ndmflow-intake.`{{< region-param key="dd_site" code="true" >}} + +[Network Path][14] +: `netpath-intake.`{{< region-param key="dd_site" code="true" >}} + +[Orquestador][5] +: `orchestrator.`{{< region-param key="dd_site" code="true" >}}
+`contlcycle-intake.`{{< region-param key="dd_site" code="true" >}} + +[Generación de perfiles][7] +: `intake.profile.`{{< region-param key="dd_site" code="true" >}} + +[Real User Monitoring (RUM)][6] +: {{< region-param key="browser_sdk_endpoint_domain" code="true" >}} + +[Localizaciones privadas de la monitorización Synthetic][8] +: Synthetics Worker v1.5.0 o posteriores: `intake.synthetics.`{{< region-param key="dd_site" code="true" >}} es el único endpoint que necesitas configurar.
+Resultados de la prueba de API para las versiones de Synthetics Worker superiores a la 0.1.6: `intake.synthetics.`{{< region-param key="dd_site" code="true" >}}
+Resultados de la prueba del navegador para las versiones de Synthetics Worker superiores a la 0.2.0: `intake-v2.synthetics.`{{< region-param key="dd_site" code="true" >}}
+Resultados de la prueba de API para las versiones de Synthetics Worker anteriores a la 0.1.5: `api.`{{< region-param key="dd_site" code="true" >}} + +{{% site-region region="us,eu,us3,us5,ap1,ap2" %}} + +[Configuración remota][101] +: `config.`{{< region-param key="dd_site" code="true" >}} + +[Monitorización de base de datos][102] +: `dbm-metrics-intake.`{{< region-param key="dd_site" code="true" >}}
+`dbquery-intake.`{{< region-param key="dd_site" code="true" >}} + +[101]: /es/agent/remote_config +[102]: /es/database_monitoring/ + +{{% /site-region %}} + +{{% site-region region="us" %}} +[Logs][200] y [logs de HIPAA][201] +: TCP: `agent-intake.logs.datadoghq.com`
+HTTP: `agent-http-intake.logs.datadoghq.com`
+Otros: consulta los [endpoints para logs][203] + +[Logs heredados de HIPAA][201] +: `tcp-encrypted-intake.logs.datadoghq.com`
+`lambda-tcp-encrypted-intake.logs.datadoghq.com`
+`gcp-encrypted-intake.logs.datadoghq.com`
+`http-encrypted-intake.logs.datadoghq.com` + +[200]: /es/logs/ +[201]: /es/data_security/logs/#hipaa-enabled-customers +[203]: /es/logs/log_collection/#logging-endpoints +{{% /site-region %}} + +{{% site-region region="eu" %}} +[Logs][200] y [logs de HIPAA][201] +: TCP: `agent-intake.logs.datadoghq.eu`
+HTTP: `agent-http-intake.logs.datadoghq.eu`
+Otros: consulta los [endpoints para logs][202] + +[Logs heredados de HIPAA][201] +: `tcp-encrypted-intake.logs.datadoghq.eu`
+`lambda-tcp-encrypted-intake.logs.datadoghq.eu`
+`gcp-encrypted-intake.logs.datadoghq.eu`
+`http-encrypted-intake.logs.datadoghq.eu` + +[200]: /es/logs/ +[201]: /es/data_security/logs/#hipaa-enabled-customers +[202]: /es/logs/log_collection/#logging-endpoints +{{% /site-region %}} + +{{% site-region region="us3" %}} +[Logs][200] y [logs de HIPAA][201] +: HTTP: `agent-http-intake.logs.us3.datadoghq.com`
+Otros: consulta los [endpoints para logs][202] + +[Logs heredados de HIPAA][201] +: `lambda-tcp-encrypted-intake.logs.us3.datadoghq.com`
+`gcp-encrypted-intake.logs.us3.datadoghq.com`
+`http-encrypted-intake.logs.us3.datadoghq.com` + +[200]: /es/logs/ +[201]: /es/data_security/logs/#hipaa-enabled-customers +[202]: /es/logs/log_collection/#logging-endpoints +{{% /site-region %}} + +{{% site-region region="us5" %}} +[Logs][200] y [logs de HIPAA][201] +: HTTP: `agent-http-intake.logs.us5.datadoghq.com`
+Otros: consulta los [endpoints para logs][202] + +[Logs heredados de HIPAA][201] +: `lambda-tcp-encrypted-intake.logs.us5.datadoghq.com`
+`gcp-encrypted-intake.logs.us5.datadoghq.com`
+`http-encrypted-intake.logs.us5.datadoghq.com` + +[200]: /es/logs/ +[201]: /es/data_security/logs/#hipaa-enabled-customers +[202]: /es/logs/log_collection/#logging-endpoints +{{% /site-region %}} + +{{% site-region region="ap1" %}} +[Logs][200] y [Logs de HIPAA][201] +: HTTP: `agent-http-intake.logs.ap1.datadoghq.com`
+Otros: Consulta [endpoints de logs][202] + +[200]: /es/logs/ +[201]: /es/data_security/logs/#hipaa-enabled-customers +[202]: /es/logs/log_collection/#logging-endpoints +{{% /site-region %}} + +{{% site-region region="ap2" %}} +[Logs][200] y [Logs de HIPAA][201] +: HTTP: `agent-http-intake.logs.ap2.datadoghq.com`
+Otros: Consulta [endpoints de logs][202] + +[200]: /es/logs/ +[201]: /es/data_security/logs/#hipaa-enabled-customers +[202]: /es/logs/log_collection/#logging-endpoints +{{% /site-region %}} + +{{% site-region region="gov" %}} +[Logs][200] y [logs de HIPAA][201] +: HTTP: `agent-http-intake.logs.ddog-gov.com`
+Otros: consulta los [endpoints para logs][202] + +[Logs heredados de HIPAA][201] +: `lambda-tcp-encrypted-intake.logs.ddog-gov.com`
+`gcp-encrypted-intake.logs.ddog-gov.com`
+`http-encrypted-intake.logs.ddog-gov.com` + +[200]: /es/logs/ +[201]: /es/data_security/logs/#hipaa-enabled-customers +[202]: /es/logs/log_collection/#logging-endpoints +{{% /site-region %}} + +[Métricas][26], [Checks de servicio][27], [Eventos][28] y otros metadatos del Agent +: `-app.agent.`{{< region-param key="dd_site" code="true" >}}
+Por ejemplo, el Agent v7.31.0 informa a `7-31-0-app.agent.`{{< region-param key="dd_site" code="true" >}}. Debes añadir `*.agent.`{{< region-param key="dd_site" code="true" >}} a tu lista de inclusión en tu(s) firewall(s).
+Desde la versión 6.1.0, el Agent también consulta la API de Datadog para proporcionar funciones no críticas (por ejemplo, mostrar la validez de la clave de la API configurada):
+Agent v7.18.0 o 6.18.0 y posteriores: `api.`{{< region-param key="dd_site" code="true" >}}
+Agent < v7.18.0 o 6.18.0: `app.`{{< region-param key="dd_site" code="true" >}} + +[Flare del Agent][12] +: `-flare.agent.`{{< region-param key="dd_site" code="true" >}}
+Por ejemplo, la versión 7.31.0 del Agent envía datos de flare a `7-31-0-flare.agent.`{{< region-param key="dd_site" code="true" >}}. Debes añadir `*.agent.`{{< region-param key="dd_site" code="true" >}} a la lista de inclusión en tus firewalls.
+ +### Direcciones IP estáticas + +Todos estos dominios son registros **CNAME** que apuntan a un conjunto de direcciones IP estáticas. Puedes encontrar estas direcciones en `https://ip-ranges.`{{< region-param key="dd_site" code="true" >}}. + +La información se estructura como JSON siguiendo este esquema: + +{{< code-block lang="text" disable_copy="true" >}} +{ + "version": 1, // <-- se incrementa cada vez que se modifica esta información + "modified": "YYYY-MM-DD-HH-MM-SS", // <-- fecha y hora de la última modificación + "agents": { // <-- las IP utilizadas por el Agent para enviar métricas a Datadog + "prefixes_ipv4": [ // <-- lista de bloques CIDR IPv4 + "a.b.c.d/x", + ... + ], + "prefixes_ipv6": [ // <-- lista de bloques CIDR IPv6 + ... + ] + }, + "api": {...}, // <-- las IP utilizadas por el Agent para funciones no críticas (consulta de información desde la API). + "apm": {...}, // <-- las IP utilizadas por el Agent para enviar datos de APM a Datadog + "logs": {...}, // <-- las IP utilizadas por el Agent para enviar los logs a Datadog + "process": {...}, // <-- las IP utilizadas por el Agent para enviar datos de proceso a Datadog + "orchestrator": {...}, // <-- las IP utilizadas por el Agent para enviar datos del contenedor a Datadog + "remote-configuration": {...}, // <-- las IP utilizadas por el Agent para recuperar su configuración dinámica + "synthetics": {...}, // <-- las IP de source (fuente) utilizadas por los trabajadores de Synthetic (no utilizadas por el Agent) + "synthetics-private-locations": {...}, // <-- las IP utilizadas por los trabajadores de Synthetics Private Locations para enviar datos a Datadog (no utilizadas por el Agent) + "webhooks": {...} // <-- las IP de source (fuente) utilizadas por Datadog para conectarse a infraestructuras de terceros a través de HTTP (no utilizadas por el Agent) +} +{{< /code-block >}} + +Cada sección tiene un endpoint específico. Por ejemplo: + +- `https://ip-ranges.{{< region-param key="dd_site" >}}/logs.json` para las IPs utilizadas para recibir datos de logs a través de TCP. +- `https://ip-ranges.{{< region-param key="dd_site" >}}/apm.json` para las IPs utilizadas para recibir datos de APM. + +### Inclusión + +Añade todos los `ip-ranges` a tu lista de inclusión. Aunque solo un subconjunto esté activo en un momento dado, con el paso del tiempo se producen variaciones en el conjunto debido al funcionamiento y mantenimiento regulares de la red. + +## Puertos abiertos + +
+Todo el tráfico saliente se envía a través de SSL por TCP o UDP. +

+Utiliza una regla de cortafuegos, o una restricción de red similar, para asegurarte de que el Agent solo es accesible para tus aplicaciones o fuentes de red de confianza. Si se accede a él desde una fuente no fiable, los agentes maliciosos pueden realizar diversas acciones invasivas, entre las que se incluyen escribir trazas y métricas en tu cuenta de Datadog u obtener información sobre tu configuración y servicios. +
+ +Abre los siguientes puertos para beneficiarte de todas las funcionalidades del **Agent**: + +#### Salida + +{{% site-region region="us" %}} + +| Producto/Función | Puerto | Protocolo | Descripción | +| ------ | ---- | ------- | ----------- | +| Agent
APM
Contenedores
Procesos activos
Métricas
Monitorización de redes en la nube
Universal Service Monitoring | 443 | TCP | La mayoría de los datos del Agent utilizan el puerto 443. | +| [Autoescala personalizada del Agent][22] | 8443 | TCP | | +| Recopilación de logs | 10516 | TCP | Registro a través de TCP. Consulta [endpoints de logs][21] para otros tipos de connection (conexión). | +| NTP | 123 | UDP | Protocolo de tiempo de red (NTP). Consulta [Destinos NTP predeterminados][20].
Para obtener información sobre la solución de problemas NTP, consulta [Problemas NTP][19]. | + +[19]: /es/agent/faq/network-time-protocol-ntp-offset-issues/ +[20]: /es/integrations/ntp/#overview +[21]: /es/logs/log_collection/#logging-endpoints +[22]: /es/containers/guide/cluster_agent_autoscaling_metrics + +{{% /site-region %}} + +{{% site-region region="eu" %}} + +| Producto/Función | Puerto | Protocolo | Descripción | +| ------ | ---- | ------- | ----------- | +| Agent
APM
Contenedores
Procesos activos
Métricas
Monitorización de redes en la nube
Universal Service Monitoring | 443 | TCP | La mayoría de los datos del Agent utilizan el puerto 443. | +| [Autoescala personalizada del Agent][22] | 8443 | TCP | | +| Recopilación de logs | 443 | TCP | Registro a través de TCP. Consulta [endpoints de logs][21] para otros tipos de connection (conexión). | +| NTP | 123 | UDP | Protocolo de tiempo de red (NTP). Consulta [Destinos NTP predeterminados][20].
Para obtener información sobre la solución de problemas NTP, consulta [Problemas NTP][19]. | + +[19]: /es/agent/faq/network-time-protocol-ntp-offset-issues/ +[20]: /es/integrations/ntp/#overview +[21]: /es/logs/log_collection/#logging-endpoints +[22]: /es/containers/guide/cluster_agent_autoscaling_metrics + +{{% /site-region %}} + +{{% site-region region="us3,us5,gov,ap1,ap2" %}} + +| Producto/Función | Puerto | Protocolo | Descripción | +| ------ | ---- | ------- | ----------- | +| Agent
APM
Contenedores
Procesos activos
Métricas
Monitorización de redes en la nube
Universal Service Monitoring | 443 | TCP | La mayoría de los datos del Agent utilizan el puerto 443. | +| NTP | 123 | UDP | Protocolo de tiempo de red (NTP). Consulta [Destinos NTP predeterminados][20].
Para obtener información sobre la solución de problemas NTP, consulta [Problemas NTP][19]. | + +[19]: /es/agent/faq/network-time-protocol-ntp-offset-issues/ +[20]: /es/integrations/ntp/#overview + +{{% /site-region %}} + +#### Entrada + +Solo se utiliza para los servicios del Agent que se comunican entre sí de manera local dentro del host. + +| Producto/Función | Puerto | Protocolo | Descripción | +| ------ | ---- | ------- | ----------- | +| [GUI de navegador del Agent][16] | 5002 | TCP | | +| Receptor de APM | 8126 | TCP | Incluye el rastreo y el generador de perfiles. | +| [DogStatsD][18] | 8125 | UDP | Puerto para DogStatsD a menos que `dogstatsd_non_local_traffic` esté configurado como true. Este puerto está disponible en IPv4 localhost: `127.0.0.1`. | +| servidor de go_expvar (APM) | 5012 | TCP | Para obtener más información, consulta [la documentación de integración de go_expar][15]. | +| servidor de integración de go_expvar | 5000 | TCP | Para obtener más información, consulta [la documentación de integración de go_expar][15]. | +| API DE LA IPC | 5001 | TCP | Puerto utilizado para la comunicación entre procesos (IPC). | +| Depuración del Agent del proceso | 6062 | TCP | Endpoints de depuración para el Agent del proceso. | +| Tiempo de ejecución del Agent del proceso | 6162 | TCP | Parámetros de configuración del tiempo de ejecución para el Agent del proceso. | + +## Configurar puertos + +Si necesitas cambiar un puerto de entrada, porque el puerto predeterminado ya lo utiliza un servicio existente en tu red, edita el archivo de configuración `datadog.yaml`. Puedes encontrar la mayoría de los puertos en la sección **Configuración avanzada** del archivo: + +{{< code-block lang="yaml" filename="datadog.yaml" disable_copy="true" collapsible="true" >}} +## @param expvar_port - integer - optional - default: 5000 +## @env DD_EXPVAR_PORT - integer - optional - default: 5000 +## El puerto para el servidor go_expvar. +# +# expvar_port: 5000 + +## @param cmd_port - integer - optional - default: 5001 +## @env DD_CMD_PORT - integer - optional - default: 5001 +## El puerto en el que escucha la API IPC. +# +# cmd_port: 5001 + +## @param GUI_port - integer - optional +## @env DD_GUI_PORT - integer - optional +## El puerto al que sirve la GUI del navegador. +## El parámetro 'GUI_port: -1' desactiva completamente la GUI +## De forma predeterminada es: +## * Windows y macOS : `5002` +## * Linux: `-1` +## +# +# GUI_port: + +{{< /code-block >}} + +El receptor de APM y los puertos DogStatsD se encuentran en las secciones **Trace Collection Configuration** (Configuración de la recopilación de trazas) y **DogStatsD Configuration** (Configuración de DogStatsD) en el archivo de configuración `datadog.yaml`, respectivamente: + +{{< code-block lang="yaml" filename="datadog.yaml" disable_copy="true" collapsible="true" >}} +## @param dogstatsd_port - integer - optional - default: 8125 +## @env DD_DOGSTATSD_PORT - integer - optional - default: 8125 +## Anula el puerto DogStatsD del Agent. +## Nota: Asegúrate de que tu cliente realiza el envío al mismo puerto UDP. +# +# dogstatsd_port: 8125 + +[...] + +## @param receiver_port - integer - optional - default: 8126 +## @env DD_APM_RECEIVER_PORT - integer - optional - default: 8126 +## El puerto en el que debe escuchar el receptor de trazas. +## Configurar con el valor 0 para desactivar el receptor HTTP. +# +# receiver_port: 8126 +{{< /code-block >}} + +
Si modificas aquí el valor del puerto DogStatsD o del puerto del receptor de APM, también deberás cambiar la configuración de la biblioteca de rastreo de APM para el puerto correspondiente. Consulta la información sobre cómo configurar puertos en los documentos de configuración de bibliotecas disponibles en tu idioma.
+ +## Utilizar proxies + +Para obtener una guía de configuración detallada sobre la configuración del proxy, consulta la página: [Configuración del proxy del Agent][9]. + +## Almacenamiento de datos en búfer + +Si la red deja de estar disponible, el Agent almacena las métricas en la memoria. +El uso máximo de la memoria para almacenar las métricas se define en el parámetro de configuración `forwarder_retry_queue_payloads_max_size`. Cuando se alcanza este límite, las métricas se eliminan. + +La versión 7.27.0 (o posterior) del Agent almacena las métricas en disco cuando se alcanza el límite de la memoria. Habilita esta función al establecer `forwarder_storage_max_size_in_bytes` como un valor positivo que indique el tamaño máximo de espacio de almacenamiento, en bytes, que el Agent puede utilizar para almacenar las métricas en disco. + +Las métricas se almacenan en la carpeta que define el parámetro `forwarder_storage_path`. Por defecto, en los sistemas Unix es`/opt/datadog-agent/run/transactions_to_retry` y en Windows `C:\ProgramData\Datadog\run\transactions_to_retry`. + +Para evitar que se agote el espacio de almacenamiento, el Agent almacena las métricas en el disco sólo si el espacio de almacenamiento total utilizado es inferior al 80 %. Este límite se define mediante la configuración de `forwarder_storage_max_disk_ratio`. + +## Instalación del Datadog Operator + +Si estás instalando el Datadog Operator en un entorno Kubernetes con conectividad limitada, debes permitir los siguientes endpoints para el puerto TCP 443, en función de tu ubicación: + +- `gcr.io/datadoghq` (GCR US) +- `eu.gcr.io/datadoghq` (IGC Europa) +- `asia.gcr.io/datadoghq` (IGC Asia) +- `datadoghq.azurecr.io` (Azure) +- `public.ecr.aws/datadog` (AWS) +- `docker.io/datadog` (DockerHub) + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/tracing/ +[2]: /es/database_monitoring/ +[3]: /es/infrastructure/livecontainers/ +[4]: /es/infrastructure/process/ +[5]: /es/infrastructure/containers/#kubernetes-orchestrator-explorer +[6]: /es/real_user_monitoring/ +[7]: /es/profiler/ +[8]: /es/synthetics/private_locations +[9]: /es/agent/configuration/proxy/ +[10]: /es/network_monitoring/devices +[11]: /es/getting_started/site/ +[12]: /es/agent/troubleshooting/send_a_flare +[13]: /es/infrastructure/containers/container_images +[14]: /es/network_monitoring/network_path/ +[15]: /es/integrations/go_expvar/ +[16]: /es/agent/basic_agent_usage/#gui +[17]: /es/tracing/ +[18]: /es/developers/dogstatsd/ +[19]: /es/agent/faq/network-time-protocol-ntp-offset-issues/ +[20]: /es/integrations/ntp/#overview +[21]: /es/logs/log_collection/#logging-endpoints +[22]: /es/containers/guide/cluster_agent_autoscaling_metrics +[23]: /es/llm_observability/ +[24]: /es/network_monitoring/cloud_network_monitoring/ +[25]: /es/universal_service_monitoring/ +[26]: /es/metrics/ +[27]: /es/developers/service_checks/ +[28]: /es/events/ \ No newline at end of file diff --git a/content/es/agent/fleet_automation/_index.md b/content/es/agent/fleet_automation/_index.md index dc0a7e0294e1d..201181b3806ac 100644 --- a/content/es/agent/fleet_automation/_index.md +++ b/content/es/agent/fleet_automation/_index.md @@ -14,49 +14,64 @@ further_reading: title: Automatización de flotas --- -{{< callout btn_hidden="true">}}La automatización de flotas está en fase beta. Accede a ella desde la página Automatización de flotas de Datadog.{{< /callout >}} - ## Información general La automatización de flotas de Datadog te permite controlar de forma centralizada y gestionar en remoto Datadog Agents a escala para responder a tus necesidades de observabilidad en constante evolución. -{{< img src="agent/fleet_automation/fleet-automation.png" alt="Página de automatización de flotas" style="width:100%;" >}} +{{< img src="/agent/fleet_automation/fleet_automation2.png" alt="Página de Fleet Automation" style="width:100%;" >}} + +## Casos prácticos Con la plataforma de automatización de flotas, puedes: -- Visualizar el Agent y las configuraciones de sus integraciones para ayudar a confirmar cambios en la implementación y garantizar la coherencia de la configuración. +- Consulte las últimas configuraciones del Agent y los cambios históricos para confirmar las actualizaciones del despliegue y garantizar la coherencia de la configuración. +- Asegúrate de que tu flota de Agent utiliza las últimas mejoras identificando y actualizando las versiones obsoletas de Agent. - Enviar un flare desde dentro de tu organización, reduciendo así el tiempo que se tarda en depurar problemas en un Agent. -- Asegurarte de que tu flota de Agents utiliza las últimas mejoras, identificando las versiones obsoletas del Agent. - Ayudar a rotar las claves API y asegurarte de que las claves antiguas pueden desactivarse sin ningún impacto, identificando cuáles y cuántos Agents utilizan una clave específica. +## Configurar Fleet Automation + +- **Actualización y configuración remotas de Agents**: para obtener información sobre las versiones del Agent compatibles y los pasos de configuración, consulta [Activar la gestión remota de Agent][3]. +- **Ver la configuración del Agent**: la vista de configuración del Agent está habilitada por defecto en las versiones del Agent 7.47.0 o posteriores. Para habilitar la configuración del Agent manualmente, establece `inventories_configuration_enabled` en tu [archivo de configuración del Agent][2] a `true`. También puedes utilizar la variable de entorno `DD_INVENTORIES_CONFIGURATION_ENABLED`. +- **Ver configuración de una integración del Agent**: la configuración de una integración del Agent está habilitada por defecto en las versiones 7.49/6.49 o posteriores del Agent. Para habilitar la configuración de una integración del Agent manualmente, define`inventories_checks_configuration_enabled` en tu [archivo de configuración del Agent][2] como `true`. También puedes utilizar la variable de entorno `DD_INVENTORIES_CHECKS_CONFIGURATION_ENABLED`. + +## Observar tu flota + Utiliza la página [**Automatización de la flota**][1] para obtener información sobre hosts no supervisados, Agents que deben actualizarse o Agents que presentan problemas de integración. Para cada Agent, puedes ver: - La versión del Agent - Si el Agent tiene alguna integración no configurada o mal configurada - Los servicios que está monitorizando el Agent - El estado de configuración remota del Agent - Los productos habilitados en el Agent +- Eventos de Agent de Audit Trail, incluidos cambios de configuración, actualizaciones y flares + +### Examinar un Agent + +Al seleccionar un Agent, obtendrás más información sobre él, como su configuración, sus integraciones conectadas, eventos de auditoría y una pestaña de ayuda que puedes utilizar para enviar un flare remoto. + +{{< img src="agent/fleet_automation/fleet-automation-view-config.png" alt="Información de integración de un Agent" style="width:100%;" >}} -Al seleccionar un Agent, obtendrás más información sobre él, como su configuración, sus integraciones conectadas y una pestaña de ayuda que puedes utilizar para enviar un flare remoto. +### Ver los eventos de Agent de Audit Trail -{{< img src="agent/fleet_automation/fleet-automation-agent.png" alt="Información sobre la integración de un Agent" style="width:100%;" >}} +La pestaña Eventos de auditoría muestra eventos de Audit Trail asociados con el Agent seleccionado. +Utiliza esta pestaña para: +- Identificar los cambios de configuración, las actualizaciones de claves de API, las instalaciones, las actualizaciones y los flares de asistencia. +- Determinar cuándo se hicieron los cambios y desde dónde -## Configuración de la automatización de flotas +La visibilidad de los eventos de Audit Trail depende de tu plan. Cuando Audit Trail está habilitado en tu organización, puedes ver los eventos de Agent durante un máximo de 90 días según la configuración de retención de Audit Trail. Si Audit Trail no está habilitado en tu organización, puedes ver los eventos de las últimas 24 horas. -La automatización de flotas incorpora varias funciones de Datadog, que se activan automáticamente en el Agent versión 7.49/6.49 o posterior. Para asegurarte de que tienes acceso a todas las funciones, actualiza tu Agent a la versión 7.49/6.49 o posterior. +### Enviar un flare remoto -Si utilizas un Agent más antiguo, es posible que aún puedas activar las siguientes funciones de Datadog de forma individual: -- **Configuración remota**: Para obtener información sobre las versiones compatibles del Agent y los pasos que debes seguir durante la configuración, consulta [Habilitación de la configuración remota][3]. -- **Configuración del Agent**: Necesitas tener la versión del Agent 7.39/6.39 o posterior para habilitar la pestaña de configuración del Agent. Esta se encuentra habilitada por defecto en las versiones del Agent 7.47.0/6.47.0 o posteriores. Para habilitar la configuración del Agent manualmente, define `inventories_configuration_enabled` en tu [archivo de configuración del Agent][2] como `true`. También puedes utilizar la variable de entorno`DD_INVENTORIES_CONFIGURATION_ENABLED`. -- **Configuración de una integración del Agent**: La configuración de una integración del Agent está habilitada por defecto en las versiones 7.49/6.49 o posteriores del Agent. Para habilitar la configuración de una integración del Agent manualmente, define`inventories_checks_configuration_enabled` en tu [archivo de configuración del Agent][2] como `true`. También puedes utilizar la variable de entorno `DD_INVENTORIES_CHECKS_CONFIGURATION_ENABLED`. +Después de activar la configuración remota en un Agent, puedes enviar un flare desde Datadog. Para obtener instrucciones sobre cómo enviar un flare, consulta [Enviar un flare desde el sitio de Datadog][7]. -Datadog te recomienda actualizar tu Agent con regularidad para asegurarte de que tienes acceso a las últimas funciones. +Cuando te pongas en contacto con el servicio de asistencia de Datadog con la configuración remota activada para el Agent, el equipo podrá iniciar un flare desde tu entorno para poder ayudarte mejor y de forma más rápida. Los flares proporcionan información de solución de problemas al servicio de asistencia de Datadog para ayudarte a resolver tu problema. -## Enviar un flare remoto +{{< img src="agent/fleet_automation/fleet_automation_remote_flare.png" alt="Enviar un flare remoto" style="width:100%;" >}} -Antes de enviar un flare, asegúrate de que la configuración remota está [habilitada](#configuring-fleet-automation) en el Agent seleccionado. +## Gestión remota de Agents -{{% remote-flare %}} +La gestión remota de Agents simplifica el proceso de actualización de tu flota de Agents, ya que reduce la necesidad de coordinar varias herramientas de despliegue o gestión de la configuración. Para obtener más información, consulta [Gestión remota del Agent][6]. -{{< img src="agent/fleet_automation/fleet-automation-flares2.png" alt="El botón Send Ticket (Enviar ticket) genera un formulario para enviar un flare sobre un nuevo ticket de asistencia o sobre uno ya existente" style="width:100%;" >}} +{{< img src="agent/fleet_automation/fleet-automation-upgrades-2.png" alt="Actualizar agents de forma remota en Fleet Automation" style="width:100%;" >}} ## Control de acceso a la automatización de flotas @@ -64,17 +79,21 @@ La automatización de flotas está disponible para todos los usuarios de una org | Permiso | Descripción | |--------------|---------------| -| `API keys read`| Determina qué usuarios pueden visualizar y buscar Agents por clave API. | -| `Agent flare collection` | Determina qué usuarios pueden enviar flares de forma remota. | +| `API Keys Read`| Determina qué usuarios pueden visualizar y buscar Agents por clave API. | +| `Agent Flare Collection` | Restringe qué usuarios pueden enviar flares a distancia desde Fleet Automation. | +| `Agent Upgrade` | Restringe qué usuarios tienen acceso a la actualización de Agents desde Fleet Automation. | +| `Agent Configuration Management` | Restringe qué usuarios tienen acceso a configurar Agents desde Fleet Automation. | Para obtener información sobre la configuración de funciones y permisos, consulta [Control de acceso][5]. -## Lectura adicional +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} [1]: https://app.datadoghq.com/fleet [2]: /es/agent/configuration/agent-configuration-files/ -[3]: /es/agent/remote_config#enabling-remote-configuration +[3]: /es/agent/fleet_automation/remote_management/#setup [4]: /es/infrastructure/list/#agent-configuration -[5]: https://docs.datadoghq.com/es/account_management/rbac/ \ No newline at end of file +[5]: /es/account_management/rbac/ +[6]: /es/agent/fleet_automation/remote_management/ +[7]: /es/agent/troubleshooting/send_a_flare/#send-a-flare-from-the-datadog-site \ No newline at end of file diff --git a/content/es/api/latest/on-call-paging/_index.md b/content/es/api/latest/on-call-paging/_index.md new file mode 100644 index 0000000000000..fa60bea307c9f --- /dev/null +++ b/content/es/api/latest/on-call-paging/_index.md @@ -0,0 +1,3 @@ +--- +title: Buscapersonas On-Call +--- diff --git a/content/es/continuous_delivery/features/rollbacks_detection.md b/content/es/continuous_delivery/features/rollbacks_detection.md new file mode 100644 index 0000000000000..161d7902120b0 --- /dev/null +++ b/content/es/continuous_delivery/features/rollbacks_detection.md @@ -0,0 +1,58 @@ +--- +description: Más información sobre cómo CD Visibility detecta las reversiones de despliegues. +further_reading: +- link: /continuous_delivery/deployments/ + tag: Documentación + text: Más información sobre Deployment Visibility +- link: /continuous_delivery/explorer + tag: Documentación + text: Aprende a consultar y visualizar las despliegues +title: Detección de reversiones +--- + +{{< callout url="https://docs.google.com/forms/d/e/1FAIpQLScNhFEUOndGHwBennvUp6-XoA9luTc27XBwtSgXhycBVFM9yA/viewform?usp=sf_link" btn_hidden="false" header="Join the Preview" >}} +CD Visibility está en Vista previa. Si te interesa esta función, completa el formulario para solicitar acceso. +{{< /callout >}} + +## Información general + +Saber cuándo determinados despliegues realizan una reversión es útil para: +- Comprender la estabilidad del despliegue y la frecuencia de las reversiones en todos tus servicios. +- Identificar patrones en los problemas de despliegue que conducen a reversiones. + +Para detectar reversiones, Datadog compara la versión de despliegue actual con las versiones anteriores desplegadas para el mismo servicio y entorno. Se identifica una reversión cuando se dan las dos circunstancias siguientes: +- La versión actual es diferente de la versión anterior. Esto garantiza que volver a desplegar la misma versión no constituya una reversión. +- La versión actual coincide con una versión que se desplegó anteriormente. + +Puedes buscar despliegues de reversiones en [Ejecuciones de despliegues][1], utilizando la etiqueta (tag) `@deployment.is_rollback`: + +{{< img src="continuous_delivery/features/rollbacks-deployment-executions.png" alt="Indicador de reversión en la page (página) Ejecuciones de Despliegues" style="width:100%;">}} + +También puedes ver información más detallada en el detalle del evento: + +{{< img src="continuous_delivery/features/rollbacks-detail.png" alt="Detalle de reversión" style="width:100%;">}} + +## Requisitos + +La detección de reversiones funciona para los despliegues que tienen todo lo siguiente: +- Un servicio (`@deployment.service`) +- Un entorno (`@deployment.env`) +- Un identificador de la versión (`@deployment.version`) + +### Versión para proveedores basados en CI +Para los proveedores basados en CI, Datadog utiliza el parámetro `--revision` que se pasa al comando `datadog ci`. Este parámetro debe contener el identificador de la versión de tu despliegue (como un SHA de confirmación, una etiqueta (tag) de imagen o un número de versión). + +### Versión para Argo CD +Para los despliegues de Argo CD, Datadog utiliza la versión de imágenes correlacionadas para detectar reversiones. Datadog identifica la imagen "principal" de tu despliegue y extrae de ella la etiqueta (tag) de versión. + +Para habilitar la detección de reversiones para despliegues de Argo CD, necesitas correlacionar tus imágenes con confrmaciones usando el [comando`datadog-ci deployment correlate-image` ][2] como se explica en la [documentación de monitorización de Argo CD][3]. + +Cuando las imágenes se correlacionan correctamente, Datadog completa una etiqueta (tag) de versión a partir de los metadatos de la imagen, que se utiliza para la detección de reversiones. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/ci/deployments/executions +[2]: https://github.com/DataDog/datadog-ci/tree/master/src/commands/deployment#correlate +[3]: /es/continuous_delivery/deployments/argocd#correlate-deployments-with-ci-pipelines \ No newline at end of file diff --git a/content/es/dashboards/widgets/alert_graph.md b/content/es/dashboards/widgets/alert_graph.md index 01daa7da3ce20..c0c5af828d670 100644 --- a/content/es/dashboards/widgets/alert_graph.md +++ b/content/es/dashboards/widgets/alert_graph.md @@ -14,7 +14,7 @@ Las gráficas de alertas son gráficas de series temporales que muestran el esta {{< img src="dashboards/widgets/alert_graph/alert_graph.png" alt="Gráfica de alertas" >}} -Este widget es compatible con los monitores predeterminados de alertas de consultas programadas, como métricas, anomalías, outliers, predicciones, APM e integraciones. +Este widget es compatible con los monitores de alertas de consultas programadas por defecto, como métrica, anomalía, outlier, predicción, métricas de APM e integración. ## Configuración diff --git a/content/es/data_security/real_user_monitoring.md b/content/es/data_security/real_user_monitoring.md index f2bfd67afc1a9..4252852affae2 100644 --- a/content/es/data_security/real_user_monitoring.md +++ b/content/es/data_security/real_user_monitoring.md @@ -13,7 +13,7 @@ further_reading: text: Opciones de privacidad de Session Replay - link: https://www.datadoghq.com/blog/default-privacy-session-replay/ tag: Blog - text: Enmascarar los datos de usuario con los parámetros de privacidad predeterminados + text: Enmascarar los datos de usuarios con los parámetros de privacidad predeterminados de Session Replay title: Seguridad de los datos en Real User Monitoring (RUM) --- @@ -21,7 +21,7 @@ title: Seguridad de los datos en Real User Monitoring (RUM)
En esta página hablamos sobre la seguridad de los datos que se envían a Datadog. Si estás buscando productos y funciones para proteger las aplicaciones y las soluciones en la nube, consulta la sección Seguridad.
## Información general -Real User Monitoring (RUM) proporciona controles para implementar requisitos de privacidad y garantizar que organizaciones del tamaño que sean no expongan información confidencial o personal. Los datos se almacenan en instancias en la nube gestionadas por Datadog y se cifran mientras permanecen en reposo. Los comportamientos predeterminados y las opciones configurables que se describen en esta página están diseñados para proteger la privacidad del usuario final y evitar que se recopile información confidencial de la organización. Para obtener más información, consulta [Privacidad en Datadog][13]. +Real User Monitoring (RUM) proporciona controles para aplicar los requisitos de privacidad y garantizar que las organizaciones de cualquier escala no expongan información confidencial ni personal. Los datos se almacenan en instancias en la nube gestionadas por Datadog y se cifran en reposo. Los comportamientos predeterminados y las opciones configurables que se describen en esta page (página) están diseñados para proteger la privacidad del usuario final y evitar que se recopile información confidencial de la organización. Más información sobre [Privacidad en Datadog][1]. ## Responsabilidad compartida @@ -30,61 +30,61 @@ La responsabilidad de mantener seguros los datos de los usuarios la comparten Da Datadog es responsable de: - Proporcionar un producto fiable que gestione los datos de forma segura cuando se transmiten a la plataforma Datadog y se almacenan en ella. -- Garantizar que los problemas de seguridad se identifican de acuerdo con las políticas internas. +- Garantizar que los problemas de seguridad se identifiquen de acuerdo con las políticas internas. Los desarrolladores son responsables de: - Aprovechar los valores de configuración y las opciones de privacidad de los datos que ofrece Datadog. -- Garantizar la integridad del código dentro de sus entornos. +- Garantizar la integridad del código en sus entornos. ## Marcos de cumplimiento RUM puede configurarse para cumplir numerosas normas y marcos normativos como, por ejemplo: - RGPD -- HIPAA +- HIPAA - ISO - Leyes CCPA/CPRA ## Restricciones de privacidad -Por defecto, existen algunas restricciones de privacidad que protegen los datos de los usuarios para ayudar a cumplir con los marcos regulatorios y normativos. +Por defecto, existen algunas restricciones de privacidad que protegen los datos de los usuarios para ayudar a cumplir los marcos regulatorios y normativos. ### Uso de cookies del navegador RUM El navegador RUM requiere que las cookies de origen estén habilitadas en el navegador del usuario final para recopilar datos. Si así lo requieren las jurisdicciones en las que operas, eres responsable de configurar tus páginas para que cumplan las leyes de dichas jurisdicciones, incluyendo la recepción del consentimiento para recopilar cookies antes de inicializar RUM. ### Gestión del consentimiento de Mobile RUM -El seguimiento de Mobile RUM solo se ejecuta si el usuario da su consentimiento. Si el usuario final acepta el seguimiento de RUM, hacemos un seguimiento de su actividad y experiencia de sesión. Si el usuario rechaza el seguimiento de RUM, no haremos ningún seguimiento de su actividad ni de su experiencia de sesión. +El rastreo móvil de RUM sólo se ejecuta previo consentimiento del usuario. Si el usuario final acepta el rastreo de RUM, Datadog rastrea su actividad y experiencia de sesión. Si el usuario rechaza el rastreo de RUM, Datadog no rastrea su actividad ni su experiencia de sesión. ## Opciones de privacidad -Existen varias opciones y herramientas a la hora de recopilar y eliminar los datos recopilados por RUM. +Existen varias opciones y herramientas a la hora de recopilar y ocultar los datos recopilados por RUM. ### Token de cliente -El navegador RUM [token de cliente][17] se utiliza para hacer coincidir los datos del navegador del usuario final con una aplicación RUM específica en Datadog. No está cifrado y es visible para el cliente de una aplicación. +El navegador RUM [token de cliente][2] se utiliza para hacer coincidir los datos del navegador del usuario final con una aplicación RUM específica en Datadog. No está cifrado y es visible desde el lado del cliente de una aplicación. Dado que el token de cliente sólo se utiliza para enviar datos a Datadog, no existe riesgo de pérdida de datos debido a este token. Sin embargo, Datadog recomienda realizar algunas acciones para garantizar una buena gestión de los tokens de cliente y así evitar otros tipos de uso indebido, entre ellas: -- [Rotar el token de cliente][18] con regularidad para asegurarse de que sólo es utilizado por tu aplicación -- [Filtrar bots][19] automáticamente al capturar datos de RUM +- Regularmente [rotar el token de cliente][3] para asegurarse de que sólo sea utilizado por tu aplicación. +- Automáticamente [filtrar bots][4] al capturar datos de RUM #### Proxy autentificado -Un método que utiliza el token de cliente para filtrar bots es el proxy autenticado. Con este método, una cadena de parámetros se sustituye por el `clientToken` al inicializar el SDK del navegador RUM Datadog. El proxy conoce el token real de cliente, pero el usuario final no lo conoce. +Un método de utilizar el token de cliente para filtrar bots es un proxy autenticado. En este método, se sustituye el `clientToken` por una cadena de marcador de posición al inicializar el SDK del navegador Datadog RUM. El proxy conoce el token de cliente real, pero el usuario final no. El proxy está configurado para verificar información válida sobre el usuario antes de pasar los datos de la sesión a Datadog, confirmando así que un usuario real ha iniciado sesión y transmite el tráfico que se va a monitorizar. Al recibir tráfico, el proxy verifica que los datos incluyen la cadena de parámetros y la sustituye por el `clientToken` real, antes de reenviar los datos a Datadog. ### Seguimiento de eventos -Un [evento][14] es una interacción del usuario con elementos específicos de tu sitio o aplicación. Los eventos pueden capturarse automáticamente a través del SDK o enviarse mediante acciones personalizadas. Puedes desactivar el seguimiento automático de las interacciones del usuario y de las páginas vistas para capturar únicamente la interacción que elijas. De forma predeterminada, RUM utiliza contenido de destino para generar nombres de acciones a partir de acciones recopiladas de forma automática por el SDK. Puedes [anular explícitamente][5] este comportamiento con cualquier nombre específico. +Un [evento][5] es una interacción del usuario con elementos específicos de tu sitio o aplicación. Los eventos pueden capturarse automáticamente a través del SDK o enviarse mediante acciones personalizadas. Puedes desactivar el rastreo automático de las interacciones del usuario y las páginas vistas para capturar únicamente la interacción que elijas. De forma predeterminada, RUM utiliza el contenido de destino para generar nombres de acciones a partir de las acciones recopiladas automáticamente por el SDK. Puedes [sustituir explícitamente][6] este comportamiento con cualquier nombre dado. -Los datos que rastreamos automáticamente contienen principalmente información técnica, la mayor parte de la cual no incluye información de identificación personal. Los datos que se recopilan mediante RUM pueden ocultarse aún más antes de que se envíen y almacenen en Datadog, para ello, es necesario utilizar opciones de configuración avanzadas con los siguientes métodos: +Los datos que rastreamos automáticamente contienen principalmente información técnica, la mayor parte de la cual no incluye información de identificación personal (PII). Los datos que se recopilan mediante RUM pueden ocultarse aún más antes de que se envíen y almacenen en Datadog. Para ello, es necesario utilizar opciones de configuración avanzadas con los siguientes métodos: -- [API de beforeSend][1] -- [iOS][2] -- [Android][3] -- [Flutter][4] -- [React Native][16] +- [API beforeSend][7] +- [iOS][8] +- [Android][9] +- [Flutter][10] +- [React Native][11] ### Transmitir eventos RUM a través de un servidor proxy -Puedes transmitir todos los eventos RUM a través de tu propio [servidor proxy][15] para que los dispositivos del usuario final nunca se comuniquen directamente con Datadog. +Puedes transmitir todos los eventos de RUM a través de tu propio [servidor proxy][12] de modo que los dispositivos de usuario final nunca se comuniquen directamente con Datadog. ### Seguimiento de la identidad del usuario -De forma predeterminada, no se realiza **ningún seguimiento de la identidad de los usuarios**. Cada sesión tiene un identificador `session.id` único, que mantiene el anonimato de los datos, pero permite conocer las tendencias. Sin embargo, existe la posibilidad de escribir código para capturar [datos del usuario][6], como el nombre y la dirección de correo electrónico, y utilizarlos para [enriquecer y modificar][7] las sesiones de RUM, aunque no es obligatorio. +De modo predeterminado, no hay **rastreo de la identidad de los usuarios**. Cada sesión tiene un único `session.id` vinculado a ella, que hace anónimos los datos, pero te permite comprender las tendencias. Tienes la opción de escribir código para capturar [datos del usuario][13] como el nombre y la dirección de correo electrónico y luego usar esos datos para [enriquecer y modificar][13] las sesiones de RUM, pero esto no es obligatorio. ### Conservación de datos Una vez configurada la captura de eventos, éstos se almacenan en Datadog. Puedes decidir cuánto tiempo se conservan en Datadog los eventos y propiedades capturados. @@ -94,65 +94,68 @@ Por defecto, la conservación de datos para entornos de producción es: - 30 días para sesiones, vistas, acciones, errores y grabaciones de sesiones. - 15 días para recursos y tareas extensas. -Dicha conservación puede ampliarse hasta un máximo de 90 días sin coste adicional mediante [la apertura de un ticket de asistencia][8]. Recuerda que esta posibilidad no se aplica a las Session Replays, los recursos ni las tareas extensas. +Para ampliar la retención de datos para analizar los comportamientos de los usuarios durante periodos de tiempo más largos (sólo Sesiones, Vistas y Acciones), puedes enviar una solicitud a [unirse a Product Analytics][20] . #### Control de acceso basado en roles -Datadog ofrece el control de acceso basado en roles (RBAC) para gestionar quién ve los datos RUM capturados. La configuración predeterminada para acceder a los datos depende del rol al que se añada un usuario. Datadog dispone de tres tipos de roles: Administrador, Estándar y Solo lectura. En la sección [Permisos de rol de Datadog][10] se pueden definir permisos más específicos para RUM. Por ejemplo, puedes autorizar o revocar el acceso para ver las Session Replays. +Datadog proporciona control de acceso basado en roles (RBAC) para gestionar quién consulta los datos capturados de RUM. La configuración predeterminada para el acceso a los datos depende del rol al que se añada un usuario. Hay tres tipos de roles disponibles en Datadog: Administrador, Estándar y Sólo lectura. En [Permisos de roles de Datadog][15] se definen permisos más granulares específicos de RUM. Por ejemplo, puedes conceder o revocar el acceso para ver las repeticiones de sesión. ### Eliminar datos -Si necesitas eliminar datos almacenados por Datadog, por ejemplo, si se han filtrado datos potencialmente confidenciales en eventos RUM, puedes hacer un borrado permanente de los datos dentro de un marco de tiempo determinado. En este caso, se borran **todos** los datos; no se pueden seleccionar para una aplicación específica. Si quieres eliminar algún dato, ponte en contacto con el [equipo de asistencia de Datadog][9]. +Si necesitas borrar datos almacenados por Datadog, por ejemplo, si se han filtrado datos potencialmente confidenciales en eventos de RUM, puedes realizar un borrado duro de datos dentro de un plazo determinado. Con un borrado duro, se borran **todos** los datos; no se puede dirigir a una aplicación específica. Si necesitas que se borre algún dato, ponte en contacto con el [equipo de asistencia técnica de Datadog][14]. ### Eliminar datos personales y confidenciales -Existen varias opciones para eliminar la información de identificación personal (IIP) y los datos confidenciales, incluidas las direcciones IP y la geolocalización. Algunas situaciones en las que la IIP podría aparecer en RUM: +Existen varias opciones para eliminar la información de identificación personal (PII) y los datos confidenciales, incluidas las direcciones IP y la geolocalización. Las siguientes son algunas situaciones en las que la PII podría aparecer en RUM: -- Nombres de acción en los botones (por ejemplo, "Ver el número completo de la tarjeta de crédito") +- Nombres de acciones en los botones (por ejemplo, "Ver el número completo de la tarjeta de crédito") - Nombres que aparecen en las URL - Eventos de seguimiento personalizados que instrumentan los desarrolladores de la aplicación +#### Enmascarar nombres de acciones +De manera predeterminada, si deseas enmascarar todos los nombres de acciones, puedes utilizar la opción `enablePrivacyForActionName` junto con la configuración de privacidad `mask`. Esta operación sustituye automáticamente todos los nombres de acciones no sustituidos por el marcador de posición `Masked Element`. Esta configuración también está diseñada para ser compatible con los [atributos de sustitución de HTML] existentes[16]. + #### Datos no estructurados -La información de identificación personal incluida accidentalmente en datos no estructurados, como el nombre de una persona en un cuadro de texto, solo puede eliminarse con una solicitud para que se eliminen los datos durante un plazo determinado. +La PII incluida inadvertidamente en datos no estructurados, como el nombre de una persona en un cuadro de texto, sólo puede eliminarse mediante una solicitud de supresión de datos durante un plazo determinado. -Con respecto a las URL, tienes la opción de hacer el seguimiento de las visitas a la página manualmente para eliminar cualquier información de identificación personal o utilizar beforeSend para cambiar el texto de la URL. +Con respecto a las URL, tienes la opción de rastrear las páginas vistas manualmente para eliminar cualquier PII o utilizar beforeSend para cambiar el texto de la URL. -También puedes transmitir todos los eventos RUM a través de tu propio servidor (proxy) para que los dispositivos del usuario final nunca se comuniquen directamente con Datadog. +También puedes transmitir todos los eventos RUM a través de tu propio servidor (proxy), para que los dispositivos del usuario final nunca se comuniquen directamente con Datadog. #### Dirección IP -Al configurar una aplicación RUM, se puede elegir si se desea incluir o no datos de IP o geolocalización: +Después de inicializar tu aplicación RUM, puedes elegir si deseas o no incluir datos de IP o geolocalización desde la pestaña **Recopilación de datos del usuario**: -{{< img src="data_security/data-security-rum-privacy-compliance-edit-rum-application.png" alt="Puedes incluir o excluir datos de geolocalización e IP de clientes desde la página de configuración de la aplicación RUM" style="width:100%;" >}} +{{< img src="data_security/data-security-rum-privacy-compliance-user-data-collection-1.png" alt="Puedes incluir o excluir datos de geolocalización y de IP del cliente desde la page (página) de gestión de aplicaciones RUM" style="width:100%;" >}} -En cuanto deshabilites la recopilación de datos IP, el cambio se aplicará inmediatamente. No se eliminarán los datos IP de ningún evento recopilado antes de la desactivación. Se realiza en el backend, lo que significa que el SDK del navegador seguirá enviando datos, pero los pipelines del backend de Datadog omitirán las direcciones IP y las eliminarán en el momento del procesamiento. +Después de desactivar la recopilación de datos de IP, el cambio se aplica inmediatamente. Cualquier evento recopilado antes de la desactivación no elimina los datos de IP. Se realiza en el backend, lo que significa que el SDK del navegador sigue enviando datos, pero las direcciones IP son omitidas por los pipelines del backend de Datadog y eliminadas en el momento del procesamiento. #### Geolocalización -Además de eliminar las IP de los clientes, también puedes optar por desactivar la recopilación de la geolocalización (país, ciudad, provincia), o GeoIP, de todos los datos recopilados en el futuro. Si desmarcas la casilla **Collect geolocation data** (Recopilar datos de geolocalización), el cambio se aplicará inmediatamente. No se eliminarán los datos de geolocalización de los eventos recopilados antes de desactivar la casilla. La omisión de datos se realiza a nivel de backend, lo que significa que el SDK del navegador seguirá enviando datos, pero nuestros pipelines de backend omitirán los datos de geolocalización y los eliminarán en el momento del procesamiento. +Además de eliminar las IP de los clientes, también puedes optar por desactivar la recopilación de geolocalización (país, ciudad, condado), o GeoIP, de todos los datos recopilados en el futuro. Si desmarcas la casilla **Recopilar datos de geolocalización**, el cambio se aplica inmediatamente. Cualquier evento recopilado antes de la desactivación no elimina los datos de geolocalización correspondientes. La omisión de datos se realiza a nivel de backend, lo que significa que el SDK del navegador sigue enviando datos, pero los datos de geolocalización son omitidos por los pipelines del backend de Datadog y eliminados en el momento del procesamiento. ### Búsqueda proactiva de datos confidenciales con Sensitive Data Scanner -[Sensitive Data Scanner][11] te permite buscar y depurar proactivamente los datos confidenciales en el momento de su consumo por parte de Datadog. Los eventos de RUM se analizan en el flujo (stream), antes de que se almacenen datos en Datadog. La herramienta tiene la capacidad de depurar, convertir en hash o enmascarar parcialmente la información de identificación personal (PII), antes de que se almacene. Funciona aplicando reglas de concordancia de patrones listas para utilizar o desarrolladas por el cliente. Si has activado esta función, puedes encontrarla en la página [**Gestión de datos confidenciales**][20]. +[Sensitive Data Scanner][17] te permite buscar en forma proactiva y depurar los datos confidenciales en el momento de su ingesta por Datadog. Los eventos de RUM se digitalizan en el flujo (stream) antes de que se almacene ningún dato en Datadog. La herramienta tiene la capacidad de depurar, convertir en hash o redactar parcialmente los datos de PII antes de que se almacenen. Funciona aplicando reglas de concordancia de patrones predefinidos o desarrollados por el cliente. Si has activado esta función, puedes encontrarla en la page (página) [**Gestión de datos confidenciales**][18]. ## Opciones de privacidad específicas de Session Replay -Consulta las [opciones de privacidad específicas de Session Replay][12]. +Consulta [opciones de privacidad específicas de la Repetición de sesión][19]. -### Leer más +### Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} -[1]: /es/real_user_monitoring/guide/enrich-and-control-rum-data/?tab=event#event-and-context-structure -[2]: /es/real_user_monitoring/ios/advanced_configuration/?tab=swift#modify-or-drop-rum-events -[3]: /es/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/android/?tab=kotlin#modify-or-drop-rum-events -[4]: /es/real_user_monitoring/mobile_and_tv_monitoring/advanced_configuration/flutter/#modify-or-drop-rum-events -[5]: /es/real_user_monitoring/browser/tracking_user_actions/#declare-a-name-for-click-actions -[6]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#user-session -[7]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#user-session -[8]: /es/help/ -[9]: /es/help/ -[10]: /es/account_management/rbac/permissions/#real-user-monitoring -[11]: /es/sensitive_data_scanner/ -[12]: /es/real_user_monitoring/session_replay/browser/privacy_options -[13]: https://www.datadoghq.com/privacy/ -[14]: /es/real_user_monitoring/explorer/search/ -[15]: /es/real_user_monitoring/guide/proxy-rum-data/?tab=npm -[16]: /es/real_user_monitoring/reactnative/advanced_configuration/#modify-or-drop-rum-events -[17]: /es/real_user_monitoring/browser/setup/#configuration -[18]: /es/account_management/api-app-keys/#add-an-api-key-or-client-token -[19]: /es/real_user_monitoring/guide/identify-bots-in-the-ui/#filter-out-bot-sessions-on-intake -[20]: https://app.datadoghq.com/organization-settings/sensitive-data-scanner/configuration \ No newline at end of file +[1]: https://www.datadoghq.com/privacy/ +[2]: /es/real_user_monitoring/browser/setup/#configuration +[3]: /es/account_management/api-app-keys/#add-an-api-key-or-client-token +[4]: /es/real_user_monitoring/guide/identify-bots-in-the-ui/#filter-out-bot-sessions-on-intake +[5]: /es/real_user_monitoring/explorer/search/ +[6]: /es/real_user_monitoring/browser/tracking_user_actions/#declare-a-name-for-click-actions +[7]: /es/real_user_monitoring/guide/enrich-and-control-rum-data/?tab=event#event-and-context-structure +[8]: /es/real_user_monitoring/ios/advanced_configuration/?tab=swift#modify-or-drop-rum-events +[9]: /es/real_user_monitoring/mobile_and_tv_monitoring/android/advanced_configuration/?tab=kotlin#modify-or-drop-rum-events +[10]: /es/real_user_monitoring/mobile_and_tv_monitoring/flutter/advanced_configuration/#modify-or-drop-rum-events +[11]: /es/real_user_monitoring/reactnative/advanced_configuration/#modify-or-drop-rum-events +[12]: /es/real_user_monitoring/guide/proxy-rum-data/?tab=npm +[13]: /es/real_user_monitoring/browser/advanced_configuration/?tab=npm#user-session +[14]: /es/help/ +[15]: /es/account_management/rbac/permissions/#real-user-monitoring +[16]: /es/real_user_monitoring/session_replay/privacy_options#override-an-html-element +[17]: /es/security/sensitive_data_scanner/ +[18]: https://app.datadoghq.com/organization-settings/sensitive-data-scanner/configuration +[19]: /es/real_user_monitoring/session_replay/browser/privacy_options +[20]: https://www.datadoghq.com/private-beta/product-analytics/ \ No newline at end of file diff --git a/content/es/database_monitoring/connect_dbm_and_apm.md b/content/es/database_monitoring/connect_dbm_and_apm.md index 2bd204452f754..c3a8dfa9a7c03 100644 --- a/content/es/database_monitoring/connect_dbm_and_apm.md +++ b/content/es/database_monitoring/connect_dbm_and_apm.md @@ -14,7 +14,7 @@ En esta guía se considera que has configurado [Database Monitoring][1] y usas [ ## Antes de empezar Bases de datos compatibles -: Postgres, MySQL, SQL Server, Oracle +: Postgres, MySQL, SQL Server, Oracle, MongoDB Versiones compatibles del Agent : 7.46 o posterior @@ -29,46 +29,49 @@ Las integraciones del rastreador de APM admiten un *Modo de propagación*, que c - El modo `service` envía el nombre del servicio, lo que te permite conocer qué servicios contribuyen a la carga de la base de datos. Este es el único modo compatible con las aplicaciones de Oracle. - El modo `disabled` deshabilita la propagación y no envía información desde las aplicaciones. -| DD_DBM_PROPAGATION_MODE | Postgres | MySQL | SQL Server | Oracle | -|:------------------------|:---------:|:-----------:|:----------:|:---------:| -| `full` | {{< X >}} | {{< X >}} * | {{< X >}} | {{< X >}} | -| `service` | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | +| DD_DBM_PROPAGATION_MODE | Postgres | MySQL | SQL Server | Oracle | MongoDB | +|:------------------------|:---------:|:-----------:|:----------:|:---------:|:----------:| +| `full` | {{< X >}} | {{< X >}} * | {{< X >}} | {{< X >}} | {{< X >}} | +| `service` | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | {{< X >}} | \* El modo de propagación completa en Aurora MySQL requiere la versión 3. **Rastreadores y controladores de aplicaciones compatibles** -| Lenguaje | Biblioteca o marco | Postgres | MySQL | SQL Server | Oracle | -|:-----------------------------------------|:-----------------------|:---------:|:---------:|:-------------------:|:-------------------:| -| **Go:** [dd-trace-go][3] >= 1.44.0 | | | | | | -| | [base de datos/sql][4] | {{< X >}} | {{< X >}} | solo el modo `service` | solo el modo `service` | -| | [sqlx][5] | {{< X >}} | {{< X >}} | solo el modo `service` | solo el modo `service` | -| **Java** [dd-trace-java][23] >= 1.11.0 | | | | | | -| | [jdbc][22] | {{< X >}} | {{< X >}} | {{< X >}} ** | {{< X >}} *** | -| **Ruby:** [dd-trace-rb][6] >= 1.8.0 | | | | | | -| | [pg][8] | {{< X >}} | | | | -| | [mysql2][7] | | {{< X >}} | | | -| **Python:** [dd-trace-py][11] >= 1.9.0 | | | | | | -| | [psycopg2][12] | {{< X >}} | | | | -| [dd-trace-py][11] >= 2.9.0 | | | | | | -| | [asyncpg][27] | {{< X >}} | | | | -| | [aiomysql][28] | | {{< X >}} | | | -| | [mysql-connector-python][29] | | {{< X >}} | | | -| | [mysqlclient][30] | | {{< X >}} | | | -| | [pymysql][31] | | {{< X >}} | | | -| **.NET** [dd-trace-dotnet][15] >= 2.35.0 | | | | | | -| | [Npgsql][16] * | {{< X >}} | | | | -| | [MySql.Data][17] * | | {{< X >}} | | | -| | [MySqlConnector][18] * | | {{< X >}} | | | -| | [System.Data.SqlClient][24] * | | | {{< X >}} ** | | -| | [Microsoft.Data.SqlClient][32] * | | | {{< X >}} ** | | -| **PHP** [dd-trace-php][19] >= 0.86.0 | | | | | | -| | [pdo][20] | {{< X >}} | {{< X >}} | | | -| | [MySQLi][21] | | {{< X >}} | | | -| **Node.js:** [dd-trace-js][9] >= 3.17.0 | | | | | | -| | [postgres][10] | {{< X >}} | | | | -| | [mysql][13] | | {{< X >}} | | | -| | [mysql2][14] | | {{< X >}} | | | +| Lenguaje | Biblioteca o marco | Postgres | MySQL | SQL Server | Oracle | MongoDB | +|:-----------------------------------------|:-----------------------|:---------:|:---------:|:-------------------:|:-------------------:|:--------------------:| +| **Go:** [dd-trace-go][3] >= 1.44.0 | | | | | | | +| | [base de datos/sql][4] | {{< X >}} | {{< X >}} | solo el modo `service` | solo el modo `service` | | +| | [sqlx][5] | {{< X >}} | {{< X >}} | solo el modo `service` | solo el modo `service` | | +| **Java** [dd-trace-java][23] >= 1.11.0 | | | | | | | +| | [jdbc][22] | {{< X >}} | {{< X >}} | {{< X >}} ** | {{< X >}} *** | | +| **Ruby:** [dd-trace-rb][6] >= 1.8.0 | | | | | | | +| | [pg][8] | {{< X >}} | | | | | +| | [mysql2][7] | | {{< X >}} | | | | +| **Python:** [dd-trace-py][11] >= 1.9.0 | | | | | | | +| | [psycopg2][12] | {{< X >}} | | | | | +| | [psycopg][34] | {{< X >}} | | | | | +| [dd-trace-py][11] >= 2.9.0 | | | | | | | +| | [asyncpg][27] | {{< X >}} | | | | | +| | [aiomysql][28] | | {{< X >}} | | | | +| | [mysql-connector-python][29] | | {{< X >}} | | | | +| | [mysqlclient][30] | | {{< X >}} | | | | +| | [pymysql][31] | | {{< X >}} | | | | +| | [pymongo][35] | | | | | {{< X >}} ***** | +| **.NET** [dd-trace-dotnet][15] >= 2.35.0 | | | | | | | +| | [Npgsql][16] * | {{< X >}} | | | | | +| | [MySql.Data][17] * | | {{< X >}} | | | | +| | [MySqlConnector][18] * | | {{< X >}} | | | | +| | [System.Data.SqlClient][24] * | | | {{< X >}} ** | | | +| | [Microsoft.Data.SqlClient][32] * | | | {{< X >}} ** | | | +| **PHP** [dd-trace-php][19] >= 0.86.0 | | | | | | | +| | [pdo][20] | {{< X >}} | {{< X >}} | | | | +| | [MySQLi][21] | | {{< X >}} | | | | +| **Node.js:** [dd-trace-js][9] >= 3.17.0 | | | | | | | +| | [postgres][10] | {{< X >}} | | | | | +| | [mysql][13] | | {{< X >}} | | | | +| | [mysql2][14] | | {{< X >}} | | | | +| | [mongodb][33] | | | | | {{< X >}} **** | \* [CommandType.StoredProcedure][25] no compatible @@ -86,13 +89,21 @@ Las integraciones del rastreador de APM admiten un *Modo de propagación*, que c - La instrumentación sobrescribe `V$SESSION.ACTION`. - Requisito previo: rastreador de Java 1.45 o posterior +\*\*\*\* Servicio/Modo completo MongoDB para Node.js: + - Requisito previo: + - Rastreador Node.js v5.37.0 o posterior + +\*\*\*\*\* Servicio/Modo completo MongoDB para Python: + - Requisito previo: + - Rastreador Python v3.5.0 o posterior + ## Configuración Para obtener la mejor experiencia de usuario, asegúrate de que las siguientes variables de entorno se hayan configurado en tu aplicación: ``` -DD_SERVICE=(nombre de la aplicación) -DD_ENV=(entorno de la aplicación) -DD_VERSION=(versión de la aplicación) +DD_SERVICE=(application name) +DD_ENV=(application environment) +DD_VERSION=(application version) ``` Datadog recomienda establecer el modo de enmascaramiento en `obfuscate_and_normalize` para las versiones del Agent `7.63` y posteriores. Añade el siguiente parámetro en la sección `apm_config` de tu archivo de configuración del Agent de APM: @@ -101,23 +112,22 @@ Datadog recomienda establecer el modo de enmascaramiento en `obfuscate_and_norma sql_obfuscation_mode: "obfuscate_and_normalize" ``` +
Cambiar el modo de ofuscación puede alterar el texto SQL normalizado. Si tienes monitores basados en texto SQL en trazas (trace) APM, es posible que tengas que actualizarlos.
+ {{< tabs >}} {{% tab "Go" %}} -Actualiza las dependencias de tu aplicación para incluir [dd-trace-go@v1.44.0][1] o posterior: +Actualiza las dependencias de tu aplicación para incluir [dd-trace-go@v1.44.0][1] o posterior. {{% tracing-go-v2 %}} ```shell -go get gopkg.in/DataDog/dd-trace-go.v1@v1.44.0 # 1.x -# go get github.com/DataDog/dd-trace-go/v2 # 2.x +go get github.com/DataDog/dd-trace-go/v2 # 2.x ``` Actualiza tu código para importar el paquete `contrib/database/sql`: ```go import ( "database/sql" - "gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer" // 1.x - sqltrace "gopkg.in/DataDog/dd-trace-go.v1/contrib/database/sql" // 1.x - // "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer" // 2.x - // sqltrace "github.com/DataDog/dd-trace-go/contrib/database/sql/v2" // 2.x + "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer" + sqltrace "github.com/DataDog/dd-trace-go/contrib/database/sql/v2" ) ``` @@ -144,10 +154,8 @@ Ejemplo completo: ```go import ( "database/sql" - "gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer" // 1.x - sqltrace "gopkg.in/DataDog/dd-trace-go.v1/contrib/database/sql" // 1.x - // "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer" // 2.x - // sqltrace "github.com/DataDog/dd-trace-go/contrib/database/sql/v2" // 2.x + "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer" + sqltrace "github.com/DataDog/dd-trace-go/contrib/database/sql/v2" ) func main() { @@ -187,7 +195,7 @@ Habilita la función de propagación de la monitorización de base de datos medi Ejemplo completo: ``` -# Inicia el Java Agent con las propiedades del sistema requeridas +# Start the Java Agent with the required system properties java -javaagent:/path/to/dd-java-agent.jar -Ddd.dbm.propagation.mode=full -Ddd.integration.jdbc-datasource.enabled=true -Ddd.service=my-app -Ddd.env=staging -Ddd.version=1.0 -jar path/to/your/app.jar ``` @@ -204,7 +212,7 @@ public class Application { stmt.close(); connection.close(); } catch (SQLException exception) { - // lógica de excepción + // exception logic } } } @@ -215,7 +223,9 @@ Habilita el rastreo de sentencias preparadas para Postgres mediante **uno** de l - Establece la propiedad del sistema `dd.dbm.trace_prepared_statements=true` - Establece la variable de entorno `export DD_DBM_TRACE_PREPARED_STATEMENTS=true` -**Nota**: La instrumentación de sentencias preparadas sobrescribe la propiedad `Application` y provoca un recorrido de ida y vuelta adicional a la base de datos. Este movimiento adicional tiene un impacto insignificante en la latencia. +**Nota**: La instrumentación de sentencias preparadas sobrescribe la propiedad `Application` con el texto `_DD_overwritten_by_tracer`, y provocan un viaje de ida y vuelta adicional a la base de datos. Este viaje de ida y vuelta adicional normalmente tiene un impacto insignificante en el tiempo de ejecución de la sentencia SQL. + +
La activación del rastreo de sentencias preparadas puede provocar un aumento de la asignación de pines a connection (conexión) al utilizar Amazon RDS Proxy, lo que reduce la eficacia de la agrupación de connection (conexión). Para obtener más información, consulte connection (conexión) pinning on RDS Proxy.
**Versiones del rastreador inferiores a 1.44**: Las sentencias preparadas no son compatibles con el modo `full` para Postgres y MySQL, y todas las llamadas a la API de JDBC que utilizan sentencias preparadas se degradan automáticamente al modo `service`. Dado que la mayoría de las bibliotecas SQL de Java utilizan sentencias preparadas por defecto, esto significa que **la mayoría** de las aplicaciones Java sólo pueden utilizar el modo `service`. @@ -231,9 +241,9 @@ En tu archivo GEM, instala o actualiza [dd-trace-rb][1] a la versión `1.8.0` o ```rb source 'https://rubygems.org' -gem 'datadog' # Usa `'ddtrace', '>= 1.8.0'` si estás usando v1.x +gem 'datadog' # Use `'ddtrace', '>= 1.8.0'` if you're using v1.x -# Depende de tu uso +# Depends on your usage gem 'mysql2' gem 'pg' ``` @@ -280,17 +290,21 @@ Actualiza las dependencias de tu aplicación para incluir [dd-trace-py>=1.9.0][1 pip install "ddtrace>=1.9.0" ``` -Instala [psycopg2][2]: +Para Postgres, instala [psycopg2][2]: ``` pip install psycopg2 ``` +Para MongoDB (requiere dd-trace-py>=3.5.0), instala pymongo: +``` +pip install pymongo +``` + Habilita la función de propagación de la monitorización de base de datos al establecer la siguiente variable de entorno: - `DD_DBM_PROPAGATION_MODE=full` -Ejemplo completo: +Ejemplo de Postgres: ```python - import psycopg2 POSTGRES_CONFIG = { @@ -301,14 +315,32 @@ POSTGRES_CONFIG = { "dbname": "postgres_db_name", } -# conecta a la base de datos de Postgres +# connect to postgres db conn = psycopg2.connect(**POSTGRES_CONFIG) cursor = conn.cursor() -# ejecuta consultas de SQL +# execute sql queries cursor.execute("select 'blah'") cursor.executemany("select %s", (("foo",), ("bar",))) ``` +Ejemplo de MongoDB: +```python +from pymongo import MongoClient + +# Connect to MongoDB +client = MongoClient('mongodb://localhost:27017/') +db = client['test_database'] +collection = db['test_collection'] + +# Insert a document +collection.insert_one({"name": "test", "value": 1}) + +# Query documents +results = collection.find({"name": "test"}) +for doc in results: + print(doc) +``` + [1]: https://ddtrace.readthedocs.io/en/stable/release_notes.html [2]: https://ddtrace.readthedocs.io/en/stable/integrations.html#module-ddtrace.contrib.psycopg @@ -402,7 +434,7 @@ client.connect(err => { }); client.query('SELECT $1::text as message', ['Hello world!'], (err, result) => { - // gestiona el resultado + // handle result }) ``` @@ -438,7 +470,7 @@ Al visualizar una muestra de consulta en Database Monitoring, si APM ha realizad {{< img src="database_monitoring/dbm_apm_service_page_db_host_list.png" alt="Visualiza los hosts de bases de datos descendentes de los que dependen tus servicios de APM desde la Página de servicios.">}} -En la página de APM de un servicio determinado, visualiza las dependencias de bases de datos descendentes directas del servicio identificadas por Database Monitoring. Determina con rapidez si algún host tiene una carga desproporcionada que puede ser causada por hosts vecinos ruidosos. Para ver la página de un servicio, haz clic en el servicio en el [Service Catalog][26] a fin de abrir un panel de detalles y, a continuación, haz clic en **View Service Page** (Ver página de servicios) en el panel. +En la página de APM de un servicio determinado, visualiza las dependencias de bases de datos descendentes directas del servicio identificadas por Database Monitoring. Determina con rapidez si algún host tiene una carga desproporcionada que puede ser causada por hosts vecinos ruidosos. Para ver la página de un servicio, haz clic en el servicio en el [Catálogo de servicios][26] a fin de abrir un panel de detalles y, a continuación, haz clic en **View Service Page** (Ver página de servicios) en el panel. ### Identificar posibles optimizaciones mediante planes de explicación para consultas de bases de datos en trazas @@ -481,4 +513,7 @@ Visualiza el rendimiento histórico de consultas similares a las que se ejecutan [29]: https://pypi.org/project/mysql-connector-python/ [30]: https://pypi.org/project/mysqlclient/ [31]: https://github.com/PyMySQL/PyMySQL -[32]: https://learn.microsoft.com/sql/connect/ado-net/introduction-microsoft-data-sqlclient-namespace \ No newline at end of file +[32]: https://learn.microsoft.com/sql/connect/ado-net/introduction-microsoft-data-sqlclient-namespace +[33]: https://github.com/mongodb/node-mongodb-native +[34]: https://www.psycopg.org/psycopg3/ +[35]: https://pymongo.readthedocs.io/en/stable/ \ No newline at end of file diff --git a/content/es/database_monitoring/setup_postgres/aurora.md b/content/es/database_monitoring/setup_postgres/aurora.md index 6973d936b3f89..876a2f719bda9 100644 --- a/content/es/database_monitoring/setup_postgres/aurora.md +++ b/content/es/database_monitoring/setup_postgres/aurora.md @@ -18,8 +18,8 @@ El Agent recopila telemetría directamente de la base de datos iniciando sesión ## Antes de empezar -Versiones de PostgreSQL compatibles -: 9.6, 10, 11, 12, 13, 14, 15, 16 +Versiones PostgreSQL compatibles +: 9.6, 10, 11, 12, 13, 14, 15, 16, 17 Versiones del Agent compatibles : v7.36.1 o posterior @@ -188,14 +188,15 @@ Cuando se te pida una contraseña, utiliza la que introdujiste al crear el usuar Para monitorizar hosts de Aurora, instala el Datadog Agent en tu infraestructura y configúralo para conectarse a cada endpoint de instancia de forma remota. El Agent no necesita ejecutarse en la base de datos, sólo necesita conectarse a ella. Para conocer otros métodos de instalación del Agent no mencionados aquí, consulta las [instrucciones de instalación del Agent][8]. -{{< tabs >}} -{{% tab "Host" %}} - ### Configuración de Autodiscovery (recomendada) -El Datadog Agent admite la detección automática de todos los endpoints de Aurora en un clúster. A menos que quieras diferentes configuraciones para diferentes instancias o que quieras encontrar y listar los endpoints de Aurora manualmente, consulta las [instrucciones de configuración de Autodiscovery para clústeres de bases de datos de Aurora][3], en lugar de la sección de configuración manual que se muestra a continuación. +El Datadog Agent admite Autodiscovery para todos los endpoints Aurora de un clúster. + +Si necesitas configuraciones diferentes para instancias específicas o si prefieres especificar manualmente los endpoints de Aurora, sigue la sección de configuración manual a continuación. +De lo contrario, Datadog recomienda utilizar las [instrucciones de configuración de Autodiscovery para clústeres de bases de dato de Aurora][9]. -### Configuración manual +{{< tabs >}} +{{% tab "Host" %}} Para configurar la recopilación de métricas de Database Monitoring para un Agent que se ejecuta en un host, por ejemplo cuando se aprovisiona una pequeña instancia de EC2 para que el Agent recopile desde una base de datos Aurora: @@ -212,137 +213,242 @@ Para configurar la recopilación de métricas de Database Monitoring para un Age aws: instance_endpoint: '' region: '' + ## Required for Postgres 9.6: Uncomment these lines to use the functions created in the setup # pg_stat_statements_view: datadog.pg_stat_statements() # pg_stat_activity_view: datadog.pg_stat_activity() + ## Optional: Connect to a different database if needed for `custom_queries` # dbname: '' ```
Importante: Utiliza aquí el endpoint de la instancia de Aurora, no el endpoint del clúster.
- 2. [Reinicia el Agent][2]. - [1]: https://github.com/DataDog/integrations-core/blob/master/postgres/datadog_checks/postgres/data/conf.yaml.example [2]: /es/agent/configuration/agent-commands/#start-stop-and-restart-the-agent -[3]: /es/database_monitoring/guide/aurora_autodiscovery/?tab=postgres {{% /tab %}} + {{% tab "Docker" %}} +Para configurar una integración para un Agent que se ejecuta en un contenedor Docker, como en ECS o Fargate, hay algunos métodos disponibles que se cubren en detalle en la [documentación de configuración de Docker][1]. -Para configurar el Agent de la Monitorización de base de datos que se ejecuta en un contenedor de Docker, como en ECS o en Fargate, puedes definir las [plantillas de integración Autodiscovery][1] como etiquetas (labels) de Docker en tu contenedor del Agent. +Los siguientes ejemplos muestran cómo utilizar [etiquetas (labels) de Docker][2] y [plantillas de Autodiscovery][3] para configurar la integración de Postgres. -**Nota**: El Agent debe tener permiso de lectura en el socket de Docker para que las etiquetas (labels) de Autodiscovery funcionen. +**Nota**: El Agent debe tener permiso de lectura en el socket Docker para que las etiquetas de Autodiscovery funcionen. ### Línea de comandos -Ponte en marcha rápidamente con el siguiente comando para ejecutar el Agent desde tu línea de comandos. Sustituye los valores para que coincidan con tu cuenta y tu entorno: +Ejecuta el siguiente comando desde tu [línea de comandos][4] para iniciar el Agent. Sustituye los valores de los marcadores de posición por los de tu cuenta y entorno. ```bash export DD_API_KEY=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx -export DD_AGENT_VERSION=7.36.1 +export DD_AGENT_VERSION= docker run -e "DD_API_KEY=${DD_API_KEY}" \ -v /var/run/docker.sock:/var/run/docker.sock:ro \ - -l com.datadoghq.ad.check_names='["postgres"]' \ - -l com.datadoghq.ad.init_configs='[{}]' \ - -l com.datadoghq.ad.instances='[{ - "dbm": true, - "host": "", - "port": 5432, - "username": "datadog", - "password": "" - }]' \ + -l com.datadoghq.ad.checks='{"postgres": { + "init_config": {}, + "instances": [{ + "dbm": true, + "host": "", + "port": 5432, + "username": "datadog", + "password": "", + "aws": { + "instance_endpoint": "", + "region": "" + }, + "tags": ["dbinstanceidentifier:"] + }] + }}' \ gcr.io/datadoghq/agent:${DD_AGENT_VERSION} ``` Para Postgres v9.6, añade los siguientes parámetros a la configuración de la instancia donde se especifican el host y el puerto: ```yaml -pg_stat_statements_view: datadog.pg_stat_statements() -pg_stat_activity_view: datadog.pg_stat_activity() +"pg_stat_statements_view": "datadog.pg_stat_statements()", +"pg_stat_activity_view": "datadog.pg_stat_activity()" ``` -### Archivo Docker +### Archivo de Docker -Las etiquetas también pueden especificarse en un `Dockerfile`, por lo que puedes crear y desplegar un Agent personalizado sin cambiar la configuración de tu infraestructura: +También puedes especificar etiquetas (labels) en `Dockerfile`, lo que te permite crear y desplegar un Agent personalizado sin modificar la configuración de tu infraestructura: ```Dockerfile -FROM gcr.io/datadoghq/agent:7.36.1 +FROM gcr.io/datadoghq/agent: LABEL "com.datadoghq.ad.check_names"='["postgres"]' LABEL "com.datadoghq.ad.init_configs"='[{}]' -LABEL "com.datadoghq.ad.instances"='[{"dbm": true, "host": "", "port": 5432,"username": "datadog","password": "ENC[datadog_user_database_password]"}]' +LABEL "com.datadoghq.ad.instances"='[{"dbm": true, "host": "", "port": 5432,"username": "datadog","password": "ENC[datadog_user_database_password]","aws": {"instance_endpoint": "", "region": ""}, "tags": ["dbinstanceidentifier:"]}]' ``` -
Importante: Utiliza el endpoint de la instancia de Aurora como host, no el endpoint del clúster.
- Para Postgres v9.6, añade los siguientes parámetros a la configuración de la instancia donde se especifican el host y el puerto: ```yaml -pg_stat_statements_view: datadog.pg_stat_statements() -pg_stat_activity_view: datadog.pg_stat_activity() +"pg_stat_statements_view": "datadog.pg_stat_statements()", +"pg_stat_activity_view": "datadog.pg_stat_activity()" ``` +Para evitar exponer la contraseña del usuario `Datadog` en texto plano, utiliza el [paquete de gestión de secretos][5] del Agent y declara la contraseña utilizando la sintaxis `ENC[]`. Alternativamente, consulta la [documentación de variables de plantilla de Autodiscovery][6] para proporcionar la contraseña como una variable de entorno. -[1]: /es/agent/docker/integrations/?tab=docker +[1]: /es/containers/docker/integrations/?tab=labels#configuration +[2]: https://docs.docker.com/engine/manage-resources/labels/ +[3]: /es/getting_started/containers/autodiscovery/ +[4]: /es/containers/docker/integrations/?tab=labels#using-docker-run-nerdctl-run-or-podman-run +[5]: /es/agent/configuration/secrets-management +[6]: /es/agent/faq/template_variables/ {{% /tab %}} + {{% tab "Kubernetes" %}} +Si estás ejecutando un clúster de Kubernetes, usa el [Datadog Cluster Agent][1] para activar Database Monitoring. + +**Nota**: Asegúrate de que los [checks de clúster][2] estén activados para tu Datadog Cluster Agent antes de continuar. + +A continuación encontrarás instrucciones paso a paso para configurar la integración de Postgres utilizando diferentes métodos de despliegue del Datadog Cluster Agent. -Si tienes un clúster de Kubernetes, utiliza el [Datadog Cluster Agent][1] para la Monitorización de base de datos. +### Operación -Sigue las instrucciones para [habilitar checks de clúster][2], si no están habilitados en tu clúster de Kubernetes. Puedes declarar la configuración de Postgres mediante archivos estáticos montados en el contenedor del Cluster Agent o utilizando anotaciones de servicios: +Tomando como referencia las [Instrucciones para operadores en Kubernetes e integraciones][3], sigue los pasos que se indican a continuación para configurar la integración de Postgres: + +1. Crea o actualiza el archivo `datadog-agent.yaml` con la siguiente configuración: + + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + clusterName: + site: + credentials: + apiSecret: + secretName: datadog-agent-secret + keyName: api-key + + features: + clusterChecks: + enabled: true + + override: + nodeAgent: + image: + name: agent + tag: + + clusterAgent: + extraConfd: + configDataMap: + postgres.yaml: |- + cluster_check: true + init_config: + instances: + - host: + port: 5432 + username: datadog + password: 'ENC[datadog_user_database_password]' + dbm: true + aws: + instance_endpoint: + region: + tags: + - "dbinstanceidentifier:" + ``` + + **Nota**: Para Postgres v9.6, añade las siguientes líneas a la configuración de la instancia donde se especifican el host y el puerto: + + ```yaml + pg_stat_statements_view: datadog.pg_stat_statements() + pg_stat_activity_view: datadog.pg_stat_activity() + ``` + +2. Aplica los cambios al Datadog Operator utilizando el siguiente comando: + + ```shell + kubectl apply -f datadog-agent.yaml + ``` ### Helm -Realiza los siguientes pasos para instalar el [Datadog Cluster Agent][1] en tu clúster de Kubernetes. Sustituye los valores para que coincidan con tu cuenta y tu entorno. +Tomando como referencia las [instrucciones de Helm en Kubernetes e integraciones][4], sigue los pasos que se indican a continuación para configurar la integración de Postgres: + +1. Actualiza tu archivo `Datadog-values.yaml` (utilizado en las instrucciones de instalación del Cluster Agent) con la siguiente configuración: -1. Sigue las [instrucciones de instalación del Datadog Agent][3] para Helm. -2. Actualiza tu archivo de configuración YAML (`datadog-values.yaml` en las instrucciones de instalación del Cluster Agent) para incluir lo siguiente: ```yaml + datadog: + clusterChecks: + enabled: true + + clusterChecksRunner: + enabled: true + clusterAgent: + enabled: true confd: postgres.yaml: |- cluster_check: true init_config: instances: - - dbm: true - host: '' - port: 5432 - username: datadog - password: 'ENC[datadog_user_database_password]' - ## Required: For Postgres 9.6, uncomment these lines to use the functions created in the setup - # pg_stat_statements_view: datadog.pg_stat_statements() - # pg_stat_activity_view: datadog.pg_stat_activity() - - clusterChecksRunner: - enabled: true + - dbm: true + host: + port: 5432 + username: datadog + password: 'ENC[datadog_user_database_password]' + aws: + instance_endpoint: + region: + tags: + - "dbinstanceidentifier:" ``` - Para Postgres v9.6, añade los siguientes parámetros a la configuración de la instancia donde se especifican el host y el puerto: + **Nota**: Para Postgres v9.6, añade las siguientes líneas a la configuración de la instancia donde se especifican el host y el puerto: ```yaml pg_stat_statements_view: datadog.pg_stat_statements() pg_stat_activity_view: datadog.pg_stat_activity() ``` -3. Despliega el Agent con el archivo de configuración anterior desde la línea de comandos: +2. Despliega el Agent con el archivo de configuración anterior utilizando el siguiente comando: + ```shell helm install datadog-agent -f datadog-values.yaml datadog/datadog ```
-Para Windows, añade --set targetSystem=Windows al comando helm install. +For Windows, append --set targetSystem=windows to the helm install command.
-[1]: https://app.datadoghq.com/organization-settings/api-keys -[2]: /es/getting_started/site -[3]: /es/containers/kubernetes/installation/?tab=helm#installation +### Configuración con archivos integrados + +Para configurar un check de clúster con un archivo de configuración montado, monta el archivo de configuración en el contenedor del Cluster Agent en la ruta: `/conf.d/postgres.yaml`: + +```yaml +cluster_check: true # Make sure to include this flag +init_config: +instances: + - dbm: true + host: '' + port: 5432 + username: datadog + password: 'ENC[datadog_user_database_password]' + aws: + instance_endpoint: + region: + tags: + - "dbinstanceidentifier:" + + ## Required: For Postgres 9.6, uncomment these lines to use the functions created in the setup + # pg_stat_statements_view: datadog.pg_stat_statements() + # pg_stat_activity_view: datadog.pg_stat_activity() +``` + +### Configuración con anotaciones de servicios de Kubernetes -### Configurar con anotaciones de servicios de Kubernetes +En lugar de montar un archivo, puedes declarar la configuración de instancia como un servicio de Kubernetes. Para configurar este check para un Agent que se ejecuta en Kubernetes, crea un servicio en el mismo espacio de nombres que el Datadog Cluster Agent: -En lugar de integrar un archivo, puedes declarar la configuración de la instancia como servicio de Kubernetes. Para configurar este check en un Agent que se ejecuta en Kubernetes, crea un servicio en el mismo espacio de nombres que el Datadog Cluster Agent: +#### Anotaciones de Autodiscovery v2 ```yaml apiVersion: v1 @@ -353,20 +459,28 @@ metadata: tags.datadoghq.com/env: '' tags.datadoghq.com/service: '' annotations: - ad.datadoghq.com/service.checks: | + ad.datadoghq.com/.checks: | { "postgres": { + "init_config": , "instances": [ { "dbm": true, "host": "", "port": 5432, "username": "datadog", - "password": "ENC[datadog_user_database_password]" + "password": "ENC[datadog_user_database_password]", + "aws": { + "instance_endpoint": "", + "region": "" + }, + "tags": [ + "dbinstanceidentifier:" + ] } ] } - } + } spec: ports: - port: 5432 @@ -374,70 +488,41 @@ spec: targetPort: 5432 name: postgres ``` -
Importante: Utiliza aquí el endpoint de la instancia de Aurora, no el endpoint del clúster.
-Para configurar más de una instancia, puedes utilizar el siguiente formato: - -```yaml -apiVersion: v1 -kind: Service -metadata: - annotations: - ad.datadoghq.com/service.checks: | - { - "postgres": { - "instances": [ - { - "dbm":true, - "host":"your-host-1.us-east-2.rds.amazonaws.com", - "password":"ENC[datadog_user_database_password]", - "port":5432, - "username":"" - }, - { - "dbm":true, - "host":"your-host-2.us-east-2.rds.amazonaws.com", - "password":"ENC[datadog_user_database_password]", - "port":5432, - "username": "" - } - ] - } - } -``` +Para obtener más información, consulta [Anotaciones de Autodiscovery][5]. -Para Postgres v9.6, añade los siguientes parámetros a la configuración de la instancia donde se especifican el host y el puerto: +Si utilizas Postgres v9.6, añade lo siguiente a la configuración de la instancia: -```yaml -pg_stat_statements_view: datadog.pg_stat_statements() -pg_stat_activity_view: datadog.pg_stat_activity() +```json +"pg_stat_statements_view": "datadog.pg_stat_statements()", +"pg_stat_activity_view": "datadog.pg_stat_activity()" ``` El Cluster Agent registra automáticamente esta configuración y comienza a ejecutar el check de Postgres. -Para evitar exponer la contraseña del usuario `datadog` en texto simple, utiliza el [paquete de gestión de secretos][4] del Agent y declara la contraseña utilizando la sintaxis `ENC[]`. +Para evitar exponer la contraseña del usuario `datadog` en texto simple, utiliza el [paquete de gestión de secretos][6] del Agent y declara la contraseña utilizando la sintaxis `ENC[]`. -[1]: /es/agent/cluster_agent -[2]: /es/agent/cluster_agent/clusterchecks/ -[3]: https://helm.sh -[4]: /es/agent/configuration/secrets-management +[1]: /es/containers/cluster_agent/setup/ +[2]: /es/containers/cluster_agent/clusterchecks/ +[3]: /es/containers/kubernetes/integrations/?tab=datadogoperator +[4]: /es/containers/kubernetes/integrations/?tab=helm +[5]: /es/containers/kubernetes/integrations/?tab=annotations#configuration +[6]: /es/agent/configuration/secrets-management {{% /tab %}} - {{< /tabs >}} -### Validar +### Validación -[Ejecuta el subcomando de estado del Agent][9] y busca `postgres` en la sección Checks o visita la página [Bases de datos][10] para empezar. -## Ejemplo de configuraciones del Agent +[Ejecuta el subcomando de estado del Agent][10] y busca `postgres` en la sección Checks o visita la página [Bases de datos][11] para empezar. +## Configuraciones del Agent de ejemplo {{% dbm-postgres-agent-config-examples %}} ## Instalar la integración de RDS -Para ver métricas de infraestructura de AWS, como la CPU, junto con la telemetría de la base de datos en DBM, instala la [integración RDS][11] (opcional). - +Para ver métricas de infraestructura de AWS, como la CPU, junto con la telemetría de la base de datos en DBM, instala la [integración RDS][12] (opcional). ## Solucionar problemas -Si has instalado y configurado las integraciones y el Agent como se describe, pero no funcionan como se esperaba, consulta [Solucionar problemas][12]. +Si ya instalaste y configuraste las integraciones y el Agent como se describe, pero no funcionan como se esperaba, consulta [Solucionar problemas][13]. ## Referencias adicionales @@ -452,8 +537,9 @@ Si has instalado y configurado las integraciones y el Agent como se describe, pe [6]: /es/integrations/faq/postgres-custom-metric-collection-explained/ [7]: https://www.postgresql.org/docs/current/app-psql.html [8]: https://app.datadoghq.com/account/settings/agent/latest -[9]: /es/agent/configuration/agent-commands/#agent-status-and-information -[10]: https://app.datadoghq.com/databases -[11]: /es/integrations/amazon_rds -[12]: /es/database_monitoring/troubleshooting/?tab=postgres -[13]: /es/database_monitoring/guide/managed_authentication \ No newline at end of file +[9]: /es/database_monitoring/guide/aurora_autodiscovery/?tab=postgres +[10]: /es/agent/configuration/agent-commands/#agent-status-and-information +[11]: https://app.datadoghq.com/databases +[12]: /es/integrations/amazon_rds +[13]: /es/database_monitoring/troubleshooting/?tab=postgres +[14]: /es/database_monitoring/guide/managed_authentication \ No newline at end of file diff --git a/content/es/getting_started/learning_center.md b/content/es/getting_started/learning_center.md index 21f4b6b16b6e7..11e466530a856 100644 --- a/content/es/getting_started/learning_center.md +++ b/content/es/getting_started/learning_center.md @@ -1,4 +1,7 @@ --- +algolia: + tags: + - tutorial aliases: - /es/video-categories/ - /es/video-categories/datadog-101/ @@ -36,7 +39,7 @@ aliases: title: Centro de aprendizaje de Datadog --- -Datadog es extensa una plataforma diseñada para que puedas entender tu infraestructura. En caso de dudas, el [Centro de aprendizaje de Datadog][1] está allí para ayudarte a sacarle el máximo partido a todo lo que te ofrece la plataforma. +Datadog es una plataforma amplia diseñada para que puedas entender tu infraestructura. En caso de dudas, tienes el [Centro de aprendizaje de Datadog][1] para sacarle el máximo partido a todo lo que te ofrece la plataforma. Entra en [Cursos][2] para ver la lista de todos los cursos disponibles. diff --git a/content/es/getting_started/security/_index.md b/content/es/getting_started/security/_index.md new file mode 100644 index 0000000000000..1ccc4a302d2c8 --- /dev/null +++ b/content/es/getting_started/security/_index.md @@ -0,0 +1,12 @@ +--- +title: Empezando con la seguridad +--- + +{{< whatsnext desc=" " >}} + {{< nextlink href="getting_started/security/application_security" tag="documentation" >}}Empezando con App and API Protection{{< /nextlink >}} + {{< nextlink href="getting_started/security/cloud_security_management" tag="documentation" >}}Empezando con Cloud Security{{< /nextlink >}} + {{< nextlink href="getting_started/security/cloud_siem" tag="documentation" >}}Empezando con Cloud SIEM{{< /nextlink >}} + {{< nextlink href="getting_started/code_security" tag="documentation" >}}Empezando con Code Security{{< /nextlink >}} + {{< nextlink href="security/workload_protection/setup" tag="documentation" >}}Configuración de Workload Protection +{{< /nextlink >}} +{{< /whatsnext >}} \ No newline at end of file diff --git a/content/es/getting_started/tagging/using_tags.md b/content/es/getting_started/tagging/using_tags.md index 75b915b314f9e..741dd43d0375a 100644 --- a/content/es/getting_started/tagging/using_tags.md +++ b/content/es/getting_started/tagging/using_tags.md @@ -1,14 +1,14 @@ --- aliases: - /es/tagging/using_tags/ -description: Descubre cómo utilizar etiquetas (tags) en los productos de Datadog. +description: Descubre cómo utilizar etiquetas en los productos de Datadog. further_reading: - link: https://www.datadoghq.com/blog/tagging-best-practices/ tag: Blog text: Prácticas recomendadas para el etiquetado de tu infraestructura y tus aplicaciones - link: /getting_started/tagging/ tag: Documentación - text: Empezando con las etiquetas (tags) + text: Empezando con las etiquetas - link: /getting_started/tagging/assigning_tags/ tag: Documentación text: Aprender a asignar etiquetas @@ -26,9 +26,9 @@ Cuándo incluir o excluir varias etiquetas: ## Eventos -El [explorador de eventos][2] muestra los eventos de tu entorno que tienen lugar durante un determinado periodo de tiempo. Utiliza etiquetas para filtrar la lista de eventos y centrarte en un subconjunto de eventos. Introduce `tags:` seguido de una etiqueta para ver todos los eventos procedentes de un host, una [integración][3] o un servicio que tengan esa misma etiqueta. Por ejemplo, puedes utilizar `tags:service:coffee-house` para buscar la etiqueta `service:coffee-house`. +El [Explorador de eventos][2] muestra los eventos de tu entorno que tienen lugar durante un determinado periodo de tiempo. Utiliza etiquetas para filtrar la lista de eventos y centrarte en un subconjunto de eventos. Introduce `tags:` seguido de una etiqueta para ver todos los eventos procedentes de un host, una [integración][3] o un servicio que tengan esa misma etiqueta. Por ejemplo, puedes utilizar `tags:(service:coffee-house)` para buscar la etiqueta `service:coffee-house`. -Para buscar varias etiquetas de forma inclusiva, haz uso de los paréntesis y separa las etiquetas entre sí con OR: `tags:(service:coffee-house OR host:coffeehouseprod)`. Para buscar varias etiquetas de forma exclusiva, sepáralas entre sí con AND: `tags:(service:coffee-house AND host:coffeehouseprod)`. +Para buscar varias etiquetas de forma inclusiva, separa las etiquetas entre sí con OR: `tags:(service:coffee-house OR host:coffeehouseprod)`. Para buscar varias etiquetas de forma exclusiva, sepáralas entre sí con AND: `tags:(service:coffee-house AND host:coffeehouseprod)`. ## Dashboards @@ -59,7 +59,7 @@ Para crear un grupo conjunto utilizando etiquetas, introduce la parte clave de l {{< img src="tagging/using_tags/dashboard_group_by_tags.png" alt="Etiquetas en cuadros de texto avg by de dashboards" style="width:80%;">}} -Las etiquetas también pueden utilizarse para superponer eventos en el dashboard. Esto funciona de la misma manera que en el [explorador de eventos][2]. +Las etiquetas también pueden utilizarse para superponer eventos en el dashboard. Esto funciona de la misma manera que en el [Explorador de eventos][2]. Las coincidencias de eventos se superponen como barras verticales en el gráfico. En el ejemplo siguiente se utiliza `service:web-store`. {{< img src="tagging/using_tags/dashboard_event_overlays.png" alt="Utiliza etiquetas para añadir superposiciones de eventos en dashboards" style="width:80%;">}} @@ -86,7 +86,7 @@ Por último, se utiliza el segundo campo vacío (el campo de texto **avg by**) p {{< img src="tagging/using_tags/dashboard_timeseries_graph_editor_sumby_tag.png" alt="Editor de gráficos de series temporales filtrado por 'region:us-east-1' y agrupado por 'host'" style="width:75%;">}} -Si es necesario, añade más etiquetas para acotar aún más el contexto; por ejemplo, hosts en `region:eastus` y `env:production`. Las etiquetas pueden utilizarse en toda la plataforma de Datadog y aplicarse a todos los elementos principales (métricas, trazas y logs). +Si es necesario, añade más etiquetas para acotar aún más el contexto; por ejemplo, hosts en `region:eastus` y `env:production`. Las etiquetas pueden utilizarse en toda la plataforma de Datadog y aplicarse a todos los elementos principales (métricas, trazas (traces) y logs). {{% /tab %}} {{< /tabs >}} @@ -144,7 +144,7 @@ Al crear un nuevo monitor, utiliza *etiquetas de métricas* en: ## Métricas -Utiliza etiquetas en el [explorador de métricas][8] para filtrar métricas por etiquetas o para mostrar múltiples gráficos por clave de etiqueta. En el siguiente ejemplo se representa un gráfico de métrica sobre `service:web-store`. +Utiliza etiquetas en el [Explorador de métricas][8] para filtrar métricas por etiquetas o para mostrar múltiples gráficos por clave de etiqueta. En el siguiente ejemplo se representa un gráfico de métrica sobre `service:web-store`. {{< img src="tagging/using_tags/metrics_explorer.png" alt="Gráfico de métricas centrado en una etiqueta individual" style="width:80%;">}} @@ -197,7 +197,7 @@ El [cuadro de integración de Google Cloud][1] tiene el filtro de etiqueta `to h Este campo acepta una lista de etiquetas (labels) de GCP separadas por comas (en formato `:`) que defina un filtro, el cual se utiliza para recopilar métricas de las máquinas virtuales de GCP. También puedes utilizar comodines, como `?` (para caracteres únicos) y `*` (para varios caracteres). Solo se importarán a Datadog los hosts que coincidan con una de las etiquetas definidas y se ignorarán los demás. -Puedes excluir los hosts que coincidan con una etiqueta (label) determinada, siempre que añadas `!` antes de la etiqueta (tag). Ejemplo: +Puedes excluir los hosts que coincidan con una etiqueta (label) determinada, siempre que añadas `!` antes de la etiqueta. Ejemplo: ```text datadog:monitored,env:production,!env:staging,instance-type:c1.* @@ -215,9 +215,9 @@ Obtén más información sobre [cómo crear y gestionar etiquetas (labels)][2] e {{< tabs >}} {{% tab "Trace Explorer" %}} -En [Trace Explorer][1], puedes filtrar las trazas con etiquetas utilizando la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `service:coffee-house`. Para realizar una búsqueda avanzada, consulta la sección [Sintaxis de las consultas][2]. +En [Explorador de trazas][1], puedes filtrar las trazas con etiquetas utilizando la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `service:coffee-house`. Para realizar una búsqueda avanzada, consulta la sección [Sintaxis de las consultas][2]. -{{< img src="tagging/using_tags/trace_explorer.png" alt="Etiquetas del Trace Explorer" style="width:80%;">}} +{{< img src="tagging/using_tags/trace_explorer.png" alt="Etiquetas del Explorador de trazas" style="width:80%;">}} [1]: /es/tracing/trace_explorer/search/ [2]: /es/tracing/trace_explorer/query_syntax/ @@ -249,38 +249,13 @@ Si quieres excluir etiquetas, edita el texto con `` y, a continuación, añad ## Logs -Para la [búsqueda (Search)][10], el [análisis (Analytics)][11], los [patrones (Patterns)][12] y [Live Tail][13] de los logs, filtra las trazas con etiquetas utilizando la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `service:coffee-house`. Para realizar una búsqueda avanzada, consulta la página [Buscar logs][10]. +Para la [Búsqueda][10], el [Análisis][11], los [Patrones][12] y [Live Tail][13] de logs, filtra las trazas con etiquetas utilizando la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `service:coffee-house`. Para realizar una búsqueda avanzada, consulta la página [Buscar logs][10]. -{{< tabs >}} -{{% tab "Búsqueda" %}} - -{{< img src="tagging/using_tags/logsearchtags.png" alt="Etiquetas de búsqueda de logs" style="width:80%;">}} - -{{% /tab %}} -{{% tab "Análisis" %}} - -{{< img src="tagging/using_tags/loganalyticstags.png" alt="Etiquetas de análisis de logs" style="width:80%;">}} - -{{% /tab %}} -{{% tab "Patrones" %}} - -{{< img src="tagging/using_tags/logpatternstags.png" alt="Etiquetas de patrones de logs" style="width:80%;">}} - -{{% /tab %}} -{{% tab "Live Tail" %}} - -{{< img src="tagging/using_tags/livetailtags.mp4" alt="Etiquetas de Live Tail" video="true" width="80%">}} - -{{% /tab %}} -{{< /tabs >}} - -Las etiquetas también se pueden utilizar para filtrar un [pipeline][14] de logs. En el ejemplo de abajo, el pipeline filtra los logs en función de la etiqueta `service:coffee-house`. - -{{< img src="tagging/using_tags/logpipelinetags.png" alt="Etiquetas de pipeline" style="width:80%;">}} +Además, las etiquetas se utilizan para filtrar el [pipeline][14] de un log. Por ejemplo, si sólo quieres que los logs del servicio de cafetería pasen por el pipeline, añade la etiqueta `service:coffee-house` al campo de filtro. ## RUM y Session Replay -El [navegador RUM][15] muestra los eventos de tu entorno que tienen lugar durante un determinado periodo de tiempo. +El [Explorador RUM][15] muestra los eventos de tu entorno que tienen lugar durante un determinado periodo de tiempo. Para filtrar los datos de los eventos de RUM por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `service:shopist`. Para realizar una búsqueda avanzada, consulta la sección [Buscar eventos de RUM][16]. @@ -289,11 +264,11 @@ Para filtrar los datos de los eventos de RUM por etiquetas, utiliza la barra de ## Synthetics {{< tabs >}} -{{% tab "Pruebas de Synthetic" %}} +{{% tab "Synthetic Tests" %}} -Puedes ver tus pruebas de Synthetic en la página [Pruebas de Synthetic][1]. +Puedes ver tus tests Synthetic en la página [Tests Synthetic][1]. -Para filtrar las pruebas por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `tag:mini-website`. Para realizar una búsqueda avanzada, consulta la sección [Buscar y gestionar pruebas de Synthetic][2]. +Para filtrar los tests por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo, `tag:mini-website`. Para realizar una búsqueda avanzada, consulta la sección [Buscar y gestionar tests Synthetic][2]. {{< img src="tagging/using_tags/syntheticstags.png" alt="Etiquetas de Synthetics" style="width:80%;">}} @@ -303,9 +278,9 @@ Para filtrar las pruebas por etiquetas, utiliza la barra de búsqueda o las casi {{% /tab %}} {{% tab "Explorador" %}} -El [explorador de monitorización y prueba continua de Synthetic][1] muestra tus ejecuciones y lotes de ejecuciones de pruebas en un [pipeline CI][2]. +El [Explorador de monitorización y resultados de tests Synthetic][1] muestra tus ejecuciones de tests y lotes de ejecuciones en un [pipeline CI][2]. -Para filtrar las pruebas por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo: `@ci.provider.name:github`. Para realizar una búsqueda avanzada, consulta [Buscar lotes de pruebas][3]. +Para filtrar las tests por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo: `@ci.provider.name:github`. Para realizar una búsqueda avanzada, consulta [Buscar lotes de tests][3]. {{< img src="tagging/using_tags/syntheticscitags.png" alt="Etiquetas de Synthetics y CI" style="width:80%;">}} @@ -353,25 +328,25 @@ Al crear un [SLO basado en monitores][1] con un solo [monitor agrupado][2], util ## CI Visibility {{< tabs >}} -{{% tab "Ejecuciones de pruebas" %}} +{{% tab "Test Runs" %}} -El [explorador de visibilidad CI][101] muestra tus pruebas ejecutadas en un pipeline CI. +El [Explorador de CI Visibility][101] muestra tus pruebas ejecutadas en un pipeline CI. -Para filtrar las pruebas por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo: `@test.status:failed`. Para realizar una búsqueda avanzada, consulta [Buscar y gestionar pruebas de CI][102]. +Para filtrar las ejecuciones de tests por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de las facetas. El formato de la barra de búsqueda es `:`. Por ejemplo: `@test.status:failed`. Para búsquedas avanzadas, consulta la [sintaxis de búsqueda del Explorador de optimización de Test Optimization][102]. -{{< img src="/continuous_integration/test_runs.png" alt="Ejecuta pruebas en el explorador de visibilidad CI" style="width:80%;">}} +{{< img src="/continuous_integration/test_runs.png" alt="Ejecuta tests en el Explorador de CI Visibility" style="width:80%;">}} [101]: https://app.datadoghq.com/ci/test-runs -[102]: /es/tests/search/ +[102]: /es/tests/explorer/search_syntax {{% /tab %}} {{% tab "Ejecuciones de pipelines" %}} -El [explorador de visibilidad CI][101] muestra las ejecuciones de tu pipeline CI. +El [Explorador de CI Visibility][101] muestra las ejecuciones de tu pipeline CI. Para filtrar las ejecuciones de pipeline por etiquetas, utiliza la barra de búsqueda o las casillas de verificación de facetas. El formato de la barra de búsqueda es `:`; por ejemplo: `@ci.provider.name:gitlab`. Para realizar una búsqueda avanzada, consulta [Buscar y gestionar pipelines CI][102]. -{{< img src="/continuous_integration/pipeline_executions.png" alt="Ejecuciones de pipelines en el explorador de visibilidad CI" style="width:80%;">}} +{{< img src="/continuous_integration/pipeline_executions.png" alt="Ejecuciones de pipelines en el Explorador de CI Visibility" style="width:80%;">}} [101]: https://app.datadoghq.com/ci/pipeline-executions [102]: /es/continuous_testing/explorer/search/ @@ -379,6 +354,12 @@ Para filtrar las ejecuciones de pipeline por etiquetas, utiliza la barra de bús {{% /tab %}} {{< /tabs >}} +## DORA Metrics + +El [Explorador de DORA Metrics][33] muestra tus agregaciones de DORA Metrics. Para filtrar las métricas y agregaciones mostradas por etiquetas, utiliza el botón `+ Filter` para añadir facetas a las etiquetas existentes. Para realizar consultas con etiquetas en gráficos y dashboards, consulta [DORA Metrics Crear dashboards personalizados][34]. + +{{< img src="/dora_metrics/dora_ui_3.png" alt="Información general de cálculos de DORA Metrics filtrada por la etiqueta personalizada Lenguaje" style="width:80%;">}} + ## Desarrolladores Las etiquetas pueden utilizarse de diferentes formas con la [API][17]. @@ -386,7 +367,7 @@ Las etiquetas pueden utilizarse de diferentes formas con la [API][17]. Consulta esta lista para encontrar los enlaces a cada una de las siguientes secciones: * [Programar el tiempo de inactividad de un monitor][18] -* [Realizar consultas en el navegador de eventos][19] +* [Realizar consultas en el Explorador de eventos][19] * [Buscar hosts][20] * Integraciones para [AWS][21] y [Google Cloud][22] * [Realizar consultas en puntos de las series temporales][23] @@ -400,7 +381,7 @@ Consulta esta lista para encontrar los enlaces a cada una de las siguientes secc * [Obtener los detalles de un SLO][28] * [Actualizar un SLO][29] -## Lectura adicional +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -435,4 +416,6 @@ Consulta esta lista para encontrar los enlaces a cada una de las siguientes secc [29]: /es/api/v1/service-level-objectives/#update-a-slo [30]: /es/monitors/manage/#monitor-tags [31]: /es/monitors/downtimes/ -[32]: /es/getting_started/tagging/assigning_tags?tab=monitors \ No newline at end of file +[32]: /es/getting_started/tagging/assigning_tags?tab=monitors +[33]: https://app.datadoghq.com/ci/dora +[34]: /es/dora_metrics/#create-custom-dashboards \ No newline at end of file diff --git a/content/es/integrations/airbrake.md b/content/es/integrations/airbrake.md index df4cb3ba01c0f..059c5ac1a9891 100644 --- a/content/es/integrations/airbrake.md +++ b/content/es/integrations/airbrake.md @@ -1,69 +1,25 @@ --- app_id: airbrake -app_uuid: 9628996b-82c1-4920-a0c5-c5f32dabd4cf -assets: - integration: - auto_install: false - events: - creates_events: true - metrics: - check: - - airbrake.exception_rate - metadata_path: metadata.csv - prefix: airbrake. - service_checks: - metadata_path: assets/service_checks.json - source_type_id: 34 - source_type_name: Airbrake -author: - homepage: https://www.datadoghq.com - name: Datadog - sales_email: info@datadoghq.com - support_email: help@datadoghq.com categories: - metrics - event management - issue tracking -custom_kind: integration -dependencies: [] -display_on_public_website: true -draft: false -git_integration_title: airbrake -integration_id: airbrake -integration_title: Airbrake -integration_version: '' -is_public: true -manifest_version: 2.0.0 -name: airbrake -public_title: Airbrake -short_description: Ver, buscar y discutir las excepciones de Airbrake en tu flujo +custom_kind: integración +description: Visualiza, busca y debate las excepciones de Airbrake en tu flujo (stream) de eventos. -supported_os: [] -tile: - changelog: CHANGELOG.md - classifier_tags: - - Category::Metrics - - Category::Event Management - - Category::Issue Tracking - - Offering::Integration - configuration: README.md#Setup - description: Ver, buscar y discutir excepciones de Airbrake en tu flujo de eventos. - media: [] - overview: README.md#Overview - support: README.md#Support - title: Airbrake +integration_version: 1.0.0 +media: [] +title: Airbrake --- - - ## Información general Conecta Airbrake a Datadog para: -- Ve las excepciones en tiempo real como [eventos][1] en Datadog. -- Busca las excepciones en tus gráficos. -- Comenta las excepciones con tu equipo. +- Visualiza excepciones en tiempo real como [eventos](https://docs.datadoghq.com/events/) en Datadog. +- Busca excepciones en tus gráficos. +- Discute las excepciones con tu equipo. -{{< img src="integrations/airbrake/airbrakeevent.png" alt="airbrake" popup="true">}} +![airbrake_event](images/snapshot_event.png) ## Configuración @@ -73,23 +29,25 @@ Configura la integración de Airbrake utilizando webhooks: 1. Ve a la página de configuración en tu cuenta de Airbrake. -2. Para cada proyecto que desees activar, haz clic en **Integrations** (Integraciones). +1. Para cada proyecto que quieras activar, haz clic en **Integrations** (Integraciones). -3. Haz clic en **WebHooks** e introduce esta URL en el campo **URL**: +1. Haz clic en **WebHooks** e introduce esta URL en el campo **URL**: - ```text - https://app.datadoghq.com/intake/webhook/airbrake?api_key= - ``` + ```text + https://app.datadoghq.com/intake/webhook/airbrake?api_key= + ``` -4. Haz clic en **Save** (Guardar). +1. Haz clic en **Save** (Guardar). -Ve a [Events Explorer][2] para ver los nuevos errores de Airbrake. +Ve al [Explorador de eventos](https://app.datadoghq.com/event/explorer) para ver los nuevos errores de Airbrake. ## Datos recopilados ### Métricas -{{< get-metrics-from-git "airbrake" >}} +| | | +| --- | --- | +| **airbrake.exception_rate**
(gauge) | Índice de excepciones.
_Se muestra como evento_ | ### Eventos @@ -101,9 +59,4 @@ La integración de Airbrake no incluye checks de servicios. ## Solucionar problemas -¿Necesitas ayuda? Ponte en contacto con [el soporte de Datadog][4]. - -[1]: https://docs.datadoghq.com/es/events/ -[2]: https://app.datadoghq.com/event/explorer -[3]: https://github.com/DataDog/integrations-internal-core/blob/main/airbrake/metadata.csv -[4]: https://docs.datadoghq.com/es/help/ \ No newline at end of file +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/amazon_codedeploy.md b/content/es/integrations/amazon_codedeploy.md new file mode 100644 index 0000000000000..9c0d7e42445fb --- /dev/null +++ b/content/es/integrations/amazon_codedeploy.md @@ -0,0 +1,147 @@ +--- +"aliases": +- "/integrations/awscodedeploy/" +"app_id": "amazon-codedeploy" +"app_uuid": "b1fcc2d7-0882-41d8-92ad-886a9750c0a9" +"assets": + "dashboards": + "aws_codedeploy": "assets/dashboards/aws_codedeploy.json" + "integration": + "auto_install": false + "events": + "creates_events": true + "metrics": + "check": "aws.codedeploy.deployment" + "metadata_path": "metadata.csv" + "prefix": "aws.codedeploy." + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "198" + "source_type_name": "Amazon CodeDeploy" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "automation" +- "aws" +- "cloud" +- "configuration & deployment" +- "log collection" +- "provisioning" +"custom_kind": "integration" +"dependencies": [] +"description": "Ve los despliegues a medida que se producen y controla el tiempo que tardan" +"display_on_public_website": true +"doc_link": "https://docs.datadoghq.com/integrations/amazon_codedeploy/" +"draft": false +"git_integration_title": "amazon_codedeploy" +"has_logo": true +"integration_id": "amazon-codedeploy" +"integration_title": "AWS CodeDeploy" +"integration_version": "" +"is_public": true +"manifest_version": "2.0.0" +"name": "amazon_codedeploy" +"public_title": "AWS CodeDeploy" +"short_description": "AWS CodeDeploy es un servicio que automatiza el despliegue de código en instancias en la nube y on-premise." +"supported_os": [] +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Category::Automatización" + - "Category::AWS" + - "Category::Cloud" + - "Category::Configuración y despliegue" + - "Category::Recopilación de logs" + - "Category::Provisioning" + - "Offering::Integration" + "configuration": "README.md#Configuración" + "description": "AWS CodeDeploy es un servicio que automatiza el despliegue de código en instancias en la nube y on-premise." + "media": [] + "overview": "README.md#Información general" + "support": "README.md#Soporte" + "title": "AWS CodeDeploy" +"version": "1.0" +--- + + +![CodeDeploy default dashboard][1] + +## Información general + +AWS CodeDeploy es un servicio que automatiza el despliegue de código en instancias en la nube y on-premise. + +Habilita esta integración para ver eventos de despliegue y métricas de AWS CodeDeploy en Datadog. + +## Configuración + +### Instalación + +Si aún no lo has hecho, primero configura la [integración de Amazon Web Services][2]. + +### Recopilación de métricas + +1. Añade los siguientes permisos a tu [política de Datadog IAM][3] para poder recopilar métricas de AWS CodeDeploy. Para obtener más información, consulta las [políticas de CodeDeploy][4] en el sitio web de AWS. + + | Permiso de AWS | Descripción | + | ------------------------------------- | ----------------------------------------------------------------------------- | + | `codedeploy:ListApplications` | Se utiliza para hacer una lista de todas las aplicaciones de CodeDeploy | + | `codedeploy:ListDeploymentGroups` | Se utiliza para hacer una lista de todos los grupos de despliegues dentro de una aplicación (editado) | + | `codedeploy:ListDeployments` | Se utiliza para hacer una lista de despliegues en un grupo de despliegues dentro de una aplicación (editado) | + | `codedeploy:BatchGetDeployments` | Obtiene descripciones detalladas de los despliegues (editados) | + | `codedeploy:BatchGetDeploymentGroups` | Obtiene descripciones detalladas de los grupos de despliegues | + +2. Instala la [integración Datadog - AWS CodeDeploy][5]. + +### Recopilación de logs + +#### Activar logging + +Configura AWS CodeDeploy para enviar logs a un bucket de S3 o a CloudWatch. + +**Nota**: Si vas a loguear en un bucket de S3, asegúrate de que `amazon_codedeploy` está configurado como _Target prefix_ (Prefijo de destino). + +#### Enviar logs a Datadog + +1. Si aún no lo has hecho, configura la [función de Lambda de Datadog Forwarder][6]. +2. Una vez instalada la función de Lambda, añade manualmente un activador en el bucket de S3 o grupo de logs de CloudWatch que contenga tus logs de AWS CodeDeploy en la consola de AWS: + + - [Añadir un activador manual en el bucket de S3][7] + - [Añadir un activador manual en el grupo de logs de CloudWatch][8] + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "amazon_codedeploy" >}} + + +A cada una de las métricas recuperadas de AWS se le asignan las mismas etiquetas (tags) que aparecen en la consola de AWS, incluidos, entre otros, el nombre del host y los grupos de seguridad. + +### Eventos + +La integración de AWS CodeDeploy incluye eventos para despliegues exitosos, fallidos y detenidos. Consulta los eventos de ejemplo a continuación: + +![AWS CodeDeploy Event][10] + +### Checks de servicio + +La integración de AWS CodeDeploy no incluye ningún check de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [equipo de asistencia de Datadog][11]. + +[1]: images/monitor-aws-codedeploy-dashboard.png +[2]: https://docs.datadoghq.com/integrations/amazon_web_services/ +[3]: https://docs.datadoghq.com/integrations/amazon_web_services/#installation +[4]: https://docs.aws.amazon.com/codedeploy/latest/userguide/security-iam.html +[5]: https://app.datadoghq.com/integrations/amazon_codedeploy +[6]: https://docs.datadoghq.com/logs/guide/forwarder/ +[7]: https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-s3-buckets +[8]: https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/#collecting-logs-from-cloudwatch-log-group +[9]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_codedeploy/metadata.csv +[10]: images/aws_codedeploy_events.png +[11]: https://docs.datadoghq.com/help/ + diff --git a/content/es/integrations/amazon_web_services.md b/content/es/integrations/amazon_web_services.md index 0341ac1998de6..e54ccfe4e78cb 100644 --- a/content/es/integrations/amazon_web_services.md +++ b/content/es/integrations/amazon_web_services.md @@ -1,42 +1,80 @@ --- -aliases: -- /es/integrations/aws/ -- /es/logs/aws -- /es/integrations/faq/revoking-aws-keys-and-enabling-role-delegation-for-the-datadog-aws-integration/ -- /es/integrations/faq/additional-aws-metrics-min-max-sum -- /es/integrations/faq/why-am-i-only-seeing-the-average-values-of-my-custom-aws-cloudwatch-metrics/ +app_id: "amazon-web-services" +app_uuid: "45508037-7831-469d-80da-20241f00cbed" +assets: + dashboards: + aws_advisor: "assets/dashboards/aws_advisor.json" + aws_ebs: "assets/dashboards/aws_ebs.json" + aws_event_bridge: "assets/dashboards/aws_event_bridge.json" + aws_firehose: "assets/dashboards/aws_firehose.json" + aws_overall: "assets/dashboards/aws_overall.json" + aws_sns: "assets/dashboards/aws_sns.json" + aws_sqs: "assets/dashboards/aws_sqs.json" + integration: + auto_install: false + events: + creates_events: true + metrics: + check: + - "aws.usage.call_count" + metadata_path: "assets/metrics/metric-spec.yaml" + prefix: "aws." + service_checks: + metadata_path: "assets/service_checks.json" + source_type_id: !!int "10" + source_type_name: "Amazon Web Services" + monitors: + "Integration Health Status": "assets/monitors/aws_integration_status_monitor.json" +author: + homepage: "https://www.datadoghq.com" + name: "Datadog" + sales_email: "info@datadoghq.com" + support_email: "help@datadoghq.com" categories: -- aws -- cloud -- iot -- log collection -- event management -custom_kind: integration +- "aws" +- "cloud" +- "iot" +- "log collection" +- "event management" +custom_kind: "integración" dependencies: [] -description: Integra tus servicios de AWS con Datadog. -doc_link: https://docs.datadoghq.com/integrations/amazon_web_services/ +display_on_public_website: true draft: false -further_reading: -- link: https://www.datadoghq.com/blog/monitor-aws-control-plane-api-usage-metrics/ - tag: Blog - text: Monitoriza las métricas de uso de la API del plano de control de AWS en Datadog -- link: https://www.datadoghq.com/blog/aws-reinvent-2022-recap/ - tag: Blog - text: Aspectos destacados de AWS re:Invent 2022 -git_integration_title: amazon_web_services -has_logo: true -integration_id: amazon-web-services -integration_title: AWS -integration_version: '' +git_integration_title: "amazon_web_services" +integration_id: "amazon-web-services" +integration_title: "Amazon Web Services" +integration_version: "" is_public: true -manifest_version: '1.0' -name: amazon_web_services -public_title: Integración de AWS con Datadog -short_description: Integra tus servicios de AWS con Datadog. -version: '1.0' +manifest_version: "2.0.0" +name: "amazon_web_services" +public_title: "Amazon Web Services" +short_description: "Amazon Web Services (AWS) es un conjunto de servicios web que juntos conforman una plataforma de computación en la nube" +supported_os: [] +tile: + changelog: "CHANGELOG.md" + classifier_tags: + - "Category::AWS" + - "Category::Cloud" + - "Category::IoT" + - "Category::Recopilación de logs" + - "Category::Event Management" + - "Offering::Integration" + configuration: "README.md#Setup" + description: "Amazon Web Services (AWS) es un conjunto de servicios web que juntos conforman una plataforma de computación en la nube" + media: [] + overview: "README.md#Overview" + resources: + - resource_type: "blog" + url: "https://www.datadoghq.com/blog/monitor-aws-control-plane-api-usage-metrics/" + - resource_type: "blog" + url: "https://www.datadoghq.com/blog/aws-reinvent-2022-recap/" + - resource_type: "blog" + url: "https://www.datadoghq.com/blog/iam-least-privilege/" + support: "README.md#Support" + title: "Amazon Web Services" --- - + ## Información general Conecta Amazon Web Services (AWS) para: @@ -52,31 +90,31 @@ Para empezar a utilizar la integración de AWS cuanto antes, consulta la [guía La integración Amazon Web Services de Datadog recopila logs, eventos y [la mayoría de las métricas de CloudWatch][2] para más de [90 servicios AWS][3]. -## Configuración +## Configurar Usa uno de los siguientes métodos para integrar tus cuentas de AWS en Datadog con el fin de recopilar métricas, eventos, etiquetas y logs. -### Automática +### Automático - * **CloudFormation (el mejor método para empezar cuanto antes)** + * **CloudFormation (la mejor opción para empezar rápidamente)**. Para configurar la integración de AWS con CloudFormation, consulta la [guía sobre cómo empezar con AWS][1]. - * **Terraform** + * **Terraform** Para configurar la integración AWS con Terraform, consulta la [integración AWS con Terraform][4]. - * **Control Tower** + * **Control Tower** Para configurar la integración AWS al proporcionar una nueva cuenta AWS con [Control Tower Account Factory][5], consulta la [guía de configuración de Control Tower][6]. - * **Configuración de varias cuentas para AWS Organizations** + * **Configuración multicuenta para AWS Organizations** Para configurar la integración AWS para varias cuentas dentro de una organización AWS, consulta la [guía de configuración de AWS Organizations][7]. -### Manual +### Manual - * **Delegación de roles** + * **Delegación de roles** Para configurar manualmente la integración AWS con delegación de roles, consulta la [guía de configuración manual][8]. * **Claves de acceso (sólo GovCloud o China)** - Para configurar la integración AWS con claves de acceso, consulta la [guía de configuración manual][9]. + Para configurar la integración de AWS con las claves de acceso, consulta la [guía de configuración manual][9]. *\* Cualquier uso de los servicios Datadog en China continental (o relacionados con entornos de esta localización) está sujeto a la cláusula de exención de responsabilidad, publicada en la sección [Localizaciones con restricciones de servicio][10] de nuestro sitio web.* @@ -106,23 +144,56 @@ Algunos productos de Datadog aprovechan la información de configuración de tus {{% aws-resource-collection %}} -### Gestión de la seguridad en la nube +### Tipos de recursos y permisos -#### Configuración +En las siguientes secciones se enumeran los tipos de recursos recopilados para los distintos productos de Datadog y los permisos asociados necesarios para que el rol de IAM de Datadog recopile datos en tu nombre. Añade estos permisos a tu política de IAM de la integración de AWS **existente** (con la política `SecurityAudit` adjunta). -Si no tienes configurada la integración AWS para tu cuenta AWS, completa el [proceso de configuración][16] anterior. Asegúrate de habilitar Cloud Security Management cuando se mencione. +{{% collapse-content title="Cloud Cost Management (CCM)" level="h4" expanded=false id="cloud-cost-management" %}} +{{% aws-resource-collection-cloud-cost-management %}} +{{% /collapse-content %}} + +{{% collapse-content title="Cloudcraft" level="h4" expanded=false id="cloudcraft" %}} +{{% aws-resource-collection-cloudcraft %}} +{{% /collapse-content %}} + +{{% collapse-content title="Cloud Security Monitoring (CSM)" level="h4" expanded=false id="cloud-security-monitoring" %}} +{{% aws-resource-collection-cloud-security-monitoring %}} +{{% /collapse-content %}} + +{{% collapse-content title="Network Performance Monitoring (NPM)" level="h4" expanded=false id="network-performance-monitoring" %}} +{{% aws-resource-collection-network-performance-monitoring %}} +{{% /collapse-content %}} + +{{% collapse-content title="Catálogo de recursos" level="h4" expanded=false id="resource-catalog" %}} +{{% aws-resource-collection-resource-catalog %}} +{{% /collapse-content %}} + +#### Próximos lanzamientos + +Los permisos enumerados aquí reflejan los recursos que está previsto añadir en los próximos 30 días. Incluye estos permisos en tu política de IAM de integración de AWS **existente** (con la política `SecurityAudit` adjunta) para obtener todos los beneficios de la cobertura y el seguimiento de recursos de Datadog. + +{{% collapse-content title="Permisos para próximos lanzamientos" level="h4" expanded=false id="upcoming-permissions" %}} +{{% aws-resource-collection-upcoming-permissions %}} +{{% /collapse-content %}} + +### Cloud Security + +#### Configurar + +Si no tienes configurada la integración AWS para tu cuenta AWS, completa el [proceso de configuración][16] anterior. Asegúrate de habilitar Cloud Security cuando se mencione. **Nota:** Para usar esta función, es necesario configurar la integración de AWS con **Delegación de roles*.* -Para añadir Cloud Security Management a una integración AWS existente, sigue los pasos que se indican a continuación para habilitar la recopilación de recursos. +Para añadir Cloud Security a una integración existente en AWS, sigue los pasos que se indican a continuación para habilitar la recopilación de recursos. 1. Proporciona los permisos necesarios al rol de IAM Datadog adjuntando la política de AWS gestionada `SecurityAudit` a tu rol de IAM AWS Datadog. Puedes encontrar este política en la [consola de AWS][17]. 2. Completa la configuración en la [página de la integración AWS Datadog][18] con los pasos que se indican a continuación. Como alternativa, puedes utilizar el endpoint de la API [Actualizar una integración AWS][8]. 1. Selecciona la cuenta AWS en la que quieres habilitar la recopilación de recursos. - 2. Ve a la pestaña **Recopilación de recursos** de esa cuenta y habilita `Cloud Security Posture Management Collection`. - 3. En la parte inferior derecha de la página, haz clic en `Save`. + 2. En la pestaña **Resource collection** (Recopilación de recursos), haz clic en **Enable** (Habilitar) junto a Cloud Security. Se te redirigirá a la página de configuración de Cloud Security y se abrirá automáticamente un cuadro de diálogo de configuración para la cuenta seleccionada. + 3. En el cuadro de diálogo de configuración, activa la casilla **Enable Resource Scanning** (Activar escaneado de recursos). + 4. Haz clic en **Done** (Hecho) para completar la configuración. ## Recopilación de alarmas @@ -134,7 +205,7 @@ Hay dos maneras de enviar alarmas de CloudWatch AWS al Explorador de eventos de ## Datos recopilados ### Métricas -{{< get-metrics-from-git "amazon-web-services" >}} +{{< get-metrics-from-git "amazon_web_services" >}} **Nota**: Puedes habilitar la recopilación de métricas personalizadas de AWS, así como métricas de servicios para los que Datadog no tiene una integración. Consulta las [FAQ sobre la integración de AWS y CloudWatch][22] para obtener más información. @@ -143,13 +214,13 @@ Hay dos maneras de enviar alarmas de CloudWatch AWS al Explorador de eventos de Los eventos de AWS se recopilan por cada servicio AWS. Para obtener más información sobre eventos recopilados, consulta la [documentación de tu servicio AWS][3]. -### Etiquetas +### Etiquetas (Tags) Las siguientes etiquetas se recopilan con la integración de AWS. **Nota**: Algunas etiquetas solo se muestran en determinadas métricas. | Integración | Claves de etiqueta de Datadog | |------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| Todas | `region` | +| Todos | `region` | | [API Gateway][23] | `apiid`, `apiname`, `method`, `resource`, `stage` | | [App Runner][24] | `instance`, `serviceid`, `servicename` | | [Auto Scaling][25] | `autoscalinggroupname`, `autoscaling_group` | @@ -191,7 +262,7 @@ Las siguientes etiquetas se recopilan con la integración de AWS. **Nota**: Algu | [WorkSpaces][61] | `directoryid`, `workspaceid` | ### Checks de servicio -{{< get-service-checks-from-git "amazon-web-services" >}} +{{< get-service-checks-from-git "amazon_web_services" >}} ## Solucionar problemas @@ -200,68 +271,76 @@ Para solucionar problemas relacionados con la integración AWS, consulta la [gu ## Referencias adicionales -{{< partial name="whats-next/whats-next.html" >}} +Documentación útil adicional, enlaces y artículos: +- [Monitoriza las métricas de uso de la API del plano de control de AWS en Datadog][64] +- [Aspectos destacados de AWS re:Invent 2022][65] +- [Prácticas recomendadas para crear políticas de AWS IAM de mínimo privilegio][66] + -[1]: https://docs.datadoghq.com/es/getting_started/integrations/aws/ +[1]: https://docs.datadoghq.com/getting_started/integrations/aws/ [2]: https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/aws-services-cloudwatch-metrics.html -[3]: https://docs.datadoghq.com/es/integrations/#cat-aws -[4]: https://docs.datadoghq.com/es/integrations/guide/aws-terraform-setup +[3]: https://docs.datadoghq.com/integrations/#cat-aws +[4]: https://docs.datadoghq.com/integrations/guide/aws-terraform-setup/ [5]: https://docs.aws.amazon.com/controltower/latest/userguide/account-factory.html [6]: https://aws.amazon.com/blogs/awsmarketplace/deploy-datadogs-aws-integration-accounts-aws-control-tower-account-factory-customization/ -[7]: https://docs.datadoghq.com/es/integrations/guide/aws-organizations-setup/ -[8]: https://docs.datadoghq.com/es/integrations/guide/aws-manual-setup/ -[9]: https://docs.datadoghq.com/es/integrations/guide/aws-manual-setup/?tab=accesskeysgovcloudorchinaonly +[7]: https://docs.datadoghq.com/integrations/guide/aws-organizations-setup/ +[8]: https://docs.datadoghq.com/integrations/guide/aws-manual-setup/ +[9]: https://docs.datadoghq.com/integrations/guide/aws-manual-setup/?tab=accesskeysgovcloudorchinaonly [10]: https://www.datadoghq.com/legal/restricted-service-locations/ -[11]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-kinesis-firehose-destination/ -[12]: https://docs.datadoghq.com/es/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/ -[13]: https://docs.datadoghq.com/es/integrations/guide/cloud-metric-delay/#aws -[14]: https://docs.datadoghq.com/es/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose/ -[15]: https://docs.datadoghq.com/es/account_management/billing/aws/ -[16]: https://docs.datadoghq.com/es/integrations/amazon_web_services/?tab=roledelegation#setup +[11]: https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-kinesis-firehose-destination/ +[12]: https://docs.datadoghq.com/logs/guide/send-aws-services-logs-with-the-datadog-lambda-function/ +[13]: https://docs.datadoghq.com/integrations/guide/cloud-metric-delay/#aws +[14]: https://docs.datadoghq.com/integrations/guide/aws-cloudwatch-metric-streams-with-kinesis-data-firehose/ +[15]: https://docs.datadoghq.com/account_management/billing/aws/ +[16]: https://docs.datadoghq.com/integrations/amazon_web_services/?tab=roledelegation#setup [17]: https://console.aws.amazon.com/iam/home#policies/arn:aws:iam::aws:policy/SecurityAudit [18]: https://app.datadoghq.com/integrations/amazon-web-services [19]: https://docs.aws.amazon.com/AmazonCloudWatch/latest/APIReference/API_DescribeAlarmHistory.html#API_DescribeAlarmHistory_RequestParameters -[20]: https://docs.datadoghq.com/es/integrations/amazon_sns/#receive-sns-messages -[21]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_web_services/amazon_web_services_metadata.csv -[22]: https://docs.datadoghq.com/es/integrations/guide/aws-integration-and-cloudwatch-faq/#can-i-collect-aws-custom-metrics-through-the-integration -[23]: https://docs.datadoghq.com/es/integrations/amazon_api_gateway/ -[24]: https://docs.datadoghq.com/es/integrations/amazon_app_runner -[25]: https://docs.datadoghq.com/es/integrations/amazon_auto_scaling/ -[26]: https://docs.datadoghq.com/es/integrations/amazon_billing/ -[27]: https://docs.datadoghq.com/es/integrations/amazon_cloudfront/ -[28]: https://docs.datadoghq.com/es/integrations/amazon_codebuild/ -[29]: https://docs.datadoghq.com/es/integrations/amazon_codedeploy/ -[30]: https://docs.datadoghq.com/es/integrations/amazon_directconnect/ -[31]: https://docs.datadoghq.com/es/integrations/amazon_dynamodb/ -[32]: https://docs.datadoghq.com/es/integrations/amazon_ebs/ -[33]: https://docs.datadoghq.com/es/integrations/amazon_ec2/ -[34]: https://docs.datadoghq.com/es/integrations/amazon_ecs/ -[35]: https://docs.datadoghq.com/es/integrations/amazon_efs/ -[36]: https://docs.datadoghq.com/es/integrations/amazon_elasticache/ -[37]: https://docs.datadoghq.com/es/integrations/amazon_elasticbeanstalk/ -[38]: https://docs.datadoghq.com/es/integrations/amazon_elb/ -[39]: https://docs.datadoghq.com/es/integrations/amazon_emr/ -[40]: https://docs.datadoghq.com/es/integrations/amazon_es/ -[41]: https://docs.datadoghq.com/es/integrations/amazon_firehose/ -[42]: https://docs.datadoghq.com/es/integrations/amazon_fsx/ -[43]: https://docs.datadoghq.com/es/integrations/amazon_health/ -[44]: https://docs.datadoghq.com/es/integrations/amazon_iot/ -[45]: https://docs.datadoghq.com/es/integrations/amazon_kinesis/ -[46]: https://docs.datadoghq.com/es/integrations/amazon_kms/ -[47]: https://docs.datadoghq.com/es/integrations/amazon_lambda/ -[48]: https://docs.datadoghq.com/es/integrations/amazon_machine_learning/ -[49]: https://docs.datadoghq.com/es/integrations/amazon_mq/ -[50]: https://docs.datadoghq.com/es/integrations/amazon_ops_works/ -[51]: https://docs.datadoghq.com/es/integrations/amazon_polly/ -[52]: https://docs.datadoghq.com/es/integrations/amazon_rds/ -[53]: https://docs.datadoghq.com/es/integrations/amazon_rds_proxy/ -[54]: https://docs.datadoghq.com/es/integrations/amazon_redshift/ -[55]: https://docs.datadoghq.com/es/integrations/amazon_route53/ -[56]: https://docs.datadoghq.com/es/integrations/amazon_s3/ -[57]: https://docs.datadoghq.com/es/integrations/amazon_ses/ -[58]: https://docs.datadoghq.com/es/integrations/amazon_sns/ -[59]: https://docs.datadoghq.com/es/integrations/amazon_sqs/ -[60]: https://docs.datadoghq.com/es/integrations/amazon_vpc/ -[61]: https://docs.datadoghq.com/es/integrations/amazon_workspaces/ -[62]: https://github.com/DataDog/dogweb/blob/prod/integration/amazon_web_services/service_checks.json -[63]: https://docs.datadoghq.com/es/integrations/guide/aws-integration-troubleshooting/ \ No newline at end of file +[20]: https://docs.datadoghq.com/integrations/amazon_sns/#receive-sns-messages +[21]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_web_services/assets/metrics/metric-spec.yaml +[22]: https://docs.datadoghq.com/integrations/guide/aws-integration-and-cloudwatch-faq/#can-i-collect-aws-custom-metrics-through-the-integration +[23]: https://docs.datadoghq.com/integrations/amazon_api_gateway/ +[24]: https://docs.datadoghq.com/integrations/amazon_app_runner +[25]: https://docs.datadoghq.com/integrations/amazon_auto_scaling/ +[26]: https://docs.datadoghq.com/integrations/amazon_billing/ +[27]: https://docs.datadoghq.com/integrations/amazon_cloudfront/ +[28]: https://docs.datadoghq.com/integrations/amazon_codebuild/ +[29]: https://docs.datadoghq.com/integrations/amazon_codedeploy/ +[30]: https://docs.datadoghq.com/integrations/amazon_directconnect/ +[31]: https://docs.datadoghq.com/integrations/amazon_dynamodb/ +[32]: https://docs.datadoghq.com/integrations/amazon_ebs/ +[33]: https://docs.datadoghq.com/integrations/amazon_ec2/ +[34]: https://docs.datadoghq.com/integrations/amazon_ecs/ +[35]: https://docs.datadoghq.com/integrations/amazon_efs/ +[36]: https://docs.datadoghq.com/integrations/amazon_elasticache/ +[37]: https://docs.datadoghq.com/integrations/amazon_elasticbeanstalk/ +[38]: https://docs.datadoghq.com/integrations/amazon_elb/ +[39]: https://docs.datadoghq.com/integrations/amazon_emr/ +[40]: https://docs.datadoghq.com/integrations/amazon_es/ +[41]: https://docs.datadoghq.com/integrations/amazon_firehose/ +[42]: https://docs.datadoghq.com/integrations/amazon_fsx/ +[43]: https://docs.datadoghq.com/integrations/amazon_health/ +[44]: https://docs.datadoghq.com/integrations/amazon_iot/ +[45]: https://docs.datadoghq.com/integrations/amazon_kinesis/ +[46]: https://docs.datadoghq.com/integrations/amazon_kms/ +[47]: https://docs.datadoghq.com/integrations/amazon_lambda/ +[48]: https://docs.datadoghq.com/integrations/amazon_machine_learning/ +[49]: https://docs.datadoghq.com/integrations/amazon_mq/ +[50]: https://docs.datadoghq.com/integrations/amazon_ops_works/ +[51]: https://docs.datadoghq.com/integrations/amazon_polly/ +[52]: https://docs.datadoghq.com/integrations/amazon_rds/ +[53]: https://docs.datadoghq.com/integrations/amazon_rds_proxy/ +[54]: https://docs.datadoghq.com/integrations/amazon_redshift/ +[55]: https://docs.datadoghq.com/integrations/amazon_route53/ +[56]: https://docs.datadoghq.com/integrations/amazon_s3/ +[57]: https://docs.datadoghq.com/integrations/amazon_ses/ +[58]: https://docs.datadoghq.com/integrations/amazon_sns/ +[59]: https://docs.datadoghq.com/integrations/amazon_sqs/ +[60]: https://docs.datadoghq.com/integrations/amazon_vpc/ +[61]: https://docs.datadoghq.com/integrations/amazon_workspaces/ +[62]: https://github.com/DataDog/integrations-internal-core/blob/main/amazon_web_services/assets/service_checks.json +[63]: https://docs.datadoghq.com/integrations/guide/aws-integration-troubleshooting/ +[64]: https://www.datadoghq.com/blog/monitor-aws-control-plane-api-usage-metrics/ +[65]: https://www.datadoghq.com/blog/aws-reinvent-2022-recap/ +[66]: https://www.datadoghq.com/blog/iam-least-privilege/ + diff --git a/content/es/integrations/google_cloud_dataflow.md b/content/es/integrations/google_cloud_dataflow.md index 14137e866a138..6b52764b073c9 100644 --- a/content/es/integrations/google_cloud_dataflow.md +++ b/content/es/integrations/google_cloud_dataflow.md @@ -1,4 +1,28 @@ --- +app_id: google-cloud-dataflow +app_uuid: 27fcc215-6351-4e39-8320-19fe03ed7634 +assets: + dashboards: + google_cloud_dataflow: assets/dashboards/google_cloud_dataflow.json + integration: + auto_install: true + events: + creates_events: false + metrics: + check: gcp.dataflow.job.total_vcpu_time + metadata_path: metadata.csv + prefix: gcp.dataflow. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 265 + source_type_name: Google Cloud Dataflow + monitors: + Job backlog time is high: assets/monitors/backlog_monitor.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com categories: - nube - google cloud @@ -6,6 +30,7 @@ categories: custom_kind: integración dependencies: [] description: Realiza el seguimiento de las métricas de Google Cloud Dataflow. +display_on_public_website: true doc_link: https://docs.datadoghq.com/integrations/google_cloud_dataflow/ draft: false further_reading: @@ -18,16 +43,35 @@ integration_id: google-cloud-dataflow integration_title: Google Cloud Dataflow integration_version: '' is_public: true -manifest_version: '1.0' +manifest_version: 2.0.0 monitors: Job backlog time is high: assets/monitors/backlog_monitor.json name: google_cloud_dataflow -public_title: Integración de Datadog y Google Cloud Dataflow -short_description: Realiza el seguimiento de las métricas de Google Cloud Dataflow. +public_title: Google Cloud Dataflow +short_description: Un servicio gestionado para transformar y enriquecer datos tanto + en tiempo real como en modo histórico. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Categoría::Nube + - Categoría::Google Cloud + - Category::Log Collection + - Offering::Integration + configuration: README.md#Setup + description: Un servicio gestionado para transformar y enriquecer datos tanto en + tiempo real como en modo histórico. + media: [] + overview: README.md#Overview + resources: + - resource_type: Blog + url: https://www.datadoghq.com/blog/monitor-dataflow-pipelines-with-datadog/ + support: README.md#Support + title: Google Cloud Dataflow version: '1.0' --- - + ## Información general Google Cloud Dataflow es un servicio totalmente gestionado para transformar y enriquecer datos en los modos flujo (stream) (en tiempo real) y batch (histórico) con la misma fiabilidad y expresividad. @@ -42,7 +86,7 @@ Utiliza la integración de Google Cloud con Datadog para recopilar métricas de Si aún no lo has hecho, primero configura la [integración Google Cloud Platform][1]. No es necesario realizar ningún otro paso de instalación. -### APM +### Recopilación de logs Los logs de Google Cloud Dataflow se recopilan con Google Cloud Logging y se envían a una tarea de Dataflow a través de un tema Cloud Pub/Sub. Si aún no lo has hecho, [configura la generación de logs con la plantilla Dataflow de Datadog][2]. @@ -56,7 +100,7 @@ Una vez hecho esto, exporta tus logs de Google Cloud Dataflow desde Google Cloud ## Datos recopilados ### Métricas -{{< get-metrics-from-git "google-cloud-dataflow" >}} +{{< get-metrics-from-git "google_cloud_dataflow" >}}
@@ -67,15 +111,15 @@ Al utilizar Google Cloud Dataflow para monitorizar métricas de pipelines Apache La integración Google Cloud Dataflow no incluye eventos. -### Checks de servicio +### Checks de servicios La integración Google Cloud Dataflow no incluye checks de servicio. -## Resolución de problemas +## Solucionar problemas ¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/integrations/nvidia_jetson.md b/content/es/integrations/nvidia_jetson.md index 75629054624d3..8f3ad7a8918fc 100644 --- a/content/es/integrations/nvidia_jetson.md +++ b/content/es/integrations/nvidia_jetson.md @@ -16,7 +16,7 @@ assets: service_checks: metadata_path: assets/service_checks.json source_type_id: 10134 - source_type_name: NVIDIA Jetson + source_type_name: Nvidia Jetson author: homepage: https://www.datadoghq.com name: Datadog @@ -24,20 +24,20 @@ author: support_email: help@datadoghq.com categories: - iot -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/nvidia_jetson/README.md display_on_public_website: true draft: false git_integration_title: nvidia_jetson integration_id: nvidia-jetson -integration_title: NVIDIA Jetson +integration_title: Nvidia Jetson integration_version: '' is_public: true manifest_version: 2.0.0 name: nvidia_jetson -public_title: NVIDIA Jetson -short_description: Obtén métricas sobre tu placa NVIDIA Jetson +public_title: Nvidia Jetson +short_description: Obtén métricas sobre tu placa Nvidia Jetson supported_os: - linux tile: @@ -47,11 +47,11 @@ tile: - Category::IoT - Offering::Integration configuration: README.md#Setup - description: Obtén métricas sobre tu placa NVIDIA Jetson + description: Obtén métricas sobre tu placa Nvidia Jetson media: [] overview: README.md#Overview support: README.md#Support - title: NVIDIA Jetson + title: Nvidia Jetson --- @@ -60,13 +60,13 @@ tile: ## Información general Este check monitoriza una placa [NVIDIA Jetson][1]. -Informa de las métricas recopiladas de `tegrastats`. +Informa las métricas recopiladas de `tegrastats`. ## Configuración ### Instalación -El check de NVIDIA Jetson está incluido en el paquete del [Datadog Agent][2]. +El check de NVIDIA Jetson está incluidoo en el paquete del [Datadog Agent ][2]. No es necesaria ninguna instalación adicional en tu servidor. ### Configuración @@ -84,7 +84,7 @@ Ejecuta el [subcomando de estado del Agent][5] y busca `jetson` en la sección C ## Datos recopilados ### Métricas -{{< get-metrics-from-git "nvidia-jetson" >}} +{{< get-metrics-from-git "nvidia_jetson" >}} Algunas métricas solo se notifican si `use_sudo` está configurado como verdadero: @@ -113,4 +113,4 @@ La integración de NVIDIA Jetson no incluye ningún evento. [4]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#start-stop-restart-the-agent [5]: https://docs.datadoghq.com/es/agent/guide/agent-commands/#agent-status-and-information [6]: https://github.com/DataDog/integrations-core/blob/master/nvidia_jetson/metadata.csv -[7]: https://docs.datadoghq.com/es/help/ +[7]: https://docs.datadoghq.com/es/help/ \ No newline at end of file diff --git a/content/es/integrations/quarkus.md b/content/es/integrations/quarkus.md new file mode 100644 index 0000000000000..0afbb4b71a7b1 --- /dev/null +++ b/content/es/integrations/quarkus.md @@ -0,0 +1,134 @@ +--- +app_id: quarkus +categories: +- métricas +- recopilación de logs +custom_kind: integración +description: Monitoriza tu aplicación creada con Quarkus. +integration_version: 2.0.0 +media: [] +supported_os: +- linux +- windows +- macos +title: Quarkus +--- +## Información general + +Este control supervisa [Quarkus](https://quarkus.io/) a través del Datadog Agent. + +## Configuración + +Siga las siguientes instrucciones para instalar y configurar esta comprobación para un Agent que se ejecute en un host. Para entornos en contenedores, consulte las [Autodiscovery Plantillas de integración](https://docs.datadoghq.com/agent/kubernetes/integrations/) para obtener orientación sobre la aplicación de estas instrucciones. + +### Instalación + +La comprobación de Quarkus se incluye en el paquete [Datadog Agent](https://app.datadoghq.com/account/settings/agent/latest) a partir de Agent 7.62. +No es necesaria ninguna instalación adicional en su servidor. + +### Configuración + +Siga [estos pasos](https://quarkus.io/guides/telemetry-micrometer-tutorial) para configurar la generación de métricas en Quarkus. + +Luego, configura el Agent: + +1. Edita el archivo `quarkus.d/conf.yaml`, en la carpeta `conf.d/` en la raíz de tu directorio de configuración Agent's para empezar a recoger tus datos de rendimiento de Quarkus. Consulte [sample quarkus.d/conf.yaml](https://github.com/DataDog/integrations-core/blob/master/quarkus/datadog_checks/quarkus/data/conf.yaml.example) para conocer todas las opciones de configuración disponibles. + +1. [Reinicie el Agent](https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent). + +#### Recopilación de logs + +Siga [estos pasos](https://quarkus.io/guides/logging) para configurar Quarkus para que emita registros. + +La recopilación de logs está desactivada por defecto en el Datadog Agent. Actívala en tu archivo `datadog.yaml`: + +```yaml +logs_enabled: true +``` + +Edita la sección `logs` de tu archivo `quarkus.d/conf.yaml` para empezar a recopilar tus logs de RabbitMQ: + +```yaml +logs: + - tipo: file + ruta: /var/log/aplicación.log + source (fuente) quarkus + servicio: quarkus-app +``` + +### Validación + +[Ejecute el subcomando de estado de Agent(https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information) y busque `quarkus` en la sección Comprobaciones. + +## Datos recopilados + +### Métricas + +| | | +| --- | --- | +| **quarkus.http_server.active_requests**
(indicador) | Solicitudes al servidor que están activas en este momento.
_Mostrado como solicitud_ | +| **quarkus.http_server.bytes_read.count**
(count) | Número de veces que algunos bytes fueron recibidos por el servidor.| +| **quarkus.http_server.bytes_read.max**
(calibre) | Número máximo de bytes recibidos actualmente por el servidor.
_Mostrado como byte_ | +| **quarkus.http_server.bytes_read.sum**
(recuento) | Número total de bytes recibidos por el servidor desde que se inició.
_Mostrado como byte_ | +| **quarkus.http_server.bytes_written.count**
(count) | Número de veces que algunos bytes fueron por el servidor.| +| **quarkus.http_server.bytes_written.max**
(calibre) | Número máximo actual de bytes enviados por el servidor.
_Mostrado como byte_ | +| **quarkus.http_server.bytes_written.sum**
(recuento) | Número total de bytes enviados por el servidor.
_Mostrado como byte_ | +| **quarkus.http_server.connections.seconds.max**
(calibre) | La duración de las conexiones en segundos.
_Mostrado como segundo_ | +| **quarkus.http_server.requests.seconds.count**
(count) | El número de solicitudes observadas hasta el momento.| +| **quarkus.http_server.requests.seconds.max**
(indicador) | La mayor duración actual de la solicitud en segundos.
_Se muestra como segundo_ | +| **quarkus.http_server.requests.seconds.sum**
(recuento) | Número total de segundos que han tardado todas las solicitudes hasta el momento.
_Se muestra como segundo_ | +| **quarkus.jvm.buffer.count_buffers**
(calibre) | Una estimación del número de buffers en el pool.
_Shown as buffer_ | +| **quarkus.jvm.buffer.memory_used.bytes**
(calibre) | Una estimación de la memoria que la máquina virtual Java está utilizando para este conjunto de búferes.
_Mostrado como byte_ | +| **quarkus.jvm.buffer.total_capacity.bytes**
(calibre) | Una estimación de la capacidad total de los buffers en este pool.
_Mostrado como byte_ | +| **quarkus.jvm.classes.loaded_classes**
(calibre) | Número de clases cargadas actualmente en la máquina virtual Java.| +| **quarkus.jvm.gc.live_data_size.bytes**
(calibre) | Tamaño de la reserva de memoria heap de larga duración después de la recuperación.
_Mostrado como byte_ | +| **quarkus.jvm.gc.max_data_size.bytes**
(calibre) | Tamaño máximo de la reserva de memoria heap de larga duración.
_Mostrado como byte_ | +| **quarkus.jvm.gc.overhead**
(calibre) | Una aproximación del porcentaje de tiempo de CPU utilizado por las actividades de GC durante el último periodo de revisión retrospectiva o desde que comenzó la monitorización, lo que sea más corto, en el rango \[0..1\].| +| **quarkus.jvm.memory.committed.bytes**
(calibre) | La cantidad de memoria en bytes que está comprometida para el uso de la máquina virtual Java.
_Mostrado como byte_ | +| **quarkus.jvm.memory.max.bytes**
(calibre) | La cantidad máxima de memoria en bytes que se puede utilizar para la gestión de la memoria.
_Mostrado como byte_ | +| **quarkus.jvm.memory.usage_after_gc**
(calibre) | Porcentaje del montón de larga duración utilizado tras el último evento de GC, en el rango \[0..1\].
_Mostrado como fracción_ | +| **quarkus.jvm.memory.used.bytes**
(calibre) | La cantidad de memoria utilizada.
_Se muestra como byte_ | +| **quarkus.jvm.threads.daemon_threads**
(calibre) | El número actual de hilos daemon vivos.
_Shown as thread_ | +| **quarkus.jvm.threads.live_threads**
(calibre) | El número actual de hilos activos, incluidos los hilos demonio y no demonio.
_Mostrado como hilo_ | +| **quarkus.jvm.threads.peak_threads**
(calibre) | El número máximo de hilos activos desde que se inició la máquina virtual Java o se reinició el número máximo.
_Shown as thread_ | +| **quarkus.jvm.threads.states_threads**
(calibre) | El número actual de hilos.
_Shown as thread_ | +| **quarkus.netty.allocator.memory.pinned**
(calibre) | Tamaño, en bytes, de la memoria que utiliza el búfer asignado.
_Mostrado como byte_ | +| **quarkus.netty.allocator.memory.used**
(calibre) | Tamaño, en bytes, de la memoria que utiliza el asignador.
_Shown as byte_ | +| **quarkus.netty.allocator.pooled.arenas**
(calibre) | Número de arenas para un asignador agrupado.
_Se muestra como byte_ | +| **quarkus.netty.allocator.pooled.cache_size**
(calibre) | Tamaño, en bytes, de la caché para un asignador agrupado.
_Shown as byte_ | +| **quarkus.netty.allocator.pooled.chunk_size**
(calibre) | Tamaño, en bytes, de los trozos de memoria para un asignador agrupado.
_Mostrado como byte_ | +| **quarkus.netty.allocator.pooled.threadlocal_caches**
(calibre) | Número de cachés ThreadLocal para un asignador agrupado.| +| **quarkus.netty.eventexecutor.tasks_pending**
(indicador) | Número de tareas pendientes en el ejecutor de eventos.
_Mostrado como tarea_ | +| **quarkus.process.cpu.usage**
(calibre) | El uso reciente de cpu para el proceso de la Máquina Virtual Java.| +| **quarkus.process.files.max_files**
(calibre) | El recuento máximo de descriptores de archivo.
_Shown as file_ | +| **quarkus.process.files.open_files**
(calibre) | El recuento del descriptor de archivo abierto.
_Shown as file_ | +| **quarkus.process.uptime.seconds**
(calibre) | El tiempo de actividad de la máquina virtual Java.
_Mostrado como segundo_ | +| **quarkus.system.cpu.count**
(calibre) | El número de procesadores disponibles para la máquina virtual Java.| +| **quarkus.system.cpu.usage**
(calibre) | El uso reciente de cpu del sistema en el que se está ejecutando la aplicación.| +| **quarkus.system.load_average_1m**
(calibre) | La suma del número de entidades ejecutables en cola para los procesadores disponibles y el número de entidades ejecutables que se ejecutan en los procesadores disponibles promediado durante un periodo de tiempo.| +| **quarkus.worker_pool.active**
(calibre) | Número de recursos de la reserva utilizados actualmente.| +| **quarkus.worker_pool.idle**
(calibre) | Número de recursos de la reserva utilizados actualmente.| +| **quarkus.worker_pool.queue.delay.seconds.count**
(count) | Número de artículos que pasaron tiempo en la cola de espera antes de ser procesados.| +| **quarkus.worker_pool.queue.delay.seconds.max**
(calibre) | Tiempo máximo actual en la cola de espera antes de ser procesado.
_Se muestra como segundo_ | +| **quarkus.worker_pool.queue.delay.seconds.sum**
(count) | Tiempo total pasado en la cola de espera antes de ser procesado.| +| **quarkus.worker_pool.queue.size**
(calibre) | Número de elementos pendientes en la cola de espera.| +| **quarkus.worker_pool.ratio**
(gauge) | Ratio de trabajadores que se están utilizando en este momento.
_Se muestra como fracción_ | +| **quarkus.worker_pool.usage.seconds.count**
(count) | Número de veces que se han utilizado recursos del pool.
_Se muestra como segundo_ | +| **quarkus.worker_pool.usage.seconds.max**
(calibre) | Tiempo máximo de utilización de los recursos del pool.
_Se muestra como segundo_ | +| **quarkus.worker_pool.usage.seconds.sum**
(count) | Tiempo total de utilización de los recursos del pool.
_Se muestra como segundo_ | + +### Eventos + +La integración Quarkus no incluye eventos. + +### Checks de servicio + +**quarkus.openmetrics.health** + +Devuelve `CRITICAL` si el Agent es incapaz de conectarse al punto final Quarkus OpenMetrics, de lo contrario devuelve `OK`. + +_Estados: ok, crítico_ + +## Solucionar problemas + +¿Necesita ayuda? Póngase en contacto con [Datadog support](https://docs.datadoghq.com/help/). \ No newline at end of file diff --git a/content/es/integrations/redisdb.md b/content/es/integrations/redisdb.md new file mode 100644 index 0000000000000..5eb4c781f0ee4 --- /dev/null +++ b/content/es/integrations/redisdb.md @@ -0,0 +1,490 @@ +--- +app_id: "redis" +app_uuid: "15f0ff37-2b36-4165-9606-758271d4a16d" +assets: + dashboards: + redis: "assets/dashboards/overview.json" + integration: + auto_install: true + configuration: + spec: "assets/configuration/spec.yaml" + events: + creates_events: false + metrics: + check: "redis.net.clients" + metadata_path: "metadata.csv" + prefix: "redis" + process_signatures: + - "redis-server" + service_checks: + metadata_path: "assets/service_checks.json" + source_type_id: !!int "21" + source_type_name: "Redis" + monitors: + "Memory consumption is high": "assets/monitors/high_mem.json" + saved_views: + error_warning_status: "assets/saved_views/error_warning_status.json" + pid_overview: "assets/saved_views/pid_overview.json" + redis_pattern: "assets/saved_views/redis_pattern.json" + redis_processes: "assets/saved_views/redis_processes.json" +author: + homepage: "https://www.datadoghq.com" + name: "Datadog" + sales_email: "info@datadoghq.com" + support_email: "help@datadoghq.com" +categories: +- "caching" +- "data stores" +- "log collection" +- "tracing" +custom_kind: "integración" +dependencies: +- "https://github.com/DataDog/integrations-core/blob/master/redisdb/README.md" +display_on_public_website: true +draft: false +git_integration_title: "redisdb" +integration_id: "redis" +integration_title: "Redis" +integration_version: "8.0.0" +is_public: true +manifest_version: "2.0.0" +name: "redisdb" +public_title: "Redis" +short_description: "Realiza un seguimiento del rendimiento de Redis, el uso de memoria, los clientes bloqueados, las claves desalojadas y más" +supported_os: +- "linux" +- "windows" +- "macos" +tile: + changelog: "CHANGELOG.md" + classifier_tags: + - "Category::Almacenamiento en caché" + - "Category::Almacenes de datos" + - "Category::Recopilación de logs" + - "Category::Rastreo" + - "Supported OS::Linux" + - "Supported OS::Windows" + - "Supported OS::macOS" + - "Offering::Integración" + configuration: "README.md#Configuración" + description: "Realiza un seguimiento del rendimiento de Redis, el uso de memoria, los clientes bloqueados, las claves desalojadas y más" + media: [] + overview: "README.md#Información general" + resources: + - resource_type: "blog" + url: "https://www.datadoghq.com/blog/how-to-monitor-redis-performance-metrics" + support: "README.md#Soporte" + title: "Redis" +--- + + + + +## Información general + +Tanto si utilizas Redis como base de datos, caché o cola de mensajes, esta integración realiza un seguimiento de los problemas con tus servidores Redis, servicios en la nube y partes de su infraestructura a las que sirven. Utiliza el check de Redis del Datadog Agent para recopilar métricas relacionados con: + +- Rendimiento +- Uso de la memoria +- Clientes bloqueados +- Conexiones secundarias +- Persistencia en disco +- Claves caducadas y desalojadas +- y mucho más + +## Configuración + +### Instalación + +El check de Redis está incluido en el paquete del [Datadog Agent][1], por lo que no necesitas instalar nada más en tus servidores Redis. + +### Configuración + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +##### Recopilación de métricas + +1. Edita el archivo `redisdb.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la [raíz del directorio de configuración del Agent][1]. Puede que sea necesario actualizar los siguientes parámetros. Para conocer todas las opciones de configuración disponibles, consulta el [redisdb.d/conf.yaml de ejemplo][2]. + + ```yaml + init_config: + instances: + ## @param host - string - required + ## Enter the host to connect to. + - host: localhost + ## @param port - integer - required + ## Enter the port of the host to connect to. + port: 6379 + + ## @param username - string - optional + ## The username to use for the connection. Redis 6+ only. + # + # username: + + ## @param password - string - optional + ## The password to use for the connection. + # + # password: + ``` + +2. Si utilizas Redis v6 o posterior y listas de control del acceso (ACL), asegúrate de que el usuario tiene al menos permisos `DB Viewer` a nivel de base de datos, permisos `Cluster Viewer`, si operas en un entorno de clúster, y reglas de ACL`+config|get +info +slowlog|get`. Para ver más detalles, consulta [Control del acceso a bases de datos][3]. + +3. [Reinicia el Agent][4]. + +##### Recopilación de logs + +Disponible para la versión 6.0 o posteriores del Agent + +1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Habilítala en tu archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Deselecciona y edita este bloque de configuración en la parte inferior de tu `redisdb.d/conf.yaml`: + + ```yaml + logs: + - type: file + path: /var/log/redis_6379.log + source: redis + service: myapplication + ``` + + Cambia los valores de los parámetros `path` y `service` y configúralos para tu entorno. Consulta el [redisdb.yaml de ejemplo][2] para ver todas las opciones de configuración disponibles. + +3. [Reinicia el Agent][4]. + +##### Recopilación de trazas (trazas) + +Datadog APM se integra con Redis para ver trazas en tu sistema distribuido. La recopilación de trazas está activada por defecto en el Datadog Agent v6 o posteriores. Para empezar a recopilar trazas: + +1. [Habilita la recopilación de trazas en Datadog][5]. +2. [Instrumenta la aplicación que realiza solicitudes a Redis][6]. + + +[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/redisdb/datadog_checks/redisdb/data/conf.yaml.example +[3]: https://docs.redis.com/latest/rs/security/passwords-users-roles/ +[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/tracing/send_traces/ +[6]: https://docs.datadoghq.com/tracing/setup/ +{{% /tab %}} +{{% tab "Docker" %}} + +#### Docker + +Para configurar este check para un Agent que se ejecuta en un contenedor: + +##### Recopilación de métricas + +Configura [plantillas de integraciones de Autodiscovery][1] como etiquetas (labels) Docker en el contenedor de tu aplicación: + +```yaml +LABEL "com.datadoghq.ad.check_names"='["redisdb"]' +LABEL "com.datadoghq.ad.init_configs"='[{}]' +LABEL "com.datadoghq.ad.instances"='[{"host":"%%host%%","port":"6379","password":"%%env_REDIS_PASSWORD%%"}]' +``` + +**Nota**: La lógica de variable de plantilla `"%%env_%%"` se utiliza para evitar almacenar la contraseña en texto simple, por lo que la variable de entorno`REDIS_PASSWORD` se debe definir en el contenedor del Agent. Para ver más detalles, consulta la documentación de la [variable de plantilla Autodiscovery][2]. Alternativamente, el Agent puede aprovechar el paquete `secrets` para trabajar con cualquier backend de [gestión de secretos][3] (como HashiCorp Vault o AWS Secrets Manager). + +##### Recopilación de logs + +Disponible para la versión 6.0 o posteriores del Agent + +La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de Docker][4]. + +Luego, configura [integraciones de logs][5] como etiquetas Docker: + +```yaml +LABEL "com.datadoghq.ad.logs"='[{"source":"redis","service":""}]' +``` + +##### Recopilación de trazas + +APM para aplicaciones en contenedores es compatible con el Agent v6 o posteriores, pero requiere configuración adicional para empezar a recopilar trazas. + +Variables de entorno requeridas en el contenedor del Agent: + +| Parámetro | Valor | +| -------------------- | -------------------------------------------------------------------------- | +| `` | `api_key` | +| `` | true | +| `` | true | + +Para ver una lista completa de las variables de entorno disponibles y la configuración, consulta [Rastreo de aplicaciones Docker][6]. + +Luego, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Redis][7] y configura `DD_AGENT_HOST` con el nombre del contenedor de tu Agent. + + +[1]: https://docs.datadoghq.com/agent/docker/integrations/?tab=docker +[2]: https://docs.datadoghq.com/agent/faq/template_variables/ +[3]: https://docs.datadoghq.com/agent/guide/secrets-management/?tab=linux +[4]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#installation +[5]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations +[6]: https://docs.datadoghq.com/agent/docker/apm/?tab=linux +[7]: https://docs.datadoghq.com/tracing/setup/ +{{% /tab %}} +{{% tab "Kubernetes" %}} + +#### Kubernetes + +Para configurar este check para un Agent que se ejecuta en Kubernetes: + +##### Recopilación de métricas + +Para recopilar métricas, define los siguientes parámetros y valores en una [plantilla de Autodiscovery][1]. Puedes hacerlo con Kubernetes Annotations (que se muestra a continuación) en tu(s) pod(s) de Redis o con un [archivo local, ConfigMap, almacén de clave-valor, manifiesto de Datadog Operator, o Helm chart][2]. + +| Parámetro | Valor | +| -------------------- | -------------------------------------------------------------------------- | +| `` | `["redisdb"]` | +| `` | `[{}]` | +| `` | `[{"host": "%%host%%","port":"6379","password":"%%env_REDIS_PASSWORD%%"}]` | + +**Anotaciones v1** (para el Datadog Agent v7.36 o anterior) + +```yaml +apiVersion: v1 +kind: Pod +metadata: + name: redis + annotations: + ad.datadoghq.com/redis.check_names: '["redisdb"]' + ad.datadoghq.com/redis.init_configs: '[{}]' + ad.datadoghq.com/redis.instances: | + [ + { + "host": "%%host%%", + "port":"6379", + "password":"%%env_REDIS_PASSWORD%%" + } + ] + labels: + name: redis +spec: + containers: + - name: redis + image: redis:latest + ports: + - containerPort: 6379 +``` + +**Anotaciones v2** (para el Datadog Agent v7.36 o posterior) + +```yaml +apiVersion: v1 +kind: Pod +metadata: + name: redis + annotations: + ad.datadoghq.com/redis.checks: | + { + "redisdb": { + "init_config": {}, + "instances": [ + { + "host": "%%host%%", + "port":"6379", + "password":"%%env_REDIS_PASSWORD%%" + } + ] + } + } + labels: + name: redis +spec: + containers: + - name: redis + image: redis:latest + ports: + - containerPort: 6379 +``` + +**Nota**: La lógica de variable de plantilla `"%%env_%%"` se utiliza para evitar almacenar la contraseña en texto simple, por lo que la variable de entorno`REDIS_PASSWORD` se debe definir en el contenedor del Agent. Para ver más detalles, consulta la documentación de la [variable de plantilla Autodiscovery][3]. Alternativamente, el Agent puede aprovechar el paquete `secrets` para trabajar con cualquier backend de [gestión de secretos][4] (como HashiCorp Vault o AWS Secrets Manager). + +##### Recopilación de logs + +Disponible para la versión 6.0 o posteriores del Agent + +La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Kubernetes][5]. + +A continuación, configura el siguiente parámetro en una [plantilla de Autodiscovery][1]. Puedes hacerlo con Kubernetes Annotations (que se muestra a continuación) en tu(s) pod(s) de Redis, o con un [archivo local, ConfigMap, almacén de clave-valor, manifiesto de Datadog Operator, o Helm chart][2]. + +| Parámetro | Valor | +| -------------------- | -------------------------------------------------------------------------- | +| `` | `[{"source":"redis","service":""}]` | + +**Anotaciones v1/v2** + +```yaml +apiVersion: v1 +kind: Pod +metadata: + name: redis + annotations: + ad.datadoghq.com/redis.logs: '[{"source":"redis","service":""}]' + labels: + name: redis +spec: + containers: + - name: redis + image: redis:latest + ports: + - containerPort: 6379 +``` + +##### Recopilación de trazas + +APM para aplicaciones en contenedores es compatible con hosts que se ejecutan en la versión 6 o posteriores del Agent, pero requiere configuración adicional para empezar a recopilar trazas. + +Variables de entorno requeridas en el contenedor del Agent: + +| Parámetro | Valor | +| -------------------- | -------------------------------------------------------------------------- | +| `` | `api_key` | +| `` | true | +| `` | true | + +Para ver una lista completa de las variables de entorno y la configuración disponibles, consulta [Rastreo de aplicaciones Kubernetes][6] y la [configuración del DaemonSet de Kubernetes][7]. + +A continuación, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Redis][8]. + +[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes +[2]: https://docs.datadoghq.com/agent/kubernetes/integrations/?tab=kubernetes#configuration +[3]: https://docs.datadoghq.com/agent/faq/template_variables/ +[4]: https://docs.datadoghq.com/agent/guide/secrets-management/?tab=linux +[5]: https://docs.datadoghq.com/agent/kubernetes/log/?tab=containerinstallation#setup +[6]: https://docs.datadoghq.com/agent/kubernetes/apm/?tab=java +[7]: https://docs.datadoghq.com/agent/kubernetes/daemonset_setup/?tab=k8sfile#apm-and-distributed-tracing +[8]: https://docs.datadoghq.com/tracing/setup/ +{{% /tab %}} +{{% tab "ECS" %}} + +#### ECS + +Para configurar este check para un Agent que se ejecuta en ECS: + +##### Recopilación de métricas + +Configura [plantillas de integraciones de Autodiscovery][1] como etiquetas Docker en el contenedor de tu aplicación: + +```json +{ + "containerDefinitions": [{ + "name": "redis", + "image": "redis:latest", + "dockerLabels": { + "com.datadoghq.ad.check_names": "[\"redisdb\"]", + "com.datadoghq.ad.init_configs": "[{}]", + "com.datadoghq.ad.instances": "[{\"host\":\"%%host%%\",\"port\":\"6379\",\"password\":\"%%env_REDIS_PASSWORD%%\"}]" + } + }] +} +``` + +**Nota**: La lógica de variable de plantilla `"%%env_%%"` se utiliza para evitar almacenar la contraseña en texto simple, por lo que la variable de entorno`REDIS_PASSWORD` se debe definir en el contenedor del Agent. Para ver más detalles, consulta la documentación de la [variable de plantilla Autodiscovery][2]. Alternativamente, el Agent puede aprovechar el paquete `secrets` para trabajar con cualquier backend de [gestión de secretos][3] (como HashiCorp Vault o AWS Secrets Manager). + +##### Recopilación de logs + +Disponible para la versión 6.0 o posteriores del Agent + +La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta la [recopilación de logs de ECS][4]. + +Luego, configura [integraciones de logs][5] como etiquetas Docker: + +```yaml +{ + "containerDefinitions": [{ + "name": "redis", + "image": "redis:latest", + "dockerLabels": { + "com.datadoghq.ad.logs": "[{\"source\":\"redis\",\"service\":\"\"}]" + } + }] +} +``` + +##### Recopilación de trazas + +APM para aplicaciones en contenedores es compatible con el Agent v6 o posterior, pero requiere configuración adicional para empezar a recopilar trazas. + +Variables de entorno requeridas en el contenedor del Agent: + +| Parámetro | Valor | +| -------------------- | -------------------------------------------------------------------------- | +| `` | `api_key` | +| `` | true | +| `` | true | + +Para ver una lista completa de las variables de entorno disponibles y la configuración, consulta [Rastreo de aplicaciones Docker][6]. + +Luego, [instrumenta el contenedor de tu aplicación que realiza solicitudes a Redis][7] y configura `DD_AGENT_HOST` en la [dirección IP privada de EC2][8]. + +[1]: https://docs.datadoghq.com/agent/docker/integrations/?tab=docker +[2]: https://docs.datadoghq.com/agent/faq/template_variables/ +[3]: https://docs.datadoghq.com/agent/guide/secrets-management/?tab=linux +[4]: https://docs.datadoghq.com/agent/amazon_ecs/logs/?tab=linux +[5]: https://docs.datadoghq.com/agent/docker/log/?tab=containerinstallation#log-integrations +[6]: https://docs.datadoghq.com/agent/docker/apm/?tab=linux +[7]: https://docs.datadoghq.com/tracing/setup/ +[8]: https://docs.datadoghq.com/agent/amazon_ecs/apm/?tab=ec2metadataendpoint#setup +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de estado del Agent][2] y busca `redisdb` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "redisdb" >}} + + +### Eventos + +El check de Redis no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "redisdb" >}} + + +## Solucionar problemas + +### El Agent no se puede conectar + +```shell + redisdb + ------- + - instance #0 [ERROR]: 'Error 111 connecting to localhost:6379. Connection refused.' + - Collected 0 metrics, 0 events & 1 service check +``` + +Verifica que la información de conexión en `redisdb.yaml` es la correcta. + +### El Agent no se puede autenticar + +```shell + redisdb + ------- + - instance #0 [ERROR]: 'NOAUTH Authentication required.' + - Collected 0 metrics, 0 events & 1 service check +``` + +Configura un `password` en `redisdb.yaml`. + +## Referencias adicionales + +Más enlaces, artículos y documentación útiles: + +- [Monitorización de métricas de rendimiento de Redis][3] + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information +[3]: https://www.datadoghq.com/blog/how-to-monitor-redis-performance-metrics diff --git a/content/es/logs/_index.md b/content/es/logs/_index.md index 6ad5002dce18c..72fcee74dfb2a 100644 --- a/content/es/logs/_index.md +++ b/content/es/logs/_index.md @@ -51,6 +51,9 @@ further_reading: - link: https://www.datadoghq.com/architecture/a-guide-to-log-management-indexing-strategies-with-datadog/ tag: Centro de arquitectura text: Guía de estrategias de indexación de la gestión de logs con Datadog +- link: https://www.datadoghq.com/blog/archive-search/ + tag: Blog + text: Busca en tus logs históricos de forma más eficiente con Datadog Archive Search title: Gestión de logs --- @@ -110,7 +113,7 @@ Comienza a explorar tus logs ingeridos en el [Log Explorer][1]. Aprende sin coste alguno sobre la capacidad real de computación en la nube y una cuenta de prueba de Datadog. Inscríbete hoy mismo para obtener más información sobre la recopilación, consulta, análisis, métricas, monitorización, procesamiento, almacenamiento y control de acceso de logs. {{< /learning-center-callout >}} -## Para leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/es/logs/explorer/advanced_search.md b/content/es/logs/explorer/advanced_search.md new file mode 100644 index 0000000000000..3fa2726aa264f --- /dev/null +++ b/content/es/logs/explorer/advanced_search.md @@ -0,0 +1,84 @@ +--- +disable_toc: false +further_reading: +- link: logs/explorer/analytics + tag: Documentación + text: Realizar análisis de logs +- link: /logs/explorer/export + tag: Documentación + text: Exportar vistas desde el Log Explorer +- link: /logs/explorer/saved_views/ + tag: Documentación + text: Información sobre las vistas guardadas +title: Búsqueda avanzada +--- + +## Información general + +Cuando necesitas limitar aún más los resultados de una búsqueda de log, utiliza [subconsultas](#filter-logs-with-subqueries) para comparar tus resultados con un grupo secundario de logs, o filtra tus logs utilizando datos de tus [Tablas de referencia](#filter-logs-based-on-reference-tables). + +## Filtrar logs con subconsultas + +Utiliza subconsultas cuando desees filtrar los resultados de una consulta basándote en los resultados de una consulta secundaria. Consulta [ejemplos de subconsultas](#subquery-examples) para ver dos escenarios de ejemplo. + +Para añadir un filtro de subconsulta: + +1. Ve a [Log Explorer (Explorador de logs)][1]. +1. Introduce una consulta en la barra de búsqueda para filtrar tus logs. Esta es la consulta principal. +1. Haz clic en **+ Add** (+ Añadir). +1. En la sección **Add Query Filter** (Añadir filtro de consulta), selecciona **Logs**. + +Esto introduce nuevos elementos en el editor de consultas: + +{{< img src="logs/explorer/advanced_search/subquery.png" alt="El editor de subconsulta en la consulta de búsqueda principal" style="width:95%;" >}} + +1. En el campo **where** (dónde), utiliza el menú desplegable para seleccionar el atributo con el que deseas establecer la correlación. Los atributos disponibles son los de logs devueltos por la consulta principal. +1. Define tu filtro de subconsulta en el campo **from** (de). +1. En el menú desplegable **Select Column** (Seleccionar columna) que precede al filtro de la subconsulta, selecciona el atributo por el que deseas agrupar y ordenar los resultados de la subconsulta. +1. Selecciona si deseas utilizar el operador **IN** o **NOT IN**: + - Los resultados del operador **IN** solo incluyen logs cuando el valor del atributo también se encuentra en los resultados de la subconsulta. Por ejemplo, si solo deseas ver logs generados por `service:a` y está asociado a un usuario que también es uno de los principales usuarios de `service:b`. + - Los resultados del operador **NOT IN** excluyen logs donde se encuentra el valor del atributo en los resultados de la subconsulta. Por ejemplo, si solo deseas ver logs `status:error`, pero también deseas filtrar logs `status:error` donde los usuarios asociados a esos logs acaben finalmente con un log `status:success`. Consulta [Filtrar logs desactualizados o sustituidos](#filter-outdated-or-superseded-logs) para ver un ejemplo detallado. +1. Opcionalmente, reduce el número de valores de atributos de subconsulta con los que comparar. El valor por defecto y máximo es `1000`. Elige entre **top** (principal) (valores de mayor frecuencia) o **bottom** (inferior) (valores de menor frecuencia). + +### Ejemplos de subconsultas + +Los siguientes son escenarios en los que necesitas utilizar subconsultas para obtener la información que necesitas de tus logs. + +#### Filtrar logs obsoletos o sustituidos + +Supongamos que gestionas una plataforma de comercio electrónico. Se genera un log cada vez que uno de tus clientes intenta realizar un pedido. Deseas analizar tus logs para conocer el valor total de las compras potenciales perdidas debido a un problema continuo con tu sitio web. + +Sin embargo, te das cuenta de que un pedido puede fallar varias veces antes de completarse con éxito: lo que significa que para ese ID de pedido en particular, hay entradas de log en los resultados de búsqueda, tanto para logs `status:error` como para logs `status:success`. Si extrajeras listas de ID de pedido únicas de las dos consultas, este ID de pedido aparecería en ambas. Con las subconsultas, puedes obtener una lista mutuamente excluyente. + +En este ejemplo, solo estás interesado en logs para los pedidos que finalmente no tuvieron éxito. Para excluir los pedidos que finalmente tuvieron éxito utilizando la función de subconsulta: + +1. Define una subconsulta para logs `status:success`. +1. Selecciona el operador **NOT IN** para excluir los pedidos del conjunto de resultados de la subconsulta. + +{{< img src="logs/explorer/advanced_search/filter_outdated_example.png" alt="El editor de consulta que muestra la configuración para filtrar pedidos que terminan teniendo éxito" style="width:100%;" >}} + +#### Correlación entre diferentes fuentes de log + +Supón que tienes un servicio llamado `network_directory` que supervisa todos los recursos internos de red y el acceso a esos recursos dentro de tu organización. Los eventos de log generados por este servicio incluyen atributos estándar (como `host`, `service`, `source`) y atributos personalizados como la dirección IP del cliente. + +Además, tienes otro servicio `device-manager` que rastrea todos los activos internos (infraestructura, dispositivos de los empleados, etc.). + +Estás investigando un ataque en curso y observas que hay un aumento significativo de solicitudes de API en casi todos tus endpoints. En primer lugar, deseas identificar las direcciones IP asociadas a volúmenes de solicitudes anómalos para poder bloquearlas en el cortafuegos. Sin embargo, tus servicios internos son algunos de los mayores consumidores de estos endpoints y necesitas excluirlos de tus resultados de consulta para evitar bloquearlos por error. + +En este ejemplo, utiliza `service:network_directory` como consulta principal y, a continuación, define un filtro de subconsulta para tu servicio `device-manager` para filtrar los resultados de los dispositivos reconocidos. + +{{< img src="logs/explorer/advanced_search/narrow_dataset_example.png" alt="El editor de consulta que muestra la configuración para filtrar los resultados para los dispositivos reconocidos" style="width:100%;" >}} + +## Filtrar logs a partir de tablas de referencia + +{{% filter_by_reference_tables %}} + +{{< img src="logs/explorer/advanced_search/reference_table_join_filter.png" alt="El Datadog Log Explorer con las opciones de búsqueda de la tabla de referencia resaltadas. Incluye pasos numerados alineados con las instrucciones previas" border="true" popup="true" style="width:100%;" >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: https://app.datadoghq.com/logs +[2]: /es/integrations/guide/reference-tables/?tab=manualupload \ No newline at end of file diff --git a/content/es/logs/log_configuration/archives.md b/content/es/logs/log_configuration/archives.md index a1338be1ae980..d66c8e5ad8a09 100644 --- a/content/es/logs/log_configuration/archives.md +++ b/content/es/logs/log_configuration/archives.md @@ -24,7 +24,7 @@ title: Archivos de log Configura tu cuenta de Datadog para reenviar todos los logs ingestados (ya sea que esté [indexado][1] o no) a un sistema de almacenamiento en la nube de tu propiedad. Conserva tus logs en un archivo optimizado para el almacenamiento durante más tiempo y cumple los requisitos de conformidad, al tiempo que mantienes la auditabilidad para investigaciones ad hoc, con [Recuperación][2]. -{{< img src="logs/archives/log_forwarding_archives_tab.png" alt="Pestaña Archivo en la página Reenvío de log" style="width:100%;">}} +{{< img src="/logs/archives/log_forwarding_archives_122024.png" alt="Pestaña de Archivos en la página Reenvío de logs" style="width:100%;">}} Ve a la página [**Log Forwarding**][3] (Reenvío de log) para configurar un archivo para el reenvío de logs ingeridos a tu propio bucket de almacenamiento alojado en la nube. @@ -44,10 +44,6 @@ Consulta cómo [archivar tus logs con Pipelines de observabilidad][4] si deseas {{< tabs >}} {{% tab "AWS S3" %}} -{{< site-region region="gov" >}} -
La configuración de archivos S3 mediante la delegación de roles tiene actualmente una disponibilidad limitada. Ponte en contacto con el servicio de asistencia de Datadog para solicitar esta función en tu cuenta Datadog for Government.
-{{< /site-region >}} - Si aún no está configurada, configura [la integración de AWS][1] para la cuenta de AWS que contiene tu bucket de S3. * En el caso general, se trata de crear un rol que Datadog pueda utilizar para integrarse con AWS S3. * En el caso específico de las cuentas de AWS China, utiliza claves de acceso como alternativa a la delegación de roles. @@ -58,7 +54,7 @@ Si aún no está configurada, configura [la integración de AWS][1] para la cuen Configura [la integración de Azure][1] dentro de la suscripción que contiene tu nueva cuenta de almacenamiento, si aún no lo has hecho. Esto implica [crear un registro de aplicación que Datadog pueda utilizar][2] para integrarla. -**Nota:** No se admite el archivado en Azure ChinaCloud, GermanyCloud y GovCloud. +**Nota:** El archivado en Azure ChinaCloud y Azure GermanyCloud no es compatible. El archivado en Azure GovCloud es compatible con la versión preliminar. Para solicitar acceso, ponte en contacto con el servicio de asistencia de Datadog. [1]: https://app.datadoghq.com/account/settings#integrations/azure [2]: /es/integrations/azure/?tab=azurecliv20#integrating-through-the-azure-portal @@ -84,6 +80,10 @@ Configura la [integración de Google Cloud][1] para el proyecto que contiene tu Entra en tu [consola de AWS][1] y [crea un bucket de S3][2] al que enviar tus archivos. +{{< site-region region="gov" >}} +
Datadog Archives no admiten nombres de bucket con puntos (.) cuando se integran con un endpoint FIPS de S3 que se basa en el direccionamiento de estilo virtual-host. Obtén más información en la documentación de AWS. AWS FIPS y AWS Virtual Hosting.
+{{< /site-region >}} + **Notas:** - No pongas tu bucket a disposición del público. @@ -126,7 +126,7 @@ Solo los usuarios de Datadog con el [permiso`logs_write_archive`][5] pueden crea {{< tabs >}} {{% tab "AWS S3" %}} -1. [Crear una política][1] con las siguientes sentencias de permiso: +1. [Crear una política][1] con las siguientes declaraciones de permiso: ```json { @@ -160,9 +160,9 @@ Solo los usuarios de Datadog con el [permiso`logs_write_archive`][5] pueden crea 2. Edita los nombres de los buckets. 3. Opcionalmente, especifica las rutas que contienen tus archivos de log. 4. Adjunta la nueva política al rol de integración de Datadog. - * Ve a **Roles** en la consola de AWS IAM. - * Localiza el rol utilizado por la integración de Datadog. Por defecto se llama **DatadogIntegrationRole**, pero el nombre puede variar si tu organización le ha cambiado el nombre. Haz clic en el nombre del rol para abrir la página de resumen del rol. - * Haz clic en **Add permissions** (Añadir permisos), y luego en **Attach policies** (Adjuntar políticas). + * Ve a **Roles** en la consola IAM en AWS. + * Localiza el rol utilizado por la integración Datadog. Por defecto se llama **DatadogIntegrationRole**, pero el nombre puede variar si tu organización le ha cambiado el nombre. Haz clic en el nombre del rol para abrir la página de resumen del rol. + * Haz clic en **Add permissions** (Añadir permisos) y, luego, en **Attach policies** (Adjuntar políticas). * Introduce el nombre de la política creada anteriormente. * Haz clic en **Attach policies** (Adjuntar políticas). @@ -202,54 +202,15 @@ Ve a la página de [Reenvío de log][6] y selecciona **Add a new archive** (Aña * Si tu bucket restringe el acceso de red a las IP especificadas, añade las IP de los webhooks de {{< region-param key="ip_ranges_url" link="true" text="IP ranges list">}} a la lista de permitidos. * Para el sitio **US1-FED**, puedes configurar Datadog para enviar logs a un destino fuera del entorno Datadog GovCloud. Datadog no se hace responsable de ningún log que abandone el entorno Datadog GovCloud. Además, Datatdog no se hace responsable de ninguna obligación o requisito que puedas tener en relación con FedRAMP, DoD Impact Levels, ITAR, conformidad de las exportaciones, residencia de datos o normativas similares aplicables a estos Logs una vez que abandonen el entorno Datadog GovCloud. -{{< tabs >}} -{{% tab "AWS S3" %}} - -Selecciona la combinación de cuenta y rol de AWS adecuada para tu bucket de S3. - -Introduce el nombre de tu bucket. **Opcional**: introduce un directorio de prefijo para todo el contenido de tus archivos de log. - -{{< img src="logs/archives/logs_archive_aws_setup.png" alt="Configura tu información de bucket de S3 en Datadog" style="width:75%;">}} - -{{% /tab %}} -{{% tab "Azure Storage" %}} - -Selecciona el tipo de archivo **Azure Storage**, y el inquilino y cliente de Azure para la aplicación de Datadog que tiene el rol Storage Blob Data Contributor en tu cuenta de almacenamiento. - -Introduce el nombre de tu cuenta de almacenamiento y el nombre de contenedor para tu archivo. **Opcional**: introduce un directorio de prefijo para todo el contenido de tus archivos de log. - -{{< img src="logs/archives/logs_archive_azure_setup.png" alt="Configura tu información de cuenta de almacenamiento de Azure en Datadog" style="width:75%;">}} - - -{{% /tab %}} -{{% tab "Google Cloud Storage" %}} - -Selecciona el tipo de archivo **GCS** y la cuenta de servicio de GCS que tenga permisos para escribir en tu bucket de almacenamiento. - -Introduce el nombre de tu bucket. **Opcional**: introduce un directorio de prefijo para todo el contenido de tus archivos de log. - -{{< img src="logs/archives/logs_archive_gcp_setup.png" alt="Configura tu información de cuenta de almacenamiento de Azure en Datadog" style="width:75%;">}} - -{{% /tab%}} -{{< /tabs>}} +| Servicio | Pasos | +|--------------------------|------------------------------------------------------------------------------------------------------------------------------------------------------------| +| **Amazon S3** | - Selecciona la combinación de la cuenta y rol de AWS adecuada para tu bucket de S3.
- Introduce el nombre de tu bucket.
**Opcional**: introduce un directorio prefijo para todo el contenido de tus archivos de log. | +| **Almacenamiento de Azure** | - Selecciona el tipo de archivo **Azure Storage** (Almacenamiento de Azure), y el inquilino y cliente de Azure para la aplicación de Datadog que tiene el rol Storage Blob Data Contributor en tu cuenta de almacenamiento.
- Introduce el nombre de tu cuenta de almacenamiento y el nombre de contenedor para tu archivo.
**Opcional**: introduce un directorio prefijo para todo el contenido de tus archivos de log. | +| **Google Cloud Storage** | - Seleccione el tipo de archivo **Google Cloud Storage** (Almacenamiento de Google Cloud) y la cuenta de servicio de GCS que tiene permisos para escribir en tu bucket de almacenamiento.
- Introduce el nombre de tu bucket.
**Opcional**: introduce un directorio prefijo para todo el contenido de tus archivos de log. | ### Configuración avanzada -#### Permisos de Datadog - -Por defecto: - -* Todos los usuarios Admin de Datadog pueden crear, editar y reordenar. Consulta [Configurar archivos múltiples](#multiple-archives) para obtener más información. -* Todos los usuarios de Datadog Admin y Standard pueden recuperar desde archivos. -* Todos los usuarios, incluidos los Read Only (solo lectura) de Datadog, pueden acceder a logs recuperados. - -Utiliza este paso de configuración opcional para asignar roles en ese archivo y restringir quién puede: - -* Editar ese archivo de configuración. Consulta el permiso [`logs_write_archive`][9]. -* Recuperar desde ese archivo. Consulta los permisos [`logs_read_archives`][10] y [`logs_write_historical_view`][11]. -* Acceder a logs recuperados en caso de que utilices el permiso legacy [`read_index_data`][12]. - -{{< img src="logs/archives/archive_restriction.png" alt="Restrinfir el acceso a archivos y logs recuperados" style="width:75%;">}} +{{< img src="/logs/archives/log_archives_advanced_settings.png" alt="Configuración avanzada para añadir etiquetas opcionales y definir el tamaño máximo de análisis" style="width:100%;" >}} #### Etiquetas de Datadog @@ -258,16 +219,12 @@ Utiliza este paso de configuración opcional para: * Incluir todas las etiquetas de log en tus archivos (activado por defecto en todos los archivos nuevos). **Nota**: Esto aumenta el tamaño de los archivos resultantes. * Añadir etiquetas en los logs recuperados de acuerdo con tu política de Consultas de restricción. Consulta el permiso [`logs_read_data`][13]. -{{< img src="logs/archives/tags_in_out.png" alt="Configurar etiquetas de archivo" style="width:75%;">}} - #### Definir el tamaño máximo de escaneado Utiliza este paso de configuración opcional para definir el volumen máximo de datos de log (en GB) que se pueden escanear para la recuperación en tus archivos de log. Para los archivos con un tamaño máximo de escaneado definido, todos los usuarios deben estimar el tamaño del escaneado antes de que se les permita iniciar una recuperación. Si el tamaño de escaneado estimado es superior al permitido para ese archivo, los usuarios deben reducir el intervalo en el que solicitan la recuperación. La reducción del intervalo reducirá el tamaño del escaneado y permitirá al usuario iniciar una recuperación. -{{< img src="logs/archives/max_scan_size.png" alt="Definir el tamaño máximo de escaneado en el archivo" style="width:75%;">}} - {{< site-region region="us3" >}} #### Reglas del cortafuegos @@ -276,8 +233,8 @@ Para los archivos con un tamaño máximo de escaneado definido, todos los usuari No se admiten reglas de cortafuegos. -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} {{< /site-region >}} #### Clase de almacenamiento @@ -285,7 +242,7 @@ No se admiten reglas de cortafuegos. {{< tabs >}} {{% tab "AWS S3" %}} -Puedes [establecer una configuración del ciclo de vida en tu bucket de S3][1] para realizar una transición automática de tus archivos de log a clases de almacenamiento óptimas. +Puedes seleccionar una clase de almacenamiento para tu archivo o [establecer una configuración de ciclo de vida en tu bucket de S3][1] para realizar una transición automática de tus archivos de log a clases de almacenamiento óptimas. La [recuperación][2] solo admite las siguientes clases de almacenamiento: @@ -311,29 +268,56 @@ El archivado y la [recuperación][1] solo admiten los siguientes niveles de acce Si deseas recuperar a partir de archivos de otro nivel de acceso, primero debes moverlos a uno de los niveles admitidos mencionados anteriormente. [1]: /es/logs/archives/rehydrating/ -Accede a dashboards preconfigurados +{{% /tab %}} +{{% tab "Google Cloud Storage" %}} + +Archivo y [rehidratación][1] admite los siguientes niveles de acceso: +- Standard (Estándar) +- Nearline +- Coldline +- Archivo + +[1]: /es/logs/archives/rehydrating/ {{% /tab %}} + {{< /tabs >}} -#### Cifrado del lado del servidor (SSE) +#### Cifrado del lado del servidor (SSE) para archivos de S3 -{{< tabs >}} -{{% tab "AWS S3" %}} +Al crear o actualizar un archivo de S3 en Datadog, puedes optar por configurar **Advanced Encryption** (Cifrado avanzado). Hay tres opciones disponibles en el menú desplegable **Encryption Type** (Tipo de cifrado): -##### SSE-S3 +- **Cifrado predeterminado a nivel de bucket de S3** (predeterminado): Datadog no anula la configuración de cifrado predeterminado de tu bucket de S3. +- **Claves gestionadas de Amazon S3**: fuerza el cifrado del lado del servidor utilizando claves administradas de Amazon S3 ([SSE-S3][1]), independientemente del cifrado predeterminado del bucket de S3. +- **AWS Key Management Service**: fuerza el cifrado del lado del servidor utilizando una clave gestionada por el cliente (CMK) de [AWS KMS][2], independientemente del cifrado predeterminado del bucket de S3. Deberás proporcionar el ARN de la CMK. -El cifrado predeterminado para los buckets de Amazon S3 es el cifrado del lado del servidor con claves de administración de Amazon S3 ([SSE-S3][1]). +[1]: https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingServerSideEncryption.html +[2]: https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingKMSEncryption.html +{{< tabs >}} +{{% tab "Default S3 Bucket-Level Encryption" %}} -Para confirmar que tu bucket de S3 está cifrado con SSE-S3: +Cuando se selecciona esta opción, Datadog no especifica ningún encabezado de cifrado en la solicitud de carga. Se aplicará el cifrado predeterminado de tu bucket de S3. + +Para configurar o comprobar la configuración del cifrado de tu bucket S3: 1. Navega hasta tu bucket de S3. -1. Haz clic en la pestaña **Properties** (Propiedades). -1. En la sección **Default Encryption** (Cifrado por defecto), comprueba que el **Encryption key type** (Tipo de clave de cifrado) es **Amazon S3 managed keys (SSE-S3)** (Claves administradas de Amazon S3 (SSE-S3)). +2. Haz clic en la pestaña **Propiedades**. +3. En la sección **Default Encryption** (Cifrado por defecto), configura o confirma el tipo de cifrado. Si tu cifrado utiliza [AWS KMS][1], asegúrate de que tienes una CMK válida y una política de CMK adjunta a tu CMK. + +[1]: https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingKMSEncryption.html + +{{% /tab %}} +{{% tab "Amazon S3 managed keys" %}} + +Esta opción garantiza que todos los objetos de archivo se carguen con [SSE_S3][1], utilizando claves gestionadas de Amazon S3. Esto anula cualquier configuración de cifrado predeterminada en el bucket de S3. -##### SSE-KMS +[1]: https://docs.aws.amazon.com/AmazonS3/latest/userguide/UsingServerSideEncryption.html +{{% /tab %}} +{{% tab "AWS Key Management Service" %}} + +Esta opción garantiza que todos los objetos de archivo se carguen utilizando una clave gestionada por el cliente (CMK) de [AWS KMS][1]. Esto anula cualquier configuración de cifrado predeterminada en el bucket de S3. -Como alternativa, Datadog admite el cifrado del lado del servidor con una CMK de [AWS KMS][2]. Para habilitarla, sigue estos pasos: +Asegúrate de haber completado los siguientes pasos para crear una CMK válida y una política de CMK. Deberás proporcionar el ARN de CMK para configurar correctamente este tipo de cifrado. 1. Crea tu CMK. 2. Adjunta una política de CMK a tu CMK con el siguiente contenido, sustituyendo según corresponda el número de cuenta de AWS y el nombre de rol de Datadog IAM: @@ -389,15 +373,9 @@ Como alternativa, Datadog admite el cifrado del lado del servidor con una CMK de } ``` -3. Ve a la pestaña **Properties** (Propiedades) en tu bucket de S3 y selecciona **Default Encryption** (Cifrado por defecto). Elige la opción "AWS-KMS", selecciona tu ARN de CMK y selecciona guardar. - -Para cualquier cambio en las claves de KMS existentes, ponte en contacto con el [soporte de Datadog][3] para obtener más ayuda. - -[1]: https://docs.aws.amazon.com/AmazonS3/latest/userguide/default-bucket-encryption.html -[2]: https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingKMSEncryption.html -[3]: /es/help/ -{{< partial name="whats-next/whats-next.html" >}} +3. Después de seleccionar **AWS Key Management Service** como tu **Encryption Type** (Tipo de cifrado) en Datadog, introduce tu ARN de la clave de AWS KMS. +[1]: https://docs.aws.amazon.com/AmazonS3/latest/dev/UsingKMSEncryption.html {{% /tab %}} {{< /tabs >}} @@ -405,7 +383,7 @@ Para cualquier cambio en las claves de KMS existentes, ponte en contacto con el Una vez que los ajustes del archivo se hayan configurado correctamente en tu cuenta de Datadog, tus pipelines de procesamiento comenzarán a enriquecer todos los logs que se ingieran en Datadog. Estos logs se reenvían posteriormente a tu archivo. -Sin embargo, después de crear o actualizar las configuraciones de los archivos, pueden pasar varios minutos antes de que se intente la siguiente carga de archivos. La frecuencia con la que se cargan los archivos puede variar. **Consulta tu bucket de almacenamiento de nuevo en 15 minutos** para asegurarte de que los archivos se están cargando correctamente desde tu cuenta de Datadog. +Sin embargo, después de crear o actualizar las configuraciones de los archivos, pueden pasar varios minutos antes de que se intente la siguiente carga de archivos. La frecuencia con la que se cargan los archivos puede variar. **Consulta tu bucket de almacenamiento de nuevo en 15 minutos** para asegurarte de que los archivos se están cargando correctamente desde tu cuenta de Datadog. Después, si el archivo sigue en estado pendiente, comprueba tus filtros de inclusión para asegurarte de que la consulta es válida y coincide con eventos de log en [Live Tail][14]. Cuando Datadog no consigue cargar logs en un archivo externo, debido a cambios involuntarios en la configuración o los permisos, el archivo de log correspondiente aparece resaltado en la página de configuración. @@ -448,9 +426,9 @@ Dentro del archivo JSON comprimido, el contenido de cada evento tiene el siguien } ``` -## Configurar tests de API y tests de API multupaso +## Referencias adicionales -Grabar pruebas de aplicaciones móviles +{{< partial name="whats-next/whats-next.html" >}}
*Logging without Limits es una marca registrada de Datadog, Inc. @@ -469,4 +447,4 @@ Grabar pruebas de aplicaciones móviles [12]: /es/account_management/rbac/permissions#logs_read_index_data [13]: /es/account_management/rbac/permissions#logs_read_data [14]: /es/logs/explorer/live_tail/ -[15]: /es/service_management/events/explorer/ +[15]: /es/service_management/events/explorer/ \ No newline at end of file diff --git a/content/es/logs/log_configuration/processors.md b/content/es/logs/log_configuration/processors.md index f0cb4ca5683f3..a4adbc9d90c3a 100644 --- a/content/es/logs/log_configuration/processors.md +++ b/content/es/logs/log_configuration/processors.md @@ -686,7 +686,7 @@ El procesador de búsqueda realiza las siguientes acciones: * Opcionalmente, si no encuentra el valor en la tabla de asignación, crea un atributo de destino con el valor de la tabla de referencia. Puedes seleccionar un valor para una [tabla de referencias][101] en la pestaña **Reference Table** (Tabla de referencia). - {{< img src="logs/log_configuration/processor/lookup_processor_reference_table.png" alt="Procesador de búsqueda" + {{< img src="logs/log_configuration/processor/lookup_processor_reference_table.png" alt="Procesador de búsqueda" >}} style="width:80%;">}} diff --git a/content/es/metrics/summary.md b/content/es/metrics/summary.md index 91de4856f2940..bdb19d672ea99 100644 --- a/content/es/metrics/summary.md +++ b/content/es/metrics/summary.md @@ -19,41 +19,49 @@ La [página Resumen de métricas][1] muestra una lista de tus métricas informad Busca tus métricas por nombre de métrica o etiqueta (tag) utilizando los campos **Metric** (Métrica) o **Tag** (Etiqueta): -{{< img src="metrics/summary/tag_advancedfiltering3.mp4" alt="La página de resumen de métricas con NOT team:* ingresado en la barra de búsqueda de Etiqueta" video=true style="width:75%;">}} +{{< img src="metrics/summary/tag_advanced_filtering.png" alt="Página de resumen de métricas SIN equipo:* ingresado en la barra de búsqueda por etiquetas" style="width:75%;">}} -El filtrado de etiquetas admite la sintaxis booleana y comodín para que puedas identificar rápidamente: +También puede descubrir métricas relevantes utilizando el soporte mejorado de concordancia difusa en el campo de búsqueda de métricas: + +{{< img src="metrics/summary/metric_advanced_filtering_fuzzy.png" alt="The metrics summary Page ( página) with fuzzy search searching shopist checkout" style="width:75%;">}} + +El filtrado por etiquetas admite la sintaxis booleana y de comodín para que puedas identificar: * Métricas que están etiquetadas con una clave de etiqueta concreta, por ejemplo, `team`: `team:*` * Métricas a las que les falta una determinada clave de etiqueta, por ejemplo, `team`: `NOT team:*` - ## Panel de facetas Las barras de búsqueda proporcionan el conjunto más completo de acciones para filtrar la lista de métricas. No obstante, las facetas también pueden filtrar tus métricas por: -- **Configuración**: Métricas con configuraciones de etiqueta -- **Percentiles**: Métricas de distribución habilitada por percentiles/capacidades de consulta avanzada +- **Configuración**: métricas con configuraciones de etiqueta +- **Porcentajes**: métricas de distribución habilitadas por percentiles/capacidades de consulta avanzadas - **Métricas históricas**: Métricas que tienen activada la ingesta de métricas históricas -- **Actividad de consulta** (fase beta): Métricas no consultadas en la aplicación o por la API en los últimos 30 días -- **Tipo de métrica**: Diferencia entre métricas de distribución y no distribución (counts, gauges, rates) -- **Origen de métrica**: Producto a partir del cual se originó la métrica (por ejemplo, métricas generadas a partir de logs o tramos (spans) de APM). Para obtener más información sobre los distintos tipos de origen de métrica, consulta [Definiciones de origen de métrica][12]. +- **Actividad de consulta**: Métricas no consultada en Datadog o por la API en los últimos 30, 60 o 90 días +- **Recursos relacionados**: Métricas que se están utilizando en dashboards, notebooks, monitores y SLOs +- **Tipo de métrica**: diferencia entre métricas de distribución y no distribución (counts, gauges, rates) +- **Origen de métricas**: Producto del que procede la métrica (por ejemplo, métricas generadas a partir de logs o tramos (spans) APM). Para obtener más información sobre los distintos tipos de origen de métricas, consulta [definiciones de orígenes de métricas][12]. + +### Definiciones -**Nota**: Una métrica incluida en un dashboard que no haya sido cargada por un usuario en los últimos 30 días no se consideraría consultada activamente. +Una métrica está **sin consultar** si no se accedió a ella en monitores, SLOs, notebooks ejecutados, dashboards abiertos, llamadas a la API o si no se la utilizó en consultas del Explorador de métricas en los últimos 30, 60 o 90 días. -{{< img src="metrics/summary/facets4.png" alt="Panel de facetas de métricas" style="width:75%;">}} +Una métrica se considera **utilizada** si existe en un recurso, independientemente de si se consultó activamente. + +{{< img src="metrics/summary/facet_panel_2025-02-26.png" alt="Panel de facetas de métricas" style="width:75%;">}} ## Configuración de múltiples métricas -Al hacer clic en **Configure Metrics** (Configurar métricas) se te ofrecen múltiples opciones que puedes utilizar para configurar más de una métrica a la vez: +Si haces clic en **Configure Metrics** (Configurar métricas), verás varias opciones para configurar más de una métrica a la vez: {{< img src="metrics/summary/configurationbuttons10-11-2024.png" alt="Botones de configuración en bloque" style="width:100%;">}} * **Gestionar etiquetas**: configura etiquetas en múltiples métricas personalizadas coincidentes con un espacio de nombres utilizando Metrics without LimitsTM. -{{< img src="metrics/summary/bulkconfig_new-compressed.mp4" alt="Configuración de etiqueta de métricas en bloque" video="true" style="width:100%;" >}} +{{< img src="metrics/summary/tags-bulk-config.mp4" alt="Configuración en bloque de etiquetas de métricas" video="true" style="width:100%;" >}} * **Activar o desactivar percentiles**: gestiona agregaciones de percentiles a través de múltiples métricas de distribución. Consulta la [página de Distribuciones][31] para obtener más información. -{{< img src="metrics/summary/percentile_aggregations_toggle.png" alt="Cambiar el conmutador para gestionar agregaciones de percentiles" style="width:100%;">}} +{{< img src="metrics/summary/percentile_aggregations_toggle_2025-04-16.png" alt="Cambia el conmutador para gestionar agregaciones de percentiles" style="width:100%;">}} * **Activar o desactivar las métricas históricas**: gestiona la ingesta de datos históricos de métrica. Consulta la [página de Métricas históricas][30] para más información. @@ -139,28 +147,31 @@ Para cualquier clave concreta de etiqueta, puedes: [Más información sobre el etiquetado][5]. -## Activos relacionados con métricas +### Activos relacionados con métricas {{< img src="metrics/summary/related_assets_dashboards.png" alt="Activos relacionados para un nombre de métricas especificado" style="width:80%;">}} Para determinar el valor de cualquier nombre de métrica para tu organización, utiliza Activos relacionados de métricas. Los activos relacionados de métricas se refieren a cualquier dashboard, notebook, monitor, o SLO que consulta una métrica en particular. -1. Desplázate hasta la parte inferior del panel lateral de detalles de la métrica hasta la sección "Related Assets" (Activos relacionados). -2. Haz clic en el botón desplegable para ver el tipo de activo relacionado que te interesa (dashboards, monitores, notebooks, SLOs). Además, puedes utilizar la barra de búsqueda para validar activos específicos. +1. Desplázate hasta la parte inferior del panel lateral de detalles de la métrica, hasta la sección **Recursos relacionados**. +2. Haz clic en el botón desplegable para ver el tipo de recurso relacionado que te interesa en (dashboards, monitores, notebooks, SLOs). Además, puedes utilizar la barra de búsqueda para validar activos específicos. + +## Explorador de la cardinalidad de etiquetas de métricas personalizadas +{{< img src="metrics/tagsexplorer.png" alt="Explorador de la cardinalidad de etiquetas de métricas personalizadas para el nombre de una métrica que presenta picos" style="width:80%;">}} +Para determinar por qué un nombre de métrica concreto está emitiendo un gran número de métricas personalizadas, o tiene picos, utiliza el explorador de la cardinalidad de etiquetas de métricas personalizadas. Esta opción te ayuda a identificar las claves de etiqueta que provocan el pico, que puedes excluir inmediatamente utilizando Metrics without LimitsTM para ahorrar costes. ## Metrics without LimitsTM Metrics without LimitsTM te proporciona control sobre el tamaño de tus métricas personalizadas sin necesidad de realizar cambios en el Agent o a nivel de código. **Nota:** Metrics without LimitsTM solo está disponible para métricas personalizadas. -Puedes configurar etiquetas mediante el botón de configuración de etiquetas de métrica en bloque o el botón **Manage Tags** (Gestionar etiquetas) del panel lateral de detalles de métrica. +Puedes [configurar etiquetas en bloque](#configuration-of-multiple-metrics) accediendo a **Configurar métricas -> Gestionar etiquetas** en la [página de Métricas][34] o haciendo clic en el botón **Manage Tags** (Gestionar etiquetas) del panel lateral de detalles de una métrica. {{< img src="metrics/distributions/managetags.png" alt="Configuración de etiquetas en una distribución" style="width:80%;">}} 1. Haz clic en el nombre de tu métrica de distribución personalizada en la tabla **Metrics Summary** (Resumen de métricas) para abrir el panel lateral de detalles de métricas. 2. Haz clic en el botón **Gestionar etiquetas** para abrir el modal de configuración de etiquetas. - 3. Seleccione **Include tags...** o **Exclude tags...** (Incluir etiquetas... o Excluir etiquetas...) para personalizar las etiquetas que deseas o no consultar. Para más información sobre la configuración de etiquetas, consulta la documentación de [Metrics without Limits][10]. 4. Previsualiza los efectos de tu configuración de etiqueta propuesta con el estimador de cardinalidad antes de seleccionar **Save** (Guardar). @@ -170,46 +181,33 @@ Puedes configurar etiquetas mediante el botón de configuración de etiquetas de Una vez que se ha configurado tu métrica con Metrics without LimitsTM, puedes ver qué etiquetas siguen siendo consultables (las que contribuyen al volumen _Indexed Custom Metrics_). Y puedes volver a todas las etiquetas enviadas e ingeridas originalmente que contribuyen a tu volumen _Ingested Custom Metrics_. -### Optimizar tu métrica con agregaciones en Modo Avanzado - -Para métricas personalizadas de tipo count, gauge o rate, puedes refinar aún más las configuraciones de tus métricas incluyendo opcionalmente agregaciones adicionales con el modo avanzado de Metrics without LimitsTM. Por defecto, Datadog almacena la combinación de agregación más consultada en función del tipo de métrica para preservar la precisión matemática de la consulta de tu métrica configurada, como se indica a continuación: - -- Los conteos/tasas de métricas se pueden consultar con agregaciones de tiempo/espacio de tipo `SUM` -- Las gauge configuradas se pueden consultar en agregaciones de tiempo/espacio de `AVG` - -{{< img src="metrics/summary/customize_aggr_docs.jpg" alt="Ajusta las agregaciones en counts, tasas y gauges" style="width:80%;">}} - -Hay más agregaciones disponibles que pueden serte útiles. Puedes añadir o eliminar agregaciones en cualquier momento sin necesidad de realizar cambios en el Agent o en el código. - -**Nota**: La configuración de tu métrica count, rate o gauge y la eliminación de una agregación pueden afectar a los dashboards y monitores existentes. - ### Definiciones del origen de una métrica Esta tabla muestra la correspondencia entre el origen de una métrica tal y como se ve en la faceta y el lugar desde el que se envió: | Origen de una métrica | Enviada desde | | ------------------------| ----------------------------------------------------------------------------- | -| Catálogo de APIs | Series temporales enviadas por el producto [API Catalog][13] de Datadog desde el endpoint APIM. +| Catálogo de APIs | Series temporales enviadas por el producto [Catálogo de software][13] de Datadog desde el endpoint de APIM. | APM | Series temporales enviadas por el producto APM de Datadog para métricas generadas a partir de métricas de trazas (traces) y tramos. | Agent | Series temporales enviadas por el Datadog Agent, recopiladas de [integraciones del Agent][10], [integraciones incorporadas][9], [DogStatsD][32], o [checks personalizados del Agent][33]. -| CSM | Series temporales enviadas por el producto [Cloud Security Monitoring][14] de Datadog. +| Cloud Security | Series temporales enviadas por el producto [Cloud Security][14] de Datadog. | Integraciones en la nube | Series temporales recopiladas de proveedores de nube como AWS, Azure y Google Cloud, etc. de sus respectivas integraciones. | DBM | Series temporales enviadas por el producto [Database Monitoring][15] de Datadog, que incluyen información sobre las actividades/consultas/bloqueos de MySQL, Oracle y Postgres. | DSM | Series temporales enviadas por el producto [Data Streams Monitoring][16] de Datadog, para métricas generadas a partir de tramos y trazas de DSM. | Datadog Exporter | Series temporales enviadas por el [OpenTelemetry Collector][17] o el [Datadog Exporter][18]. | Plataforma Datadog | Series temporales enviadas por métricas de admisión que se utilizan para [informar sobre el uso de métricas][11]. | Eventos | Series temporales generadas a partir de la plataforma de eventos de Datadog. -| Observabilidad de LLM | Series temporales emitidas por el producto LLM Observability utilizando el servicio `lmobs_to_metrics`. +| LLM Observability | Series temporales emitidas por el producto LLM Observability utilizando el servicio `lmobs_to_metrics`. | Logs | Series temporales generadas a partir de la plataforma de [logs][28] de Datadog. | API de métricas | Series temporales enviadas mediante el [endpoint de ingesta OTLP][21] y el receptor OTel con una contrapartida o con puntos en la integración Datadog para obtener métricas del uso estimado o el cliente API de Datadog. -| NPM | Series temporales enviadas por el producto [Network Performance Monitoring][19] de Datadog. +| CNM | Series temporales enviadas por el producto [Cloud Network Monitoring][19] de Datadog. | Observability Pipelines | Series temporales enviadas por los [pipelines de observabilidad][20] de Datadog, incluidas las métricas de errores y rendimiento. | Otro | Series temporales que no tienen una contrapartida en la integración DD. | Procesos | Series temporales generadas a partir del producto [Processes][22] de Datadog. | RUM | Series temporales generadas a partir del producto [Real User Monitoring][23] de Datadog. | Integraciones SAAS | Series de tiempo recopiladas de plataformas SAAS populares como Slack, Docker, PagerDuty, etc. | Serverless | Series temporales enviadas por la plataforma [serverless][24] de Datadog, incluyendo Function, App Services, Cloud Run y Container App Metrics. -| Catálogo de servicios | Series temporales enviadas por el producto [Service Catalog][25] de Datadog, incluidas las métricas de [Scorecard][29]. +| Software Catalog | Series temporales enviadas por el producto [Catálogo de software][25] de Datadog, incluyendo las métricas de [scorecards][29]. | Synthetic Monitoring | Métricas de monitorización y tests continuos de Synthetic, generadas a partir del producto [Synthetic Monitoring][26] de Datadog. | USM | Series temporales generadas a partir del producto [Universal Service Monitoring][27] de Datadog. @@ -230,24 +228,25 @@ Esta tabla muestra la correspondencia entre el origen de una métrica tal y como [10]: /es/integrations/agent_metrics/ [11]: /es/account_management/billing/usage_metrics/ [12]: /es/metrics/summary/#metric-origin-definitions -[13]: /es/api_catalog/ +[13]: /es/software_catalog/endpoints/ [14]: /es/security/cloud_security_management/ [15]: /es/database_monitoring/ [16]: /es/data_streams/ -[17]: /es/opentelemetry/collector_exporter/otel_collector_datadog_exporter/?tab=onahost +[17]: /es/opentelemetry/setup/collector_exporter/ [18]: /es/opentelemetry/collector_exporter/ -[19]: /es/network_monitoring/performance/ +[19]: /es/network_monitoring/cloud_network_monitoring/ [20]: /es/observability_pipelines/ -[21]: /es/opentelemetry/interoperability/otlp_ingest_in_the_agent/?tab=host +[21]: /es/opentelemetry/setup/otlp_ingest_in_the_agent/ [22]: /es/integrations/process/ [23]: /es/monitors/types/real_user_monitoring/ [24]: /es/serverless/ -[25]: /es/service_catalog/ +[25]: /es/software_catalog/ [26]: /es/synthetics/ [27]: /es/universal_service_monitoring/ [28]: /es/logs/ -[29]: /es/service_catalog/scorecards/ +[29]: /es/software_catalog/scorecards/ [30]: /es/metrics/custom_metrics/historical_metrics/#bulk-configuration-for-multiple-metrics [31]: /es/metrics/distributions/#bulk-configuration-for-multiple-metrics [32]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/ -[33]: /es/metrics/custom_metrics/agent_metrics_submission/ \ No newline at end of file +[33]: /es/metrics/custom_metrics/agent_metrics_submission/ +[34]: https://app.datadoghq.com/metric/overview \ No newline at end of file diff --git a/content/es/network_monitoring/devices/profiles.md b/content/es/network_monitoring/devices/profiles.md index 8c54b3623a081..7bb1759b5fd61 100644 --- a/content/es/network_monitoring/devices/profiles.md +++ b/content/es/network_monitoring/devices/profiles.md @@ -13,19 +13,29 @@ title: Perfiles NDM ## Información general -La monitorización de dispositivos de red utiliza perfiles para indicar al Datadog Agent las métricas y las etiquetas (tags) asociadas que debe recopilar. Un perfil es una colección de identificadores de objetos asociados a un dispositivo. +Network Device Monitoring utiliza perfiles para indicar al Datadog Agent las métricas y las etiquetas (tags) asociadas que debe recopilar. Un perfil es una colección de {{< tooltip text="OID (Identificadores de objetos)" tooltip="ID o dirección única de un dispositivo, que cuando se sondea devuelve el código de respuesta de ese valor." >}} asociados a un dispositivo. ## Configuración +Puedes activar perfiles de dispositivos en Datadog utilizando el flujo de trabajo recomendado basado en la GUI (Gestor de perfiles SNMP) o a través de una configuración avanzada: + +**[Gestor de perfiles SNMP][9] (recomendado)** +- Interfaz de usuario guiada para personalizar las métricas recopiladas de dispositivos de red, directamente desde la página de configuración de [Network Device Monitoring][8]. +- Elimina la necesidad de buscar identificadores de objetos (OID) en la documentación de los proveedores, recomendando automáticamente una lista de métricas relevantes y legibles por humanos. +- No requiere configuración manual con archivos `.yaml`. +- Aplica los cambios a escala a todos los Agents en un solo clic con la [configuración remota][11]. + +**[Configuración avanzada][10]** +- Crea y activa perfiles personalizados manualmente con archivos `.yaml`, especificando las métricas y las etiquetas (tags) del dispositivo. +- Ideal para entornos grandes o dinámicos. + Por defecto, se cargan todos los perfiles del directorio de configuración del Agent. Para personalizar los perfiles específicos de la colección, haz referencia explícita a ellos por nombre de archivo en `definition_file` o proporciona una lista en línea en `definition`. Se puede hacer referencia a cualquiera de los perfiles de Datadog por su nombre. Se puede hacer referencia a perfiles personalizados adicionales por la ruta del archivo en la configuración o colocarlos en el directorio de configuración. **Nota**: El perfil genérico es [generic-device.yaml][1], que admite enrutadores, conmutadores y otros dispositivos. -
-Si quieres crear un perfil de dispositivo utilizando la experiencia basada en GUI, consulta la documentación Empezando con perfiles de dispositivos. -
+## Términos y conceptos -### Dispositivos sysObjectId asignados +### Dispositivos sysOID asignados Los perfiles permiten a la monitorización de dispositivos de red reutilizar las definiciones de métricas en varios tipos o instancias de dispositivos. Los perfiles definen qué métricas recopilar y cómo transformarlas en métricas de Datadog. Se espera que cada perfil monitorice una clase de dispositivos similares del mismo proveedor. El Datadog Agent los utiliza automáticamente comparando los sysObjectId del dispositivo de red con aquellos definidos en el archivo del perfil. @@ -54,7 +64,7 @@ instances: - ip_address: 192.168.34.11 profile: my-profile2 - ip_address: 192.168.34.13 - # Para este dispositivo, el Agent obtendrá el sysObjectID del dispositivo y utilizará la coincidencia más cercana + # For this device, the Agent will fetch the sysObjectID of the device and use the closest match ``` ### Definición de métricas por perfil @@ -65,7 +75,7 @@ Para ver más perfiles proporcionados por Datadog, consulta el [repositorio de G ### Definición de metadatos por perfil -En la sección de metadatos de los perfiles, puedes definir dónde y cómo se recopilan los metadatos. Los valores pueden ser estáticos o proceder de un valor de identificador de objeto. +En la sección de metadatos de los perfiles, puedes definir dónde y cómo se recopilan los metadatos. Los valores pueden ser estáticos o proceder de un valor de identificador de objeto (OID). Para ver los campos admitidos, consulta la sección de [metadatos de dispositivos][4]. En la versión 7.52 y posteriores del Datadog Agent, existe un campo `device_type` para metadatos de dispositivos. Puede configurarse manualmente en el perfil y utilizarse para filtrar tipos específicos de dispositivos. Los valores aceptados son: @@ -86,7 +96,7 @@ En la versión 7.52 y posteriores del Datadog Agent, existe un campo `device_typ Para obtener más información sobre los formatos de los perfiles, consulta [Referencia de formatos de perfiles][5]. -## Para leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} @@ -97,4 +107,8 @@ Para obtener más información sobre los formatos de los perfiles, consulta [Ref [4]: https://github.com/DataDog/datadog-agent/blob/main/pkg/networkdevice/metadata/payload.go#L51-L76 [5]: https://datadoghq.dev/integrations-core/tutorials/snmp/profile-format/ [6]: https://app.datadoghq.com/devices/ -[7]: /es/network_monitoring/devices/guide/device_profiles/ \ No newline at end of file +[7]: /es/network_monitoring/devices/guide/device_profiles/ +[8]: https://app.datadoghq.com/devices/profiles +[9]: /es/network_monitoring/devices/guide/device_profiles/ +[10]: /es/network_monitoring/devices/guide/build-ndm-profile/ +[11]: /es/agent/remote_config/ \ No newline at end of file diff --git a/content/es/network_monitoring/netflow/_index.md b/content/es/network_monitoring/netflow/_index.md index 917f0d14140c4..cfeb6d0ee6a89 100644 --- a/content/es/network_monitoring/netflow/_index.md +++ b/content/es/network_monitoring/netflow/_index.md @@ -1,4 +1,6 @@ --- +aliases: +- /es/network_monitoring/devices/netflow/ further_reading: - link: /network_monitoring/devices/profiles tag: Documentación @@ -9,7 +11,6 @@ further_reading: - link: https://www.datadoghq.com/blog/diagnose-network-performance-with-snmp-trap-monitoring/ tag: Blog text: Monitorizar y diagnosticar problemas de rendimiento de red con SNMP Traps -is_beta: true title: Monitorización de NetFlow --- @@ -36,18 +37,22 @@ network_devices: netflow: enabled: true listeners: - - flow_type: netflow9 # opciones: netflow5, netflow9, ipfix, sflow5 - port: 2055 # los dispositivos se deben configurar con el mismo número de puerto + - flow_type: netflow9 # choices: netflow5, netflow9, ipfix, sflow5 + port: 2055 # devices need to be configured to the same port number - flow_type: netflow5 port: 2056 - flow_type: ipfix port: 4739 - flow_type: sflow5 port: 6343 + ## Set to true to enable reverse DNS enrichment of private source and destination IP addresses in NetFlow records + reverse_dns_enrichment_enabled: false ``` Luego de guardar los cambios, [reinicia el Agent][4]. +**Nota**: Asegúrate de que tus [reglas de firewall][9] permiten el tráfico UDP entrante en los puertos configurados. + ## Agregación El Datadog Agent añade automáticamente los datos recibidos a NetFlow para limitar el número de registros enviados a la plataforma, al mismo tiempo que conserva la mayor parte de la información. Por defecto, los registros de flujos que tienen los mismos identificadores, como `source`, `destination address`, `port` y `protocol`, se agregan juntos en intervalos de cinco minutos. Además, el Datadog Agent puede detectar puertos efímeros y eliminarlos. Como resultado, es posible que aparezcan flujos con `port:*`. @@ -78,6 +83,18 @@ En la pestaña **Configuración** en NetFlow, haz clic en **Add Enrichment** (A {{< img src="network_device_monitoring/netflow/new_enrichment.png" alt="Modal de Asignación de nuevo enriquecimiento en la pestaña de configuración de NetFlow" width="80%" >}} +### Enriquecimiento de IP privada con DNS inverso + +Activa el enriquecimiento de IP privada con DNS inverso para realizar búsquedas de DNS de nombres de host asociados a direcciones IP de origen o destino. Cuando se activa, el Agent realiza búsquedas con DNS inverso en IP de origen y destino dentro de rangos de direcciones privadas, enriqueciendo los registros NetFlow con los nombres de host correspondientes. + +Por [defecto][7], el enriquecimiento de IP con DNS inverso en tu archivo `datadog.yaml` está deshabilitado. Para habilitarlo, consulta la sección [Configuración](#configuration) de esta página. + +Busca **DNS** en la agrupación de Flujo de la sección de facetas para encontrar los flujos asociados con el enriquecimiento de IP con DNS inverso: + +{{< img src="network_device_monitoring/netflow/dns_ip_enrichment.png" alt="Captura de pantalla del destino DNS inverso y de las facetas de origen" width="100%" >}} + +**Nota**: Las entradas de DNS inverso se almacenan en caché y están sujetas a limitaciones de frecuencia para minimizar las consultas DNS y reducir la carga de los servidores DNS. Para obtener más información sobre las opciones de configuración, incluyendo la modificación del almacenamiento en caché predeterminado y la limitación de frecuencia, consulta el [archivo de configuración completo][8]. + ## Visualización Puedes acceder a los datos recopilados por NetFlow Monitoring en la página de [**NetFlow**][5]. Pasa el cursor sobre un flujo de la lista para obtener información adicional sobre hosts, pods y contenedores, y acceder a las conexiones de red relacionadas. @@ -155,6 +172,7 @@ Además de los campos, también puedes utilizar facetas predefinidas para empeza | MAC de destino | La dirección MAC (Media Access Control) asociada a la IP de destino. | | Máscara de destino | La máscara de subred asociada a la IP de destino. | | Puerto de destino | El número del puerto de destino. | +| Nombre de host DNS inverso de destino | El nombre de host DNS asociado a la IP de destino. | | Código ISO de subdivisión del destino | El código ISO que representa la subdivisión (como estado o provincia) asociada a la IP de destino. | | Nombre de la subdivisión de destino | El nombre de la subdivisión (como estado o provincia) asociada a la IP de destino. | | Zona horaria de destino | La zona horaria asociada a la IP de destino. | @@ -183,6 +201,7 @@ Además de los campos, también puedes utilizar facetas predefinidas para empeza | MAC de origen | La dirección de MAC (Media Access Control) asociada a la IP de origen. | | Máscara de origen | La máscara de subred asociada a la IP de origen. | | Puerto de origen | El número del puerto de origen. | +| Nombre de host DNS inverso de origen | El nombre de host DNS asociado a la IP de origen. | | Código ISO de la subdivisión de origen | El código ISO que representa la subdivisión (como estado o provincia) asociada a la IP de origen. | | Nombre de la subdivisión de origen | El nombre de la subdivisión (como estado o provincia) asociada a la IP de origen. | | Zona horaria de origen | La zona horaria asociada a la IP de origen. | @@ -202,7 +221,7 @@ Además, puedes consultar y visualizar **Bytes (ajustados) (@adjusted_bytes)** y Para visualizar los bytes/paquetes sin procesar (muestreados) enviados por tus dispositivos, puedes consultar **Bytes (muestreados) (@bytes)** y **Paquetes (muestreados) (@packets)** en dashboards y notebooks. -## Retención +## Conservación Los datos de NetFlow se conservan durante 30 días por defecto, con opciones de conservación de 15, 30, 60 y 90 días. @@ -263,4 +282,7 @@ Utiliza el comando `netstat -s` para ver si hay algún paquete UDP perdido: [3]: /es/agent/configuration/agent-configuration-files/?tab=agentv6v7#agent-main-configuration-file [4]: /es/agent/configuration/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent [5]: https://app.datadoghq.com/devices/netflow -[6]: /es/monitors/types/netflow/ \ No newline at end of file +[6]: /es/monitors/types/netflow/ +[7]: https://github.com/DataDog/datadog-agent/blob/f6ae461a7d22aaf398de5a94d9330694d69560d6/pkg/config/config_template.yaml#L4201 +[8]: https://github.com/DataDog/datadog-agent/blob/f6ae461a7d22aaf398de5a94d9330694d69560d6/pkg/config/config_template.yaml#L4203-L4275 +[9]: /es/network_monitoring/devices/troubleshooting#traps-or-flows-not-being-received-at-all \ No newline at end of file diff --git a/content/es/notebooks/advanced_analysis/_index.md b/content/es/notebooks/advanced_analysis/_index.md index ecf4eccb16f4d..3d69c570ce001 100644 --- a/content/es/notebooks/advanced_analysis/_index.md +++ b/content/es/notebooks/advanced_analysis/_index.md @@ -15,10 +15,6 @@ Analysis Features para notebooks no está disponible en el }} - Advanced Analysis está en vista previa. Para activarlo, contacta con tu asesor de clientes. -{{< /callout >}} - ## Información general La función de análisis de los notebooks permite realizar análisis avanzados de los datos de Datadog. Puedes unir varios conjuntos de datos, encadenar consultas y transformar los datos mediante transformaciones predefinidas o SQL, sin perder ninguna de las funciones que ofrecen los notebooks. @@ -74,8 +70,8 @@ Puedes añadir o modificar columnas en tu celda de fuente de datos. Hay dos form Puedes tomar consultas existentes del Log Explorer que incluyan [Campos calculados][4] y abrirlas en notebooks. Para transferir estas consultas desde el Log Explorer, haz clic en **More** (Más) y selecciona **Analyze in Notebooks** (Analizar en notebooks). Los campos calculados se convierten automáticamente en una celda de transformación. También puedes crear campos calculados directamente en un notebook para definir un campo calculado a partir de fuentes de datos existentes. Estos campos pueden reutilizarse en análisis posteriores: -1. Abre un espacio de trabajo con una fuente de datos. -1. Añade una [celda de transformación](#transformation-cell). +1. Abre un Workspace con una fuente de datos. +1. Añade una [Celda de transformación](#transformation-cell). 1. Haz clic en **More operations** (Más operaciones). 1. Selecciona **Calculate** (Calcular). diff --git a/content/es/opentelemetry/integrations/runtime_metrics/_index.md b/content/es/opentelemetry/integrations/runtime_metrics/_index.md index 911dff290aa12..5dcff45523bfe 100644 --- a/content/es/opentelemetry/integrations/runtime_metrics/_index.md +++ b/content/es/opentelemetry/integrations/runtime_metrics/_index.md @@ -1,44 +1,249 @@ --- aliases: - /es/opentelemetry/runtime_metrics/ +- /es/opentelemetry/integrations/runtime_metrics/go/ +- /es/opentelemetry/integrations/runtime_metrics/dotnet/ +- /es/opentelemetry/integrations/runtime_metrics/java/ +further_reading: +- link: /tracing/metrics/runtime_metrics/ + tag: Documentación + text: Métricas de tiempo de ejecución de APM +- link: /opentelemetry/mapping/metrics_mapping/ + tag: Documentación + text: Asignación de métricas de OpenTelemetry title: Métricas de tiempo de ejecución de OpenTelemetry -type: multi-code-lang --- ## Información general -Las métricas de tiempo de ejecución son métricas de aplicación sobre el uso de memoria, la recopilación de elementos no usados o paralelización. Las bibliotecas de rastreo de Datadog proporcionan [la recopilación de métricas de tiempo de ejecución][5] para cada lenguaje compatible pero, además, OpenTelemetry (OTel) recopila métricas de tiempo de ejecución, que pueden ser enviadas a Datadog a través de los SDKs de OpenTelemetry. +Las métricas de tiempo de ejecución proporcionan información sobre el rendimiento de las aplicaciones, incluido el uso de memoria, la recopilación de elementos no usados y la paralelización. Las bibliotecas de rastreo de Datadog ofrece [recopilación de métricas de tiempo de ejecución][5] para cada lenguaje compatible, y OpenTelemetry (OTel) también recopila métricas de tiempo de ejecución compatibles que pueden enviarse a Datadog a través de los SDKs de OpenTelemetry. -Datadog recopila métricas de tiempo de ejecución de OpenTelemetry en los siguientes lenguajes: +## Compatibilidad + +Datadog es compatible con las métricas en tiempo de ejecución de OpenTelemetry para los siguientes lenguajes: - Java - .NET - Go -## Convenciones de nomenclatura de la métrica +Para más detalles sobre la asignación de métricas de host y contenedor, véase [OpenTelemetry Metrics Mapping][1]. -La métricas de tiempo de ejecución siguen diferentes convenciones de nomenclatura en función de su fuente: OpenTelemetry Collector y Exportador de Datadog, ingesta OTLP del Datadog Agent, o bibliotecas de rastreo de Datadog. Al utilizar las métricas de tiempo de ejecución de OpenTelemetry con Datadog, recibirás tanto las métricas de tiempo de ejecución original de OpenTelemetry como las métricas de tiempo de ejecución de Datadog asignadas para métricas equivalente. Las métricas de tiempo de ejecución tienen los siguientes prefijos que indican su fuente: +## Instrucciones de instalación -| OTel Collector y Exportador de Datadog | Ingesta OTLP de Datadog Agent | Biblioteca de rastreo de Datadog | -| --- | --- | --- | -| `otel.process.runtime.*` | `process.runtime.*` | `runtime..*` | +### 1. Requisitos previos + +- Has configurado correctamente [las métricas de OpenTelemetry para enviarlas a Datadog][2]. +- Has instalado la [integración del lenguaje correspondiente en Datadog][3]. + +### 2. Configurar la aplicación + +Selecciona tu lenguaje para ver las instrucciones de configuración del SDK de OpenTelemetry para enviar métricas en tiempo de ejecución: + +{{< tabs >}} +{{% tab "Java" %}} + +#### Instrumentación automática + +Si utilizas [instrumentación automática de OpenTelemetry][3] para aplicaciones Java, las métricas de tiempo de ejecución están activadas por defecto. + +#### Instrumentación manual + +Si utilizas [instrumentación manual de OpenTelemetry][4], sigue las guías para tu versión de Java: +- [Java 8][5] +- [Java 17][6] + +[3]: https://opentelemetry.io/docs/instrumentation/java/automatic/ +[4]: https://opentelemetry.io/docs/instrumentation/java/manual/ +[5]: https://github.com/open-telemetry/opentelemetry-java-instrumentation/tree/main/instrumentation/runtime-telemetry/runtime-telemetry-java8/library +[6]: https://github.com/open-telemetry/opentelemetry-java-instrumentation/tree/main/instrumentation/runtime-telemetry/runtime-telemetry-java17/library + +{{% /tab %}} + +{{% tab "Go" %}} + +Las aplicaciones de OpenTelemetry Go son [instrumentadas manualmente][3]. Para activar las métricas en tiempo de ejecución, consulta la documentación del [paquete de tiempo de ejecución][4]. + +[3]: https://opentelemetry.io/docs/instrumentation/go/manual/ +[4]: https://pkg.go.dev/go.opentelemetry.io/contrib/instrumentation/runtime + +{{% /tab %}} + +{{% tab ".NET" %}} + + + +#### Instrumentación automática + +Si utilizas [instrumentación automática de OpenTelemetry][3] para aplicaciones .NET, las métricas de tiempo de ejecución están activadas por defecto. + +#### Instrumentación manual + +Si utilizas [instrumentación manual de OpenTelemetry][4], consulta la documentación de [biblioteca OpenTelemetry.Instrumentation.Runtime][5]. + +#### Intervalo de exportación de métricas -**Nota**: Las métricas de tiempo de ejecución de OpenTelemetry se asignan a Datadog por el nombre de métrica. No cambies el nombre de asignación de las métricas de host para las métricas de tiempo de ejecución de OpenTelemetry o se romperá. +El intervalo de exportación predeterminado de métricas para el SDK de .NET OTel es diferente del intervalo predeterminado del SDK de Datadog .NET. Datadog recomienda configurar la variable de entorno [OTEL_METRIC_EXPORT_INTERVAL][7] en tu servicio de .NET para que coincida con el intervalo de exportación predeterminado de métricas de Datadog: -Para más información sobre la asignación de métricas de host y contenedor, consulta [Asignación de métricas de OpenTelemetry][1]. +``` +OTEL_METRIC_EXPORT_INTERVAL=10000 +``` -## Configuración +[3]: https://opentelemetry.io/docs/instrumentation/net/automatic/ +[4]: https://opentelemetry.io/docs/instrumentation/net/manual/ +[5]: https://github.com/open-telemetry/opentelemetry-dotnet-contrib/tree/main/src/OpenTelemetry.Instrumentation.Runtime +[7]: https://opentelemetry.io/docs/specs/otel/configuration/sdk-environment-variables/#periodic-exporting-metricreader -Selecciona tu lenguaje para ver las instrucciones de instalación y configuración del SDK de OpenTelemetry para enviar métricas de tiempo de ejecución: +{{% /tab %}} -{{< partial name="opentelemetry/otel-runtime-metrics.html" >}} -
+{{< /tabs >}} ## Ver dashboards de métricas de tiempo de ejecución -Una vez finalizada la configuración, ve tus métricas de tiempo de ejecución en la página de detalles del servicio (consulta el ejemplo de Java más abajo), la pestaña de métricas de la gráfica de llamas y en [dashboards de tiempo de ejecución predeterminados][7]. +Una vez finalizada la configuración, puedes ver las métricas de tiempo de ejecución en: +- La página de detalles del servicio (véase el ejemplo de Java a continuación) +- La pestaña de métricas de la gráfica de llamas +- [Dashboard de tiempo de ejecución][7] por defecto {{< img src="opentelemetry/otel_runtime_metrics_service_page.png" alt="Página de servicios que muestra las métricas de tiempo de ejecución de OpenTelemetry en la pestaña de Métricas de JVM" style="width:100%;" >}} -[1]: /es/opentelemetry/guide/metrics_mapping/ +## Datos recopilados + +Cuando se utilizan las métricas en tiempo de ejecución de OpenTelemetry con Datadog, se reciben ambas: +- Métricas originales en tiempo de ejecución de OpenTelemetry +- Métricas de tiempo de ejecución de Datadog asignadas para métricas equivalentes + +Las métricas en tiempo de ejecución de OpenTelemetry tienen los siguientes prefijos basados en su fuente: + +| Fuente | Prefijo | +| --- | --- | +| [OTel Collector Datadog Exporter][100] | `otel.process.runtime.*` | +| [Datadog Agent OTLP Ingest][101] | `process.runtime.*` | + +Las siguientes tablas enumeran las métricas de tiempo de ejecución de Datadog que son compatibles a través de la asignación de OpenTelemetry. "N/A" indica que no hay métrica equivalente de OpenTelemetry disponible. + +
Las métricas en tiempo de ejecución de OpenTelemetry se asignan a Datadog por el nombre métrica. No cambies el nombre de las métricas de host por métricas de tiempo de ejecución de OpenTelemetry, ya que esto rompe la asignación.
+ +[100]: /es/opentelemetry/setup/collector_exporter/ +[101]: /es/opentelemetry/setup/otlp_ingest_in_the_agent + +{{< tabs >}} +{{% tab "Java" %}} + +| Métrica de Datadog | Descripción | Métrica de OpenTelemetry | +| --- | --- | --- | +| `jvm.heap_memory` | El total de memoria heap utilizada en Java. | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.heap_memory_committed` | El total de memoria heap comprometida en Java para ser utilizada. | `process.runtime.jvm.memory.committed`
`jvm.memory.committed` | +| `jvm.heap_memory_init` | La memoria heap inicial de Java asignada. | `process.runtime.jvm.memory.init`
`jvm.memory.init` | +| `jvm.heap_memory_max` | La memoria heap máxima disponible en Java. | `process.runtime.jvm.memory.limit`
`jvm.memory.limit` | +| `jvm.non_heap_memory` | El total de memoria no heap de Java utilizada. La memoria no heap es: `Metaspace + CompressedClassSpace + CodeCache`. | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.non_heap_memory_committed` | El total de memoria no heap comprometida en Java para ser utilizada. | `process.runtime.jvm.memory.committed`
`jvm.memory.committed` | +| `jvm.non_heap_memory_init` | La memoria no heap inicial de Java asignada. | `process.runtime.jvm.memory.init`
`jvm.memory.init` | +| `jvm.non_heap_memory_max` | La memoria no heap máxima disponible en Java. | `process.runtime.jvm.memory.limit`
`jvm.memory.limit` | +| `jvm.gc.old_gen_size` | El uso actual de memoria heap de Java del grupo de memoria Old Generation. | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.gc.eden_size` | El uso actual de memoria heap de Java del grupo de memoria Eden. | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.gc.survivor_size` | El uso actual de memoria heap de Java del grupo de memoria Survivor. | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.gc.metaspace_size` | El uso actual de memoria no heap de Java del grupo de memoria Metaspace. | `process.runtime.jvm.memory.usage`
`jvm.memory.used` | +| `jvm.thread_count` | El número de subprocesos en directo. | `process.runtime.jvm.threads.count`
`jvm.thread.count` | +| `jvm.loaded_classes` | Número de clases cargadas actualmente. | `process.runtime.jvm.classes.current_loaded`
`jvm.class.count` | +| `jvm.cpu_load.system` | Uso reciente de la CPU para todo el sistema. | `process.runtime.jvm.system.cpu.utilization`
`jvm.system.cpu.utilization` | +| `jvm.cpu_load.process` | Uso reciente de la CPU en proceso. | `process.runtime.jvm.cpu.utilization`
`jvm.cpu.recent_utilization` | +| `jvm.buffer_pool.direct.used` | Medida de la memoria utilizada por buffers. | `process.runtime.jvm.buffer.usage`
`jvm.buffer.memory.usage` | +| `jvm.buffer_pool.direct.count` | Número de buffers directos en el grupo. | `process.runtime.jvm.buffer.count`
`jvm.buffer.count` | +| `jvm.buffer_pool.direct.limit` | Medida de la capacidad total de memoria de buffers directos. | `process.runtime.jvm.buffer.limit`
`jvm.buffer.memory.limit` | +| `jvm.buffer_pool.mapped.used` | Medida de la memoria utilizada por los buffers asignados. | `process.runtime.jvm.buffer.usage`
`jvm.buffer.memory.usage` | +| `jvm.buffer_pool.mapped.count` | Número de buffers asignados en el grupo. | `process.runtime.jvm.buffer.count`
`jvm.buffer.count` | +| `jvm.buffer_pool.mapped.limit` | Medida de la capacidad total de memoria de buffers asignados. | `process.runtime.jvm.buffer.limit`
`jvm.buffer.memory.limit` | +| `jvm.gc.parnew.time` | El tiempo acumulado aproximado de recopilación de elementos no usados transcurrido. | N/A | +| `jvm.gc.cms.count` | El número total de recopilaciones de elementos no usados que se han producido. | N/A | +| `jvm.gc.major_collection_count` | El índice de las principales recopilaciones de elementos no usados. Configura `new_gc_metrics: true` para recibir esta métrica. | N/A | +| `jvm.gc.minor_collection_count` | La tasa de recopilaciones secundarias de elementos no usados. Establece `new_gc_metrics: true` para recibir esta métrica. | N/A | +| `jvm.gc.major_collection_time` | La fracción de tiempo empleado en la recopilación principal de elementos no usados. Configura `new_gc_metrics: true` para recibir esta métrica. | N/A | +| `jvm.gc.minor_collection_time` | La fracción de tiempo empleado en la recopilación secundaria de elementos no usados. Configura `new_gc_metrics: true` para recibir esta métrica. | N/A | +| `jvm.os.open_file_descriptors` | El número de descriptores de archivo abiertos. | N/A | + +{{% /tab %}} + +{{% tab "Go" %}} + +| Métrica de Datadog | Descripción | Métrica de OpenTelemetry | +| --- | --- | --- | +| `runtime.go.num_goroutine` | Número de goroutines generadas. | `process.runtime.go.goroutines` | +| `runtime.go.num_cgo_call` | Número de llamadas CGO realizadas. |`process.runtime.go.cgo.calls` | +| `runtime.go.mem_stats.lookups` | Número de búsquedas de punteros realizadas por el tiempo de ejecución. | `process.runtime.go.mem.lookups` | +| `runtime.go.mem_stats.heap_alloc` | Bytes de objetos heap asignados. | `process.runtime.go.mem.heap_alloc` | +| `runtime.go.mem_stats.heap_sys` | Bytes de memoria heap obtenidos del sistema operativo. | `process.runtime.go.mem.heap_sys` | +| `runtime.go.mem_stats.heap_idle` | Bytes en tramos (spans) en reposo (no utilizados). | `process.runtime.go.mem.heap_idle` | +| `runtime.go.mem_stats.heap_inuse` | Bytes de tramos en uso. | `process.runtime.go.mem.heap_inuse` | +| `runtime.go.mem_stats.heap_released` | Bytes de memoria física devueltos al sistema operativo. | `process.runtime.go.mem.heap_released` | +| `runtime.go.mem_stats.heap_objects` | Número de objetos heap asignados. | `process.runtime.go.mem.heap_objects` | +| `runtime.go.mem_stats.pause_total_ns` | Nanosegundos acumulados en la recopilación de elementos no usados (GC). | `process.runtime.go.gc.pause_total_ns` | +| `runtime.go.mem_stats.num_gc` | Número de ciclos de GC completados. | `process.runtime.go.gc.count` | +| `runtime.go.num_cpu` | Número de CPUs detectadas por el tiempo de ejecución. | N/A | +| `runtime.go.mem_stats.alloc` | Bytes de objetos heap asignados. | N/A | +| `runtime.go.mem_stats.total_alloc` | Bytes acumulados asignados a objetos heap. | N/A | +| `runtime.go.mem_stats.sys` | Total de bytes de memoria obtenidos del sistema operativo. | N/A | +| `runtime.go.mem_stats.mallocs` | Recuento acumulativo de objetos heap asignados. | N/A | +| `runtime.go.mem_stats.frees` | Recuento acumulativo de objetos heap liberados. | N/A | +| `runtime.go.mem_stats.stack_inuse` | Bytes en tramos de stack. | N/A | +| `runtime.go.mem_stats.stack_sys` | Bytes de memoria de stack obtenidos del sistema operativo. | N/A | +| `runtime.go.mem_stats.m_span_inuse` | Bytes de las estructuras mspan asignadas. | N/A | +| `runtime.go.mem_stats.m_span_sys` | Bytes de memoria obtenidos del sistema operativo para las estructuras mspan. | N/A | +| `runtime.go.mem_stats.m_cache_inuse` | Bytes de estructuras mcache asignadas. | N/A | +| `runtime.go.mem_stats.m_cache_sys` | Bytes de memoria obtenidos del sistema operativo para las estructuras mcache. | N/A | +| `runtime.go.mem_stats.buck_hash_sys` | Bytes de memoria en tablas hash de buckets de perfiles. | N/A | +| `runtime.go.mem_stats.gc_sys` | Bytes de memoria en metadatos de recopilación de elementos no usados. | N/A | +| `runtime.go.mem_stats.other_sys` | Bytes de memoria en miscelánea fuera de heap. | N/A | +| `runtime.go.mem_stats.next_gc` | Tamaño de heap objetivo del siguiente ciclo de GC. | N/A | +| `runtime.go.mem_stats.last_gc` | Última recopilación de elementos no usados finalizada, en nanosegundos desde la epoch de UNIX. | N/A | +| `runtime.go.mem_stats.num_forced_gc` | Número de ciclos de GC forzados por la aplicación que llama a la función de GC. | N/A | +| `runtime.go.mem_stats.gc_cpu_fraction` | Fracción del tiempo de CPU disponible de este programa utilizado por la GC desde que se inició el programa. | N/A | +| `runtime.go.gc_stats.pause_quantiles.min` | Distribución de los tiempos de pausa de la GC: valores mínimos. | N/A | +| `runtime.go.gc_stats.pause_quantiles.25p` | Distribución de los tiempos de pausa de la GC: percentil 25. | N/A | +| `runtime.go.gc_stats.pause_quantiles.50p` | Distribución de los tiempos de pausa de la GC: percentil 50. | N/A | +| `runtime.go.gc_stats.pause_quantiles.75p` | Distribución de los tiempos de pausa de la GC: percentil 75. | N/A | +| `runtime.go.gc_stats.pause_quantiles.max` | Distribución de los tiempos de pausa de la GC: valores máximos. | N/A | + +{{% /tab %}} + +{{% tab ".NET" %}} + +| Métrica de Datadog | Descripción | Métrica de OpenTelemetry | +| --- | --- | --- | +| `runtime.dotnet.threads.contention_count` | El número de veces que un subproceso se detuvo para esperar un bloqueo. | `process.runtime.dotnet.`
`monitor.lock_contention.count` | +| `runtime.dotnet.exceptions.count` | El número de excepciones por primera vez. | `process.runtime.dotnet.`
`exceptions.count` | +| `runtime.dotnet.gc.size.gen0` | El tamaño del heap de generación 0. | `process.runtime.dotnet.`
`gc.heap.size` | +| `runtime.dotnet.gc.size.gen1` | El tamaño del heap de generación 1. | `process.runtime.dotnet.`
`gc.heap.size` | +| `runtime.dotnet.gc.size.gen2` | El tamaño del heap de generación 2. | `process.runtime.dotnet.`
`gc.heap.size` | +| `runtime.dotnet.gc.size.loh` | El tamaño del heap de grandes objetos. | `process.runtime.dotnet.`
`gc.heap.size` | +| `runtime.dotnet.gc.count.gen0` | El número de recopilaciones de elementos no usados de generación 0. | `process.runtime.dotnet.`
`gc.collections.count` | +| `runtime.dotnet.gc.count.gen1` | El número de recopilaciones de elementos no usados de generación 1. | `process.runtime.dotnet.`
`gc.collections.count` | +| `runtime.dotnet.gc.count.gen2` | El número de recopilaciones de elementos no usados de generación 2. | `process.runtime.dotnet.`
`gc.collections.count` | +| `runtime.dotnet.cpu.system` | El número de milisegundos de ejecución en el kernel. | N/A | +| `runtime.dotnet.cpu.user` | El número de milisegundos de ejecución fuera del kernel. | N/A | +| `runtime.dotnet.cpu.percent` | El porcentaje de CPU total utilizado por la aplicación. | N/A | +| `runtime.dotnet.mem.committed` | Uso de memoria. | N/A | +| `runtime.dotnet.threads.count` | El número de subprocesos. | N/A | +| `runtime.dotnet.threads.workers_count` | El número de trabajadores en el grupo de subprocesos. (Solo.NET Core) | N/A | +| `runtime.dotnet.threads.contention_time` | El tiempo acumulado que pasan los subprocesos esperando un bloqueo. (Solo .NET Core) | N/A | +| `runtime.dotnet.gc.memory_load` | El porcentaje de la memoria total utilizada por el proceso. La recopilación de elementos no usados (GC) cambia su comportamiento cuando este valor supera el 85. (Solo .NET Core) | N/A | +| `runtime.dotnet.gc.pause_time` | La cantidad de tiempo que la GC pausó los subprocesos de la aplicación. (Solo .NET Core) | N/A | +| `runtime.dotnet.aspnetcore.`
`requests.total` | El número total de solicitudes HTTP recibidas por el servidor. (Solo .NET Core) | N/A | +| `runtime.dotnet.aspnetcore.`
`requests.failed` | El número de solicitudes HTTP fallidas recibidas por el servidor. (Solo .NET Core) | N/A | +| `runtime.dotnet.aspnetcore.`
`requests.current` | El número total de solicitudes HTTP que se han iniciado, pero aún no se han detenido. (Solo .NET Core) | N/A | +| `runtime.dotnet.aspnetcore.`
`requests.queue_length` | La longitud actual de la cola de solicitudes HTTP del servidor. (Solo .NET Core) | N/A | +| `runtime.dotnet.aspnetcore.`
`connections.total` | El número total de conexiones HTTP establecidas con el servidor. (Solo .NET Core) | N/A | +| `runtime.dotnet.aspnetcore.`
`connections.current` | El número actual de conexiones HTTP activas al servidor. (Solo .NET Core) | N/A | +| `runtime.dotnet.aspnetcore.`
`connections.queue_length` | La longitud actual de la cola de conexión del servidor HTTP. (Solo .NET Core) | N/A | + +{{% /tab %}} + +{{< /tabs >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/opentelemetry/mapping/metrics_mapping/ +[2]: /es/opentelemetry/setup/ +[3]: https://app.datadoghq.com/integrations [5]: /es/tracing/metrics/runtime_metrics/ [7]: https://app.datadoghq.com/dash/integration/256/jvm-metrics \ No newline at end of file diff --git a/content/es/real_user_monitoring/browser/advanced_configuration.md b/content/es/real_user_monitoring/browser/advanced_configuration.md index d1b8ff8bbce63..0ea3601184a2e 100644 --- a/content/es/real_user_monitoring/browser/advanced_configuration.md +++ b/content/es/real_user_monitoring/browser/advanced_configuration.md @@ -35,7 +35,7 @@ Existen varias formas de modificar los [datos y el contexto recopilados][1] por ## Sustituir los nombres de las vistas de RUM por defecto -El SDK del RUM Browser genera automáticamente un [evento de vista][2] para cada nueva página visitada por tus usuarios o cuando se cambia la URL de la página (para aplicaciones de página única). El nombre de la vista se calcula a partir de la URL de la página actual, donde los ID alfanuméricos variables se eliminan automáticamente. Por ejemplo, `/dashboard/1234` se convierte en `/dashboard/?`. +El SDK del RUM Browser genera automáticamente un [evento de vista][2] para cada nueva página visitada por tus usuarios o cuando se cambia la URL de la página (para aplicaciones de página única). El nombre de la vista se calcula a partir de la URL de la página actual, donde los ID alfanuméricos variables se eliminan automáticamente. Un segmento de ruta que contenga al menos un número se considera un ID de variable. Por ejemplo, `/dashboard/1234` y `/dashboard/9a` se convierten en `/dashboard/?`. A partir de la [versión 2.17.0][3], puedes añadir nombres de vistas y asignarlos a un servicio dedicado propiedad de un equipo mediante el rastreo manual de eventos de vistas con la opción `trackViewsManually`: @@ -360,7 +360,7 @@ import { datadogRum } from '@datadog/browser-rum'; datadogRum.setViewName(''); -// Ejemplo de código +// Code example datadogRum.setViewName('Checkout'); ``` {{% /tab %}} @@ -370,7 +370,7 @@ window.DD_RUM.onReady(function() { window.DD_RUM.setViewName(''); }) -// Ejemplo de código +// Code example window.DD_RUM.onReady(function() { window.DD_RUM.setViewName('Checkout'); }) @@ -380,7 +380,7 @@ window.DD_RUM.onReady(function() { ```javascript window.DD_RUM && window.DD_RUM.setViewName(''); -// Ejemplo de código +// Code example window.DD_RUM && window.DD_RUM.setViewName('Checkout'); ``` {{% /tab%}} @@ -477,10 +477,7 @@ window.DD_RUM && Si un usuario pertenece a varios equipos, añade pares clave-valor adicionales en tus llamadas a la API de Global Context. -El SDK del RUM Browser ignora: - -- Atributos añadidos fuera de `event.context` -- Modificaciones realizadas en un contexto de evento de vista de RUM +El SDK del RUM Browser ignora los atributos añadidos fuera de `eventos.context`. ### Enriquecer eventos de RUM con indicadores de funciones @@ -531,27 +528,41 @@ window.DD_RUM && ... }); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} Puedes actualizar las siguientes propiedades de eventos: -| Atributo | Tipo | Descripción | -|-----------------------|-----------|-----------------------------------------------------------------------------------------------------| -| `view.url` | Cadena | La URL de la página web activa. | -| `view.referrer` | Cadena | La URL de la página web anterior desde la que se siguió un vínculo a la página solicitada actualmente. | -| `view.name` | Cadena | El nombre de la vista actual. | -| `service` | Cadena | El nombre de servicio para tu aplicación. | -| `version` | Cadena | La versión de la aplicación, por ejemplo: 1.2.3, 6c44da20 y 2020.02.13. | -| `action.target.name` | Cadena | El elemento con el que ha interactuado el usuario. Solo para acciones recopiladas automáticamente. | -| `error.message` | Cadena | Un mensaje conciso, legible, de una línea, en el cual se explica el error. | -| `error.stack ` | Cadena | La traza (trace) de stack tecnológico o la información adicional sobre el error. | -| `error.resource.url` | Cadena | La URL del recurso que provocó el error. | -| `resource.url` | Cadena | La URL del recurso. | -| `context` | Objeto | Atributos añadidos con la [Global Context API](#global-context), la [View Context API](#view-context) o al generar eventos manualmente (por ejemplo, `addError` y **`addAction`**). | +| Atributo | Tipo | Descripción | +| ------------------------------ | ------ | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | +| `view.url` | Cadena | La URL de la página web activa. | +| `view.referrer` | Cadena | La URL de la página web anterior desde la que se siguió un vínculo a la página solicitada actualmente. | +| `view.name` | Cadena | El nombre de la vista actual. | +| `view.performance.lcp.resource_url` | Cadena | La URL de recursos para Largest Contentful Paint. | +| `service` | Cadena | El nombre de servicio para tu aplicación. | +| `version` | Cadena | La versión de la aplicación. Por ejemplo: 1.2.3, 6c44da20 o 2020.02.13. | +| `action.target.name` | Cadena | El elemento con el que ha interactuado el usuario. Solo para acciones recopiladas automáticamente. | +| `error.message` | Cadena | Un mensaje conciso, legible, de una línea, en el cual se explica el error. | +| `error.stack ` | Cadena | La traza (trace) de stack tecnológico o la información adicional sobre el error. | +| `error.resource.url` | Cadena | La URL del recurso que provocó el error. | +| `resource.url` | Cadena | La URL del recurso. | +| `long_task.scripts.source_url` | Cadena | La url del recurso de script | +| `long_task.scripts.invoker` | Cadena | Un nombre significativo que indique cómo se ha llamado al script | +| `context` | Objeto | Atributos añadidos con la [Global Context API](#global-context), la [View Context API](#view-context) o al generar eventos manualmente (por ejemplo, `addError` y **`addAction`**). | El SDK del RUM Browser ignora las modificaciones realizadas en las propiedades de eventos no enumeradas anteriormente. Para obtener más información sobre las propiedades de eventos, consulta el [repositorio GitHub del SDK del RUM Browser][15]. +**Nota**: A diferencia de otros eventos, los eventos de vista se envían varias veces a Datadog para reflejar las actualizaciones que se producen durante su ciclo de vida. Una actualización de un evento de vista anterior puede seguir enviándose mientras una nueva vista está activa. Datadog recomienda tener en cuenta este comportamiento al modificar el contenido de un evento de vista. + +```javascript +beforeSend: (event) => { + // discouraged, as the current view name could be applied to both the active view and the previous views + event.view.name = getCurrentViewName() + + // recommended + event.view.name = getViewNameForUrl(event.view.url) +} +``` ### Descartar un evento de RUM Con la API `beforeSend`, descarta un evento de RUM devolviendo `false`: @@ -604,28 +615,46 @@ window.DD_RUM && ... }); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} **Nota**: Los eventos de vistas no se pueden descartar. ## Sesión del usuario -Añadir información del usuario a tus sesiones de RUM puede ayudar a: +Añadir información del usuario a tus sesiones de RUM te ayuda a: + * Seguir el recorrido de un usuario concreto * Conocer qué usuarios se han visto más afectados por los errores * Monitorizar el rendimiento de tus usuarios más importantes {{< img src="real_user_monitoring/browser/advanced_configuration/user-api.png" alt="API de usuario en la interfaz de usuario de RUM" >}} -Los siguientes atributos son opcionales, pero Datadog recomienda proporcionar al menos uno de ellos: +{{< tabs >}} +{{% tab "6.4.0 and above" %}} + +Están disponibles los siguientes atributos: + +| Atributo | Tipo | Obligatorio | Descripción | +|------------|------|------|----------------------------------------------------------------------------------------------------| +| `usr.id` | Cadena | Sí | Identificador único de usuario. | +| `usr.name` | Cadena | No | Nombre descriptivo, que se muestra por defecto en la interfaz de usuario de RUM. | +| `usr.email` | Cadena | No | Correo electrónico del usuario, que se muestra en la interfaz de usuario de RUM si el nombre de usuario no está presente. También se usa para obtener Gravatars. | + +{{% /tab %}} +{{% tab "Before 6.4.0" %}} + +Los siguientes atributos son opcionales, pero Datadog recomienda encarecidamente proporcionar al menos uno de ellos. Por ejemplo, debes establecer el ID de usuario en tus sesiones para ver los datos relevantes en algunos dashboards predeterminados de RUM, que dependen de `usr.id` como parte de la consulta. | Atributo | Tipo | Descripción | |------------|------|----------------------------------------------------------------------------------------------------| -| `usr.id` | Cadena | Identificador de usuario único. | +| `usr.id` | Cadena | Identificador único de usuario. | | `usr.name` | Cadena | Nombre descriptivo, que se muestra por defecto en la interfaz de usuario de RUM. | | `usr.email` | Cadena | Correo electrónico del usuario, que se muestra en la interfaz de usuario de RUM si el nombre de usuario no está presente. También se usa para obtener Gravatars. | +{{% /tab %}} +{{< /tabs >}} + Aumentar tus posibilidades de filtrado añadiendo atributos adicionales a los recomendados. Por ejemplo, añade información sobre el plan del usuario o a qué grupo de usuarios pertenece. Cuando se realizan cambios en el objeto de la sesión del usuario, todos los eventos de RUM recopilados tras el cambio contienen la información actualizada. @@ -672,8 +701,8 @@ window.DD_RUM && window.DD_RUM.setUser({ }) ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ### Acceder a la sesión del usuario @@ -697,8 +726,8 @@ window.DD_RUM.onReady(function() { window.DD_RUM && window.DD_RUM.getUser() ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ### Añadir/sustituir la propiedad de la sesión del usuario @@ -722,8 +751,8 @@ window.DD_RUM.onReady(function() { window.DD_RUM && window.DD_RUM.setUserProperty('name', 'John Doe') ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ### Eliminar la propiedad de la sesión del usuario @@ -746,8 +775,8 @@ window.DD_RUM.onReady(function() { ```javascript window.DD_RUM && window.DD_RUM.removeUserProperty('name') ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ### Borrar la propiedad de la sesión del usuario @@ -773,6 +802,152 @@ window.DD_RUM && window.DD_RUM.clearUser() {{% /tab %}} {{< /tabs >}} +## Cuenta + +Para agrupar a los usuarios en conjuntos diferentes, utilice el concepto de cuenta. + +Están disponibles los siguientes atributos: + +| Atributo | Tipo | Obligatorio | Descripción | +|----------------|--------|----------|------------------------------------------------------------| +| `account.id` | Cadena | Sí | Identificador único de la cuenta. | +| `account.name` | Cadena | No | Nombre descriptivo de la cuenta, mostrado por defecto en la interfaz de usuario RUM. | + +### Identificar cuenta + +`datadogRum.setAccount()` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.setAccount({ + id: '1234', + name: 'Mi nombre de empresa', + ... +}) +``` +{{% /tab %}} +{{% tab "CDN asíncrono" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setAccount({ + id: '1234', + name: 'Nombre de mi empresa', + ... + }) +}) +``` +{{% /tab %}} +{{% tab "CDN síncrono" %}} +```javascript +window.DD_RUM && window.DD_RUM.setAccount({ + id: '1234', + name: 'Nombre de mi empresa', + ... +}) +``` + +{{% /tab %}} +{{< /tabs >}} + +### Cuenta de acceso + +`datadogRum.getAccount()` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.getAccount() +``` +{{% /tab %}} +{{% tab "CDN asíncrono" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.getAccount() +}) +``` +{{% /tab %}} +{{% tab "CDN síncrono" %}} +```javascript +window.DD_RUM && window.DD_RUM.getAccount() +``` + +{{% /tab %}} +{{< /tabs >}} + +### Añadir/Anular propiedad de cuenta + +`datadogRum.setAccountProperty('', )` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.setAccountProperty('name', 'Nombre de mi empresa') +``` +{{% /tab %}} +{{% tab "CDN asíncrono" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.setAccountProperty('nombre', 'Nombre de mi empresa') +}) +``` +{{% /tab %}} +{{% tab "CDN síncrono" %}} +```javascript +window.DD_RUM && window.DD_RUM.setAccountProperty('name', 'Nombre de mi empresa') +``` + +{{% /tab %}} +{{< /tabs >}} + +### Eliminar la propiedad de la cuenta + +`datadogRum.removeAccountProperty('')` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.removeAccountProperty('nombre') +``` +{{% /tab %}} +{{% tab "CDN asíncrono" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.removeAccountProperty('nombre') +}) +``` +{{% /tab %}} +{{% tab "CDN síncrono" %}} +```javascript +window.DD_RUM && window.DD_RUM.removeAccountProperty('nombre') +``` +{{% /tab %}} +{{< /tabs >}} + +### Borrar propiedades de la cuenta + +`datadogRum.clearAccount()` + +{{< tabs >}} +{{% tab "NPM" %}} +```javascript +datadogRum.clearAccount() +``` +{{% /tab %}} +{{% tab "CDN asíncrono" %}} +```javascript +window.DD_RUM.onReady(function() { + window.DD_RUM.clearAccount() +}) +``` +{{% /tab %}} +{{% tab "CDN síncrono" %}} +```javascript +window.DD_RUM && window.DD_RUM.clearAccount() +``` +{{% /tab %}} +{{< /tabs >}} + ## Muestreo Por defecto, no se aplica ningún muestreo al número de sesiones recopiladas. Para aplicar un muestreo relativo (en porcentaje) al número de sesiones recopiladas, utiliza el parámetro `sessionSampleRate` al inicializar el RUM. @@ -814,8 +989,8 @@ window.DD_RUM && sessionSampleRate: 90, }); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} Para una sesión muestreada, no se recopilan todas las páginas de vistas ni la telemetría asociada a esa sesión. @@ -879,8 +1054,8 @@ acceptCookieBannerButton.addEventListener('click', () => { window.DD_RUM && window.DD_RUM.setTrackingConsent('granted'); }); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ## Ver contexto @@ -933,8 +1108,8 @@ window.DD_RUM && window.DD_RUM.setViewContextProperty('activity', { amount: 23.42 }); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ### Sustituir el contexto de la vista @@ -984,6 +1159,19 @@ window.DD_RUM && {{% /tab %}} {{< /tabs >}} + +## Contexto de error + +### Adjuntar contexto de error local con dd_context + +Al capturar errores, se puede proporcionar contexto adicional en el momento en que se genera un error. En lugar de pasar información adicional a través de la API `addError()`, puedes adjuntar una propiedad `dd_context` directamente a la instancia de error. El SDK del RUM Browser detecta automáticamente esta propiedad y la fusiona en el contexto final del evento de error. + +{{< code-block lang="javascript" >}} +const error = new Error('Something went wrong') +error.dd_context = { component: 'Menu', param: 123, } +throw error +{{< /code-block >}} + ## Contexto global ### Añadir la propiedad de contexto global @@ -1029,8 +1217,8 @@ window.DD_RUM && window.DD_RUM.setGlobalContextProperty('activity', { amount: 23.42 }); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ### Eliminar la propiedad de contexto global @@ -1071,8 +1259,8 @@ window.DD_RUM && window.DD_RUM.removeGlobalContextProperty('codeVersion'); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ### Sustituir el contexto global @@ -1120,8 +1308,8 @@ window.DD_RUM && }); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ### Borrar un contexto global @@ -1150,8 +1338,8 @@ window.DD_RUM.onReady(function() { window.DD_RUM && window.DD_RUM.clearGlobalContext(); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ### Leer el contexto global @@ -1180,8 +1368,8 @@ window.DD_RUM.onReady(function() { const context = window.DD_RUM && window.DD_RUM.getGlobalContext(); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} ## Ciclo de vida de los contextos @@ -1275,8 +1463,8 @@ window.DD_RUM && window.DD_RUM.init({ }, }); ``` -{{% /tab%}} -{{< /tabs>}} +{{% /tab %}} +{{< /tabs >}} Cualquier consulta realizada en el Explorador RUM puede utilizar el atributo servicio para filtrar eventos. @@ -1292,7 +1480,6 @@ Algunos eventos no pueden atribuirse a un origen, por lo que no tienen una pila {{< partial name="whats-next/whats-next.html" >}} - [1]: /es/real_user_monitoring/browser/data_collected/ [2]: /es/real_user_monitoring/browser/monitoring_page_performance/ [3]: https://github.com/DataDog/browser-sdk/blob/main/CHANGELOG.md#v2170 @@ -1304,7 +1491,7 @@ Algunos eventos no pueden atribuirse a un origen, por lo que no tienen una pila [9]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceResourceTiming [10]: https://developer.mozilla.org/en-US/docs/Web/API/Request [11]: https://developer.mozilla.org/en-US/docs/Web/API/Response -[12]: https://developer.mozilla.org/en-US/docs/Web//Reference/Global_Objects/Error +[12]: https://developer.mozilla.org/en-US/docs/Web/JavaScript/Reference/Global_Objects/Error [13]: https://developer.mozilla.org/en-US/docs/Web/API/PerformanceLongTaskTiming [14]: /es/real_user_monitoring/guide/enrich-and-control-rum-data [15]: https://github.com/DataDog/browser-sdk/blob/main/packages/rum-core/src/rumEvent.types.ts diff --git a/content/es/security/application_security/terms.md b/content/es/security/application_security/terms.md index 9924273ae9d7a..a68685d991e3e 100644 --- a/content/es/security/application_security/terms.md +++ b/content/es/security/application_security/terms.md @@ -1,15 +1,12 @@ --- disable_toc: false further_reading: -- link: /security/application_security/how-appsec-works +- link: /security/application_security/how-it-works tag: Documentación - text: Cómo funciona Application Security -- link: /security/application_security/threats/ + text: Cómo funciona App and API Protection +- link: /security/application_security tag: Documentación - text: Gestión de amenazas -- link: /security/application_security/software_composition_analysis/ - tag: Documentación - text: Análisis de la composición del software + text: App and API Protection - link: https://www.datadoghq.com/blog/datadog-threat-intelligence/ tag: Blog text: Acelerar las investigaciones de seguridad con la información sobre amenazas @@ -17,61 +14,55 @@ further_reading: title: Términos y conceptos --- -Datadog Application Security monitoriza las amenazas y ofrece protección contra los ataques a nivel de aplicación que pretenden explotar vulnerabilidades a nivel de código. Aprovecha el contexto de ejecución del código en tiempo de ejecución, los datos de trazas y de errores, así como la atribución al usuario. +Datadog App and API Protection supervisa las amenazas y ofrece protección contra los ataques a nivel de aplicación que pretenden explotar las vulnerabilidades a nivel de código. Aprovecha el contexto de ejecución del código en tiempo de ejecución, traza y los datos de errores, así como la atribución al usuario. -## Términos generales de seguridad de las aplicaciones +## Condiciones generales de App and API Protection Intento de ataque -: Qué regla de seguridad ha sido activada por la traza (trace). +: Qué regla de seguridad ha sido activada por la traza. -Biblioteca Datadog -: También biblioteca de rastreo -: Lenguaje de programación específico de la biblioteca incorporado en aplicaciones web. Datadog Application Security utiliza la biblioteca para la monitorización y la protección. APM utiliza la misma biblioteca para la instrumentación del código para el rastreo de telemetría. +Biblioteca de Datadog +: _también_ rastreador, biblioteca de rastreo +: una biblioteca específica del lenguaje de programación incrustada en aplicaciones web. Datadog App and API Protection utiliza la biblioteca para monitorizar y proteger. APM utiliza la misma biblioteca para instrumentar código para rastrear telemetría. Regla de detección -: Definición de lógica condicional que se aplica a los datos ingeridos y a las configuraciones de la nube. Cuando al menos un caso definido en una regla coincide durante un periodo de tiempo determinado, Datadog genera una señal de seguridad. +: Definición de lógica condicional que se aplica a los datos ingeridos y a las configuraciones de la nube. Cuando coincide al menos un caso definido en una regla durante un periodo de tiempo determinado, Datadog genera una _señal de seguridad_. : Consulta [Reglas de detección][10]. Lista de permisos (antiguo filtro de exclusión) -: Mecanismo para descartar trazas de seguridad marcadas por la biblioteca Datadog Application Security y las reglas WAF en la aplicación. Passlist se aplica a medida que las solicitudes se ingieren en Datadog (admisión). La lista de permisos ayuda a gestionar los falsos positivos y los costes de admisión. +: Mecanismo para descartar las trazas de seguridad marcadas por la biblioteca de Datadog App and API Protection y las reglas WAF en la aplicación. La lista de permisos se aplica a medida que las solicitudes se ingieren en Datadog (admisión), y ayuda a gestionar los falsos positivos y los costes de admisión. : Consulta [Filtros de exclusión][11] en la aplicación. Reglas WAF en la aplicación (antiguas reglas de eventos) -: Conjunto de reglas que se ejecutan en bibliotecas Datadog para detectar actividades de seguridad. Incluyen patrones de Web Application Firewall (WAF) que monitorizan los intentos de explotar vulnerabilidades conocidas. +: Conjunto de reglas que se ejecutan en las bibliotecas de Datadog para detectar las actividades de seguridad. Incluyen patrones del firewall de aplicaciones web (WAF) que monitorizan los intentos de explotar las vulnerabilidades conocidas. : Consulta [Reglas WAF en la aplicación][12]. -Tests interactivos de seguridad de las aplicaciones (IAST) -: Método de tests de seguridad de aplicaciones que detecta proactivamente vulnerabilidades mientras la aplicación es ejecutada por un test automatizado, un testeador humano o cualquier actividad que interactúe con la funcionalidad de la aplicación. - Configuración remota -: Mecanismo de la plataforma Datadog que habilita la actualización remota de la configuración del Agent. Utilizada por Datadog Application Security para actualizar las reglas WAF en la aplicación, activar el producto y bloquear a los atacantes. +: Mecanismo de la plataforma Datadog que habilita la actualización remota de la configuración del Agent. Es utilizada por Datadog App and API Protection para actualizar las reglas WAF en la aplicación, activar el producto y bloquear a los atacantes. : Consulta [Cómo funciona la configuración remota][8]. Servicio : Una única aplicación web, microservicio, API o función. Normalmente sirve a una función empresarial. Señal -: Detección de un ataque a una aplicación que afecta a tus servicios. Las señales identifican amenazas significativas para que las revises y les des un tratamiento de alta prioridad. +: Detección de un ataque a una aplicación que afecta a los servicios. Las señales identifican amenazas significativas para que se puedan revisar y darles un tratamiento de alta prioridad. : Consulta [Explorador de señales][13] en la aplicación. -Análisis de la composición del software (SCA) -: Comparación de las bibliotecas de código abierto cargadas por tus servicios en bases de datos con vulnerabilidades conocidas. El SCA te ayuda a identificar dependencias vulnerables, bibliotecas obsoletas y problemas de licencia en bibliotecas de código abierto cargadas por tus servicios web. - Gravedad -: Indicador de la rapidez con la que se debe clasificar y abordar un intento de ataque. Se basa en una combinación de factores, incluyendo el impacto potencial y el riesgo del ataque. Los valores son Crítico, Alto, Medio, Bajo, Información. +: Indicador de la rapidez con la que se debe clasificar y abordar un intento de ataque. Se basa en una combinación de factores, incluido el impacto potencial y el riesgo del ataque. Los valores son Crítico, Alto, Medio, Bajo, Información. -Rastreo de seguridad +Traza de seguridad : Rastreo distribuido cuya actividad de seguridad ha sido marcada por reglas WAF en la aplicación. La traza subyacente se comparte con APM, lo que permite investigaciones más profundas y rápidas. Solicitud sospechosa : Rastreo distribuido cuya actividad de seguridad ha sido marcada por reglas WAF en la aplicación. La traza subyacente se comparte con APM, lo que permite investigaciones más profundas y rápidas. Asignación a usuarios -: Mecanismo que asigna las solicitudes sospechosas a usuarios conocidos en tus sistemas. -: Consulta [Seguimiento de la actividad del usuario][14]. +: Mecanismo que asigna las solicitudes sospechosas a usuarios que son conocidos en tus sistemas. +: Consulta [Rastreo de la actividad del usuario][14]. Vulnerabilidad -: Riesgo pasivo de una aplicación. De [OWASP][1]: "Una vulnerabilidad es un hueco o una debilidad en la aplicación. Puede ser un defecto de diseño o un error de implementación, que permite a un atacante causar daño a las partes interesadas de una aplicación. Las partes interesadas incluyen el propietario de la aplicación, los usuarios de la aplicación y otras entidades que dependen de la aplicación." +: Riesgo pasivo de una aplicación. De [OWASP][1]: "Una vulnerabilidad es un hueco o una debilidad en la aplicación. Puede ser un defecto de diseño o un error de implementación que permite a un atacante causar daño a las partes interesadas de una aplicación. Las partes interesadas incluyen al propietario de la aplicación, a los usuarios de la aplicación y a otras entidades que dependen de la aplicación." Calificación de trazas : Proceso mediante el cual Datadog ayuda a comprender el impacto de las trazas, etiquetándolas @@ -79,28 +70,36 @@ como `Harmful Safe or Unknown`. : Consulta [Calificación de trazas][15]. Información sobre amenazas -: Conjunto de reglas que se ejecutan en bibliotecas Datadog para detectar amenazas. Incluyen patrones de Web Application Firewall (WAF) que monitorizan los intentos de explotar vulnerabilidades conocidas. +: Conjunto de reglas que se ejecutan en las bibliotecas de Datadog para detectar las amenazas. Incluyen patrones del firewall de aplicaciones web (WAF) que monitorizan los intentos de explotar las vulnerabilidades conocidas. : Consulta [Información sobre amenazas][16]. -Atacantes sospechosos -: Precursor de las IP marcadas. Para ser clasificadas como sospechosas, las IP deben haber alcanzado un umbral mínimo de tráfico de ataque, pero no el umbral para ser marcadas. Los umbrales no son configurables por el usuario. -: Consulta [Explorador de atacantes][17] +atacantes sospechosos +: Precursor de las IP marcadas. Las IPs sospechosas han alcanzado un umbral mínimo de tráfico de ataque para ser clasificadas como sospechosas, pero no el umbral para Flagged. Los umbrales no son configurables por el usuario. +: Véase [Atacantes Explorer][17] + +atacantes marcados +: IPs que envían grandes cantidades de tráfico de ataque. Se recomienda revisar y bloquear las IP marcadas. Los umbrales no son configurables por el usuario. +: Ver [Atacantes Explorer][17] + +huella digital del atacante +: identificadores calculados a partir de las características de la solicitud para rastrear a un atacante a través de múltiples solicitudes. +: ver [Huella digital del atacante][18] -Atacantes marcados -: Las IP que envían grandes cantidades de tráfico de ataque. Se recomienda revisar y bloquear las IP marcadas. Los umbrales no son configurables por el usuario. -: Consulta [Explorador de atacantes][17] +clúster atacante +: Conjunto de atributos que identifican a un atacante en un ataque distribuido. +: Ver [Agrupación ern clústeres de atacantes][19] ## Términos de ataques y vulnerabilidades conocidas -Proyecto abierto de seguridad de las aplicaciones web (OWASP) -: Fundación sin ánimo de lucro que dispone de varios proyectos para mejorar la seguridad de las aplicaciones web. OWASP es más conocido por el [OWASP Top 10][2], un amplio consenso sobre los riesgos de seguridad más críticos para las aplicaciones web. +Open Web App and API Protection Project (OWASP) +: Una fundación sin ánimo de lucro con varios proyectos para mejorar la seguridad de las aplicaciones web. OWASP es más conocida por el [OWASP Top 10][2], un amplio consenso sobre los riesgos de seguridad más críticos para las aplicaciones web. -Secuencias de comandos en sitios cruzados (XSS) +Secuencia de comandos en sitios cruzados o Cross-Site Scripting (XSS) : Tipo de ataque de inyección en el que se inyectan scripts maliciosos en sitios web por lo demás benignos y de confianza. : Consulta [XSS en OWASP][3]. Inyección de lenguaje de consulta estructurado (SQLi, Inyección SQL) -: Tipo de ataque de inyección en el que se ejecuta una consulta SQL a través de los datos introducidos en la aplicación por el cliente. Los comandos SQL se inyectan en la entrada del plano de datos para afectar a la ejecución de comandos SQL predefinidos. Una inyección SQL exitosa puede leer datos confidenciales de la base de datos, modificar datos de la base de datos (Insertar/Actualizar/Borrar), ejecutar operaciones de administración en la base de datos (como apagar el DBMS), recuperar el contenido de un archivo dado presente en el sistema de archivos del DBMS y, en algunos casos, enviar comandos al sistema operativo. +: Tipo de ataque de inyección en el que se ejecuta una consulta SQL a través de los datos que el cliente ha introducido en la aplicación. Los comandos SQL se inyectan en la entrada del plano de datos para afectar a la ejecución de los comandos SQL predefinidos. Una correcta inyección SQL puede leer datos confidenciales de la base de datos, modificarlos (Insertar/Actualizar/Borrar), ejecutar operaciones de administración (como apagar el DBMS), recuperar el contenido de un archivo dado presente en el sistema de archivos del DBMS y, en algunos casos, enviar comandos al sistema operativo. : **Relacionado**: Cassandra Query Language Injection (CQLi), NoSQL Injection (NoSQLi) - Similar a SQLi pero para Cassandra Query Language y NoSQL. : Consulta [Inyección SQL en OWASP][4]. @@ -109,16 +108,16 @@ Falsificación de solicitudes del lado del servidor (SSRF) : Consulta [Falsificación de solicitudes del lado del servidor en OWASP][5]. Inclusión local de archivos (LFI) -: Vulnerabilidad que permite a un atacante incluir un archivo localmente presente en el servidor durante el procesamiento de la solicitud. En la mayoría de los casos, esto permite al atacante leer información confidencial almacenada en archivos del servidor. En casos más graves, la explotación puede conducir a una secuencia de comandos en sitios cruzados o una ejecución remota del código. -: Ver [Testing for LFI en OWASP][6]. +: Vulnerabilidad que permite a un atacante incluir un archivo localmente presente en el servidor durante el procesamiento de la solicitud. En la mayoría de los casos, esto permite al atacante leer información confidencial almacenada en los archivos del servidor. En los casos más graves, la explotación puede conducir a una secuencia de comandos en sitios cruzados (cross-site scripting) o a una ejecución remota del código. +: Consulta [Tests para LFI en OWASP][6]. Inclusión remota de archivos (RFI) -: Vulnerabilidad similar a la inclusión local de archivos, pero que permite a un atacante incluir un archivo remoto durante el procesamiento de la solicitud. Los archivos utilizados en los ataques de inclusión remota de archivos suelen contener código malicioso para PHP, JSP o tecnologías similares. +: Vulnerabilidad similar a la inclusión local de archivos, pero que permite a un atacante incluir un archivo remoto durante el procesamiento de la solicitud. Los archivos utilizados en los ataques de inclusión remota de archivos suelen contener un código malicioso para PHP, JSP o tecnologías similares. Ejecución remota de código (RCE) -: Vulnerabilidad que permite a un atacante ejecutar código en una máquina de forma remota. +: Vulnerabilidad que permite a un atacante ejecutar un código en una máquina de forma remota. -Object-Graph Navigation Language Injection (OGNLi) +Inyección de OGNLi (Object-Graph Navigation Language Injection) : Vulnerabilidad que permite a un atacante ejecutar su propia expresión OGNL en una aplicación Java, lo que suele conducir a la ejecución remota del código. : Consulta [OGNLi en OWASP Top 10][7]. @@ -138,9 +137,11 @@ Object-Graph Navigation Language Injection (OGNLi) [8]: /es/agent/remote_config/ [10]: /es/security/detection_rules/ [11]: https://app.datadoghq.com/security/appsec/exclusions -[12]: /es/security/application_security/threats/inapp_waf_rules +[12]: /es/security/application_security/policies/inapp_waf_rules/ [13]: https://app.datadoghq.com/security?query=%40workflow.rule.type%3A%22Application%20Security%22&product=appsec&view=signal -[14]: /es/security/application_security/threats/add-user-info/ -[15]: /es/security/application_security/threats/trace_qualification/ -[16]: /es/security/application_security/threats/threat-intelligence/ -[17]: /es/security/application_security/threats/attacker-explorer/ \ No newline at end of file +[14]: /es/security/application_security/how-it-works/add-user-info/ +[15]: /es/security/application_security/how-it-works/trace_qualification/ +[16]: /es/security/application_security/how-it-works/threat-intelligence/ +[17]: /es/security/application_security/security_signals/attacker-explorer/ +[18]: /es/security/application_security/security_signals/attacker_fingerprint/ +[19]: /es/security/application_security/security_signals/attacker_clustering/ \ No newline at end of file diff --git a/content/es/security/application_security/threats/_index.md b/content/es/security/application_security/threats/_index.md index 6078b8bb2b892..154a9133bd9a5 100644 --- a/content/es/security/application_security/threats/_index.md +++ b/content/es/security/application_security/threats/_index.md @@ -1,32 +1,56 @@ --- further_reading: -- link: /security/application_security/threats/add-user-info/ +- link: /security/application_security/how-it-works/add-user-info/ tag: Documentación text: Seguimiento de la actividad de los usuarios - link: /security/application_security/threats/library_configuration/ tag: Documentación - text: Configuración de ASM -- link: /security/application_security/software_composition_analysis/ + text: Configuración de tu AAP +- link: /security/code_security/software_composition_analysis/ tag: Documentación text: Análisis de composición de software -- link: /security/application_security/how-appsec-works/ +- link: /security/application_security/how-it-works/ tag: Documentación - text: Cómo funciona ASM -title: Gestión de las amenazas a las aplicaciones + text: Funcionamiento de la AAP +title: App and API Protection --- -La gestión de amenazas de ASM utiliza la telemetría de trazas (traces) de las aplicaciones instrumentadas por APM para identificar amenazas y ataques en los servicios en ejecución comparando el comportamiento observado con patrones de ataque conocidos, o identificando el abuso de la lógica de negocio. +{{< site-region region="gov" >}} +
App and API Protection no es compatible con el sitio Datadog seleccionado ({{< region-param key="dd_site_name" >}}).
+{{< /site-region >}} -Las señales de seguridad planteadas por la monitorización de amenazas se resumen y aparecen en las vistas que ya visitas habitualmente para monitorizar el estado y el rendimiento de los servicios. El [catálogo de servicios][1] y las páginas individuales de servicios en APM proporcionan información sobre las señales de amenazas de las aplicaciones, lo que te permite investigar vulnerabilidades, bloquear atacantes y revisar exposiciones a ataques. +Datadog App and API Protection (AAP) protege las aplicaciones web y las API frente a una amplia gama de amenazas para la seguridad, entre las que se incluyen: -{{< img src="security/application_security/threats/threats-on-svc-cat_3.png" alt="Catálogo de servicios con servicios que muestran señales de amenaza" style="width:100%;" >}} +- Intentos de uso de vulnerabilidades +- Uso indebido y fraude en la aplicación +- Abusos de API -Para obtener más información sobre cómo funciona la gestión de amenazas, consulta [Cómo funciona ASM][4]. +Integrada en la plataforma Datadog, App and API Protection aprovecha los exhaustivos datos de Datadog (logs y trazas) para proporcionar visibilidad y seguridad completas del stack tecnológico en una plataforma unificada. + +App and API Protection permite a los equipos identificar y corregir rápidamente las amenazas. Su principal diferenciador es salvar la brecha entre seguridad y DevOps, promoviendo la colaboración entre los equipos de desarrollo, seguridad y operaciones. + +## Casos de uso + +Descubre las formas en que Datadog App and API Protection ayuda en casos de uso frecuentes: + +| Quieres... | Cómo puede ayudar Datadog AAP | +| ----------- | ----------- | +| **Protección de aplicaciones web:** Impide el uso de vulnerabilidades como la inyección SQL, la falsificación de solicitudes del lado del servidor y la inclusión de archivos locales. | Activa [Exploit Prevention][9] en tus servicios. App and API Protection bloquea los intentos en tiempo real y genera señales para su posterior investigación.| +| **Abuso de aplicaciones y API:** Protege las aplicaciones contra el abuso de aplicaciones y API, como el relleno de credenciales y los ataques de apropiación de cuentas.| Aprovecha las [reglas de detección predefinidas][10] para notificaciones, como creaciones de cuentas inusuales o restablecimiento de contraseñas desde una IP, o campañas distribuidas de relleno de credenciales. Revisa las ventajas de la [protección predefinida contra la apropiación de cuentas][11].| +| **Seguridad de API:** Conoce las API de tu organización, entiende la postura y las acciones necesarias para reducir el riesgo utilizando una lista priorizada de endpoints de API.| App and API Protection:
- Realiza un inventario de todos tus endpoints de API.
- Te proporciona una visibilidad de tu tráfico de API, incluyendo el abuso de API.
- Destaca los riesgos en tus endpoints de API. Por ejemplo, endpoints vulnerables o no autenticados que procesan datos confidenciales.| + +## Señales de seguridad + +Las señales de seguridad emitidas por Threat Monitoring se resumen y se muestran en las vistas que visitas habitualmente para monitorizar la salud y el rendimiento de los servicios. El [Catálogo de software][1] y las páginas servicio individuales en APM proporcionan información sobre las señales de amenaza a las aplicaciones, lo que te permite investigar vulnerabilidades, bloquear atacantes y revisar las exposiciones a ataques. + +{{< img src="security/application_security/threats/threats-on-svc-cat_3.png" alt="Catálogo de software con servicios que muestran señales de amenaza" style="width:100%;" >}} + +Para obtener más información sobre el funcionamiento de App and API Protection, consulta [Funcionamiento de AAP][4]. ## Exploración de las señales de amenaza -Cuando los datos de amenazas de los servicios llegan a Datadog, la [información general de ASM][7] muestra un resumen de lo que está ocurriendo. Aquí, puedes habilitar la detección de vulnerabilidades, revisar los ataques, personalizar las alertas y los informes, y habilitar ASM en los servicios. Para investigar señales de actividad sospechosa, haz clic en el enlace **Review** (Revisar) del servicio. +Cuando los datos de amenazas a tus servicios entran en Datadog, la [información general de AAP][7] muestra un resumen de lo que está ocurriendo. Aquí, puedes activar la detección de vulnerabilidades, revisar los ataques, personalizar las alertas y los informes, y activar AAP en tus servicios. Para investigar señales de actividad sospechosa, haz clic en el enlace **Review** (Revisar) del servicio. En el [explorador de señales][2], filtra por atributos y facetas para encontrar amenazas críticas. Haz clic en una señal para ver sus detalles, incluida la información del usuario y su dirección IP, qué regla activó, el flujo del ataque, las trazas (traces) relacionadas y otras señales de seguridad. Desde esta página también puedes hacer clic para crear un caso y declarar un incidente. Para obtener más información, consulta [Investigación de las señales de seguridad][8]. @@ -35,20 +59,28 @@ En el [explorador de señales][2], filtra por atributos y facetas para encontrar ## Creación de reglas de WAF en la aplicación para identificar patrones de ataque -Puedes [crear reglas de WAF en la aplicación][5] que definan qué aspecto tiene el comportamiento sospechoso en la aplicación, aumentando las reglas predeterminadas que vienen con ASM. A continuación, [especifica reglas personalizadas][6] para generar señales de seguridad a partir de los intentos de ataque desencadenados desde estas reglas, planteándolas en las vistas de la monitorización de amenazas para su investigación. +Puedes [crear reglas WAF en la aplicación][5] que definan el comportamiento sospechoso en tu aplicación, aumentando las reglas por defecto que vienen con AAP. A continuación, [especifica reglas personalizadas][6] para generar señales de seguridad a partir de los intentos de ataque activador por estas reglas, mostrándolas en las vistas de Threat Monitor para su investigación. -## Frena los ataques y a los atacantes con ASM Protect +## Frenar los ataques y a los atacantes con AAP Protect {{% asm-protect %}} +## Desactivar la gestión y la protección de amenazas + +Para obtener información sobre la desactivación de la gestión y la protección de amenazas, consulta [Desactivación de la gestión y la protección de amenazas][12]. + ## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} [1]: https://app.datadoghq.com/services?lens=Security [2]: https://app.datadoghq.com/security?query=%40workflow.rule.type%3A%22Application%20Security%22&column=time&order=desc&product=appsec&viz=stream&start=1694726477747&end=1695331277747&paused=false -[4]: /es/security/application_security/how-appsec-works/ +[4]: /es/security/application_security/how-it-works/ [5]: /es/security/application_security/threats/inapp_waf_rules/ -[6]: /es/security/application_security/threats/custom_rules/ +[6]: /es/security/application_security/policies/custom_rules/ [7]: https://app.datadoghq.com/security/appsec? -[8]: /es/security/application_security/threats/security_signals/ \ No newline at end of file +[8]: /es/security/workload_protection/security_signals/ +[9]: /es/security/application_security/exploit-prevention/ +[10]: /es/security/default_rules/?category=cat-application-security +[11]: /es/security/account_takeover_protection/ +[12]: /es/security/application_security/troubleshooting/#disabling-threat-management-and-protection \ No newline at end of file diff --git a/content/es/security/code_security/_index.md b/content/es/security/code_security/_index.md index 5e73e248a75a7..5a72c1168fb2f 100644 --- a/content/es/security/code_security/_index.md +++ b/content/es/security/code_security/_index.md @@ -2,14 +2,21 @@ aliases: - /es/code_analysis/ disable_toc: false -title: Seguridad del código +further_reading: +- link: https://www.datadoghq.com/blog/monitor (noun)-mcp-servidores/ + tag: Blog + text: Identificar los riesgos de seguridad más comunes en los servidores MCP +title: Code Security --- -Code Security escanea tu código de origen y bibliotecas de código abierto utilizadas en tus aplicaciones, tanto en tus repositorios como servicios en ejecución, proporcionando visibilidad de extremo a extremo desde el desarrollo hasta la producción. Abarca las siguientes capacidades: +Code Security analiza tu código de origen y bibliotecas de código abierto utilizadas en tus aplicaciones, tanto en tus repositorios como servicios en ejecución, proporcionando visibilidad de extremo a extremo desde el desarrollo hasta la producción. Abarca las siguientes capacidades: - [Static Code Analysis (SAST)][1] para identificar problemas de seguridad y calidad en el código de origen. - [Software Composition Analysis (SCA)][2] para identificar dependencias de código abierto tanto en tus repositorios como en tus servicios -- [Runtime Code Analysis (IAST)][3] para detectar vulnerabilidades a nivel de código en tus servicios +- [Runtime Code Analysis (IAST)][3] para identificar vulnerabilidades en el código de origen dentro de tus servicios +- [Secret Scanning][8] para identificar y validar secretos filtrados (en vista previa) +- [Infrastructure as Code (IaC) Security][10] para identificar configuraciones de seguridad incorrectas en los archivos Terraform almacenados en tus repositorios +- [Supply Chain Security](#supply-chain-security) para evitar que paquetes maliciosos entren en tu entorno de desarrollo y repositorios de código Code Security ayuda a los equipos a implementar DevSecOps en toda la organización: - **Desarrolladores:** detección temprana de vulnerabilidades, mejoras en la calidad del código, desarrollo más rápido, ya que los desarrolladores pasan menos tiempo depurando y parcheando. @@ -43,10 +50,27 @@ Runtime Code Analysis (IAST) identifica vulnerabilidades a nivel de código en t Puedes activar IAST en tus servicios instrumentados con Datadog APM. Consulta [Configuración de IAST][3] para empezar. +## Secret Scanning +Secret Scanning identifica y valida los secretos filtrados en tu código base. [Solicita acceso a la vista previa][9]. + +## Supply Chain Security +Los desarrolladores están siendo blanco activo de ataques a la cadena de suministro. Evita que entren paquetes maliciosos en tus entornos de desarrollo con Datadog Supply Chain Security Firewall, disponible en GitHub. +{{< callout url="https://docs.google.com/forms/d/1Xqh5h1n3-jC7au2t30fdTq732dkTJqt_cb7C7T-AkPc" >}} + Para inscribirte como socio de diseño, haz clic en Solicitar acceso. +{{< /callout >}} + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + [1]: /es/security/code_security/static_analysis/ [2]: /es/security/code_security/software_composition_analysis/ [3]: /es/security/code_security/iast/ [4]: /es/security/code_security/software_composition_analysis/setup_static/ [5]: /es/security/code_security/software_composition_analysis/setup_runtime/ [6]: /es/security/code_security/static_analysis/setup/ -[7]: /es/security/code_security/iast/setup/ \ No newline at end of file +[7]: /es/security/code_security/iast/setup/ +[8]: /es/security/code_security/secret_scanning/ +[9]: https://www.datadoghq.com/product-preview/secret-scanning/ +[10]: /es/security/code_security/iac_security \ No newline at end of file diff --git a/content/es/security/detection_rules/_index.md b/content/es/security/detection_rules/_index.md index 09f4af277b7aa..8e5fa216e48c4 100644 --- a/content/es/security/detection_rules/_index.md +++ b/content/es/security/detection_rules/_index.md @@ -23,44 +23,44 @@ products: name: Cloud SIEM url: /security/cloud_siem/ - icon: cloud-security-management - name: Cloud Security Management + name: Cloud Security url: /security/cloud_security_management/ - icon: app-sec - name: Application Security Management + name: App and API Protection url: /security/application_security/ title: Reglas de detección --- {{< product-availability >}} -Las reglas de detección definen una lógica condicional que se aplica a todas las configuraciones de logs y de la nube. Cuando al menos un caso definido en una regla coincide durante un periodo determinado, se genera una señal de seguridad. Puedes ver estas señales en el [Signals Explorer][1]. +Las reglas de detección definen una lógica condicional que se aplica a todas las configuraciones de logs y de la nube. Cuando al menos un caso definido en una regla coincide durante un periodo determinado, se genera una señal de seguridad. Puedes ver estas señales en el [Explorador de señales][1]. ## Reglas de detección predefinidas -Datadog ofrece [reglas de detección predefinidas][2] para detectar técnicas de ataque y posibles errores de configuración. Cuando se publican nuevas reglas de detección, se importan automáticamente a tu cuenta, a tu biblioteca de Application Security Management y al Agent, según tu configuración. +Datadog ofrece [reglas de detección predefinidas][2] para detectar técnicas de ataque y posibles errores de configuración. Cuando se publican nuevas reglas de detección, se importan automáticamente a tu cuenta, a tu biblioteca de App and API Protection y al Agent, según tu configuración. Las reglas predefinidas están disponibles para los siguientes productos de seguridad: - [Cloud SIEM][3] utiliza la detección de logs para analizar logs ingeridos en tiempo real. -- Cloud Security Management (CSM): - - [CSM Misconfigurations][4] utiliza reglas de detección de configuración en la nube y configuración de infraestructura para escanear el estado de tu entorno en la nube. - - [CSM Threats][5] utiliza las reglas de Datadog Agent y de detección para Monitor y evaluar activamente la actividad del sistema. - - [CSM Identity Risks][6] utiliza reglas de detección para detectar riesgos basados en IAM en tu infraestructura en la nube. -- [Application Security Management][7] (ASM) aprovecha Datadog [APM][8], el [Datadog Agent ][9] y las reglas de detección para detectar amenazas en tu entorno de aplicación. +- Cloud Security: + - [Cloud Security Misconfigurations][4] utiliza reglas de detección de configuración en la nube y configuración de infraestructura para analizar el estado de tu entorno en la nube. + - [Workload Protection][5] utiliza las reglas del Agent y de detección para monitorizar activamente y evaluar la actividad del sistema. + - [Cloud Security Identity Risks][6] utiliza reglas de detección para detectar riesgos basados en IAM en tu infraestructura de nube. +- [App and API Protection][7] (AAP) aprovecha Datadog [APM][8], el [Datadog Agent][9] y las reglas de detección para detectar amenazas en el entorno de tu aplicación. -## Normas de detección beta +## Reglas de detección beta El equipo de investigación de seguridad de Datadog añade continuamente nuevas reglas de detección de seguridad predefinidas. Aunque el objetivo es ofrecer detecciones de alta calidad con el lanzamiento de integraciones u otras nuevas funciones, a menudo es necesario observar el rendimiento de la detección a escala antes de poner la regla a disposición general. De este modo, el equipo de investigación de seguridad de Datadog dispone del tiempo necesario para perfeccionar o eliminar las posibilidades de detección que no cumplan nuestras normas. ## Reglas de detección personalizadas -Puede haber situaciones en las que debes personalizar una regla según tu entorno o carga de trabajo. Por ejemplo, si usas ASM, es posible que desees personalizar una regla de detección que detecte a los usuarios que realizan acciones confidenciales desde una geolocalización en la que no opera tu empresa. +Puede haber situaciones en las que necesites personalizar una regla según tu entorno o carga de trabajo. Por ejemplo, si utilizas AAP, es posible que quieras personalizar una regla de detección que detecte a los usuarios que realizan acciones confidenciales desde una geolocalización en la que no opera tu empresa. Para [crear reglas personalizadas](#create-detection-rules), puedes clonar las reglas por defecto y editar las copias, o crear tus propias reglas desde cero. ## Buscar y filtrar reglas de detección -Para ver las reglas de detección predefinidas y personalizadas en Datadog, ve a la página [**Security Settings**][10] (Configuración de seguridad). Las reglas aparecen en páginas separadas para cada producto (Application Security, Cloud Security Management y Cloud SIEM). +Para ver las reglas de detección predefinidas y personalizadas en Datadog, ve a la página [**Parámetros de seguridad**][10]. Las reglas aparecen en páginas separadas para cada producto (Application Security, Cloud Security Management y Cloud SIEM). Para buscar y filtrar las reglas, utiliza el cuadro de búsqueda y las facetas para consultar por valor. Por ejemplo, para mostrar solo las reglas de un tipo de regla determinado, pasa el ratón por encima del tipo de regla y selecciona `only`. También puedes filtrar por facetas como `source` y `severity` al investigar y clasificar las incidencias entrantes. @@ -73,9 +73,9 @@ Para crear una regla de detección personalizada, haz clic en el botón **New Ru Para obtener instrucciones detalladas, consulta los siguientes artículos: - [Cloud SIEM][11] -- [ASM][12] -- [CSM Misconfigurations][13] -- [CSM Threats][14] +- [AAP][12] +- [Cloud Security Misconfigurations][13] +- [Workload Protection][14] ## Gestionar las reglas de detección @@ -109,13 +109,36 @@ Para eliminar una regla personalizada, haz clic en el menú vertical de tres pun **Nota**: Solo puedes eliminar reglas personalizadas. Para eliminar una regla predeterminada, debes [desactivarla](#enable-or-disable-rules). +### Consultar el historial de versiones de una regla + +{{< img src="/security/security_monitoring/detection_rules/rule_version_history_20250207.png" alt="Historial de versiones del compromiso de un token de acceso GitHub OAuth" style="width:80%;" >}} + +Utiliza el historial de versiones de reglas para: +- Ver las versiones anteriores de una regla de detección y comprender los cambios a lo largo del tiempo. +- Ver quién realizó los cambios para mejorar la colaboración. +- Comparar versiones con diferencias para analizar las modificaciones y el impacto de los cambios. + +Para ver el historial de versiones de una regla: +1. Ve a la página [Parámetros de seguridad][15]. En el panel de navegación izquierdo: + - Para AAP: Haz clic en **App and API Protection** y luego en **Detection Rules** (Reglas de detección). + - Para Cloud Security: Haz clic en **Cloud Security** y luego en **Threat Detection Rules** (Reglas de detección de amenazas). + - Para Cloud SIEM: Haz clic en **Cloud SIEM** y luego en **Detection Rules** (Reglas de detección). +1. Haz clic en la regla que te interese. +1. En el editor de reglas, haz clic en **Version History** (Historial de versiones) para ver los cambios anteriores. +1. Haz clic en una versión concreta para ver los cambios realizados. +1. Haz clic en **Open Version Comparison** (Abrir comparación de versiones) para ver los cambios entre versiones. +1. Selecciona las dos versiones que quieres comparar. + - Los datos resaltados en rojo indican datos modificados o eliminados. + - Los datos resaltados en verde indican los datos añadidos. +1. Haz clic en **Unified** (Unificado) si quieres ver la comparación en el mismo panel. + ### Restringir permisos de edición {{% security-products/detection-rules-granular-access %}} ### Ver las señales generadas -Para ver las señales de seguridad de una regla en el [Signals Explorer][1], haz clic en el menú vertical de tres puntos y selecciona **View generated signals** (Ver señales generadas). Esto es útil cuando se correlacionan señales a través de múltiples fuentes por regla, o cuando se completa una auditoría de reglas. +Para ver las señales de seguridad de una regla en el [Explorador de señales][1], haz clic en el menú vertical de tres puntos y selecciona **View generated signals** (Ver señales generadas). Esto es útil cuando se correlacionan señales a través de múltiples fuentes por regla, o cuando se completa una auditoría de reglas. ### Exportar una regla como JSON @@ -129,7 +152,7 @@ El proceso de obsolescencia de las reglas es el siguiente: 1. La regla incluye una advertencia con la fecha de obsolescencia. En la interfaz de usuario, la advertencia se muestra en la: - Sección **Rule Details > Playbook** (Detalles de la regla > Guía) del panel lateral de señales - - Panel lateral de configuraciones erróneas (solo CSM Misconfigurations) + - Panel lateral de Misconfigurations (sólo Cloud Security Misconfigurations) - [Editor de reglas][10] para esa regla específica 2. Una vez que la regla se vuelve obsoleta, transcurre un periodo de 15 meses antes de que se elimine la regla. Esto se debe al periodo de conservación de señales de 15 meses. Durante este tiempo, puedes volver a habilitar la regla [clonando la regla][2](#clone-a-rule) en la interfaz de usuario. 3. Una vez eliminada la regla, ya no podrás clonarla ni volver a activarla. @@ -142,13 +165,14 @@ El proceso de obsolescencia de las reglas es el siguiente: [2]: /es/security/default_rules/ [3]: /es/security/cloud_siem/ [4]: /es/security/cloud_security_management/misconfigurations/ -[5]: /es/security/threats/ +[5]: /es/security/workload_protection/ [6]: /es/security/cloud_security_management/identity_risks/ [7]: /es/security/application_security/ [8]: /es/tracing/ [9]: /es/agent/ [10]: https://app.datadoghq.com/security/configuration/ -[11]: /es/security/cloud_siem/log_detection_rules/ -[12]: /es/security/application_security/threats/custom_rules/ +[11]: /es/security/cloud_siem/detection_rules/ +[12]: /es/security/application_security/policies/custom_rules/ [13]: /es/security/cloud_security_management/misconfigurations/custom_rules -[14]: /es/security/threats/workload_security_rules?tab=host#create-custom-rules \ No newline at end of file +[14]: /es/security/workload_protection/workload_security_rules?tab=host#create-custom-rules +[15]: https://app.datadoghq.com/security/configuration/ \ No newline at end of file diff --git a/content/es/serverless/aws_lambda/installation/_index.md b/content/es/serverless/aws_lambda/installation/_index.md index f7199dfe9656e..cc2fe9ad9c915 100644 --- a/content/es/serverless/aws_lambda/installation/_index.md +++ b/content/es/serverless/aws_lambda/installation/_index.md @@ -16,18 +16,22 @@ title: Instalar Serverless Monitoring para AWS Lambda Si estás dando tus primeros pasos en Datadog, [regístrate para obtener una cuenta de Datadog][1] y luego sigue las instrucciones de instalación del Datadog Agent para [AWS Lambda][2] de modo que puedas instrumentar tu función de Lambda y lograr un inicio rápido con Datadog. Completar estos pasos configura tus funciones de Lambda para enviar métricas, logs y trazas (traces) a Datadog en tiempo real. -{{< beta-callout-private url="https://docs.google.com/forms/d/e/1FAIpQLScw8XBxCyN_wjBVU2tWm-zX5oPIGF7BwUKcLSHY6MJsem259g/viewform?usp=sf_link" >}} -¿Te interesa instrumentar funciones de AWS Lambda de forma masiva directamente desde la interfaz de usuario de Datadog? Para participar, solicita acceso a la próxima fase beta privada de instrumentación de Lambda en remoto. -{{< /beta-callout-private >}} +
En GitHub hay disponible una aplicación de ejemplo con instrucciones sobre cómo desplegarla con múltiples tiempos de ejecución y herramientas de infraestructura como código.
El proceso de inicio rápido configura tus funciones de Lambda de forma temporal. Para instrumentar funciones de Lambda de forma permanente, consulta las instrucciones de instalación detalladas en la siguiente sección. ## Instrucciones de instalación -Para obtener instrucciones de instalación detalladas, selecciona el tiempo de ejecución de Lambda a continuación: +Para los tiempos de ejecución de Node.js y Python, puedes utilizar la [instrumentación remota][5] para añadir instrumentación a tus funciones de AWS Lambda y mantenerlas instrumentadas de forma segura. Consulta [Instrumentación remota para AWS Lambda][5]. + +Para otros tiempos de ejecución de Lambda (o para instrumentar tus funciones de Node.js o Python sin instrumentación remota) consulta las instrucciones de instalación detalladas: {{< partial name="serverless/getting-started-languages.html" >}} +## Soporte para el cumplimiento de FIPS + +Datadog proporciona monitorización conforme a FIPS para las funciones de AWS Lambda a través de capas de extensión de Lambda conformes a FIPS dedicadas y configuraciones específicas del tiempo de ejecución. Los componentes conformes con FIPS implementan criptografía certificada por FIPS y funcionan con cualquier sitio de Datadog, pero el cumplimiento de FIPS de extremo a extremo requiere el uso del sitio US1-FED. Si necesitas mantener la conformidad con FIPS mientras monitorizas tus funciones de Lambda, consulta la página de documentación [AWS Lambda FIPS Compliance][4] para obtener más detalles. + ## Configuraciones avanzadas Una vez finalizada la instalación y configurada la recopilación de telemetría, puedes utilizar las [configuraciones avanzadas][3] para hacer lo siguiente: @@ -44,4 +48,6 @@ Una vez finalizada la instalación y configurada la recopilación de telemetría [1]: https://app.datadoghq.com/signup/ [2]: https://app.datadoghq.com/signup/agent#lambda -[3]: /es/serverless/configuration/ \ No newline at end of file +[3]: /es/serverless/configuration/ +[4]: /es/serverless/aws_lambda/fips-compliance/ +[5]: /es/serverless/aws_lambda/remote_instrumentation \ No newline at end of file diff --git a/content/es/serverless/azure_functions/_index.md b/content/es/serverless/azure_functions/_index.md index 07abc4300f3e2..53a5a0e09590e 100644 --- a/content/es/serverless/azure_functions/_index.md +++ b/content/es/serverless/azure_functions/_index.md @@ -3,11 +3,11 @@ title: Instala la monitorización serverless para Azure Functions --- ## Información general -En esta página se explica cómo recopilar trazas (traces), rastrear métricas, métricas de tiempo de ejecución y métricas personalizadas de Azure Functions. Para recopilar métricas adicionales, instala la [integración de Datadog Azure][6]. +En este Page ( página) se explica cómo recopilar trazas, métricas de trace (traza), métricas de tiempo de ejecución y métricas personalizadas de sus Azure Functions. Para recopilar métricas adicionales, instale la [Datadog integración de Azure][5]. ## Configuración -{{< programming-lang-wrapper langs="nodejs,python" >}} +{{< programming-lang-wrapper langs="nodejs,python,java,dotnet" >}} {{< programming-lang lang="nodejs" >}} 1. **Instala dependencias**. Ejecuta los siguientes comandos: ```shell @@ -15,11 +15,9 @@ En esta página se explica cómo recopilar trazas (traces), rastrear métricas, npm install dd-trace ``` - Para usar la [instrumentación automática][1], utiliza `dd-trace` v5.25+. - Datadog recomienda anclar las versiones de paquete y actualizar periódicamente a las últimas versiones de `@datadog/serverless-compat` y de `dd-trace` para asegurarte de tener acceso a las mejoras y correcciones de errores. -2. **Inicia la capa de compatibilidad serverless de Datadog e inicializa el rastreador de Node.js**. Añade las siguientes líneas al archivo de punto de entrada de tu aplicación principal (por ejemplo, `app.js`): +2. **Inicie la capa de compatibilidad sin servidor Datadog e inicialice el trazador Node.js Datadog **. Añade las siguientes líneas al archivo de punto de entrada de tu aplicación principal (por ejemplo, `app.js`): ```js require('@datadog/serverless-compat').start(); @@ -28,13 +26,11 @@ En esta página se explica cómo recopilar trazas (traces), rastrear métricas, const tracer = require('dd-trace').init() ``` -3. (Opcional) **Habilita las métricas del tiempo de ejecución**. Consulta [Métricas del tiempo de ejecución de Node.js][2]. +3. **Configurar el trazador Datadog Node.js** -4. (Opcional) **Habilita métricas personalizadas**. Consulta [Presentación de métricas: DogStatsD][3]. + [Configuración de la biblioteca de seguimiento de Node.js][1] -[1]: /es/tracing/trace_collection/automatic_instrumentation/?tab=singlestepinstrumentation -[2]: /es/tracing/metrics/runtime_metrics/nodejs/?tab=environmentvariables -[3]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/?code-lang=nodejs +[1]:/es/tracing/trace_collection/library_config/nodejs {{< /programming-lang >}} {{< programming-lang lang="python" >}} 1. **Instala dependencias**. Ejecuta los siguientes comandos: @@ -43,27 +39,126 @@ En esta página se explica cómo recopilar trazas (traces), rastrear métricas, pip install ddtrace ``` - Para usar la [instrumentación automática][1], utiliza `dd-trace` v2.19+. - Datadog recomienda utilizar las últimas versiones de `datadog-serverless-compat` y de `ddtrace` para asegurarte de tener acceso a las mejoras y correcciones de errores. -2. **Inicializa el rastreador de Datadog Python y la capa de compatibilidad serverless**. Añade las siguientes líneas al archivo de punto de entrada de tu aplicación principal: +2. **Inicie Datadog Serverless Compatibility Layer e inicialice Datadog Python tracer**. Añade las siguientes líneas al archivo de punto de entrada de tu aplicación principal: ```python from datadog_serverless_compat import start - from ddtrace import tracer, patch_all + import ddtrace.auto start() - patch_all() ``` -3. (Opcional) **Habilita las métricas del tiempo de ejecución**. Consulta [Métricas del tiempo de ejecución de Python][2]. +3. **Configurar el trazador Python Datadog ** -4. (Opcional) **Habilita métricas personalizadas**. Consulta [Presentación de métricas: DogStatsD][3]. + [Configuración de la biblioteca de seguimiento de Python][1] -[1]: /es/tracing/trace_collection/automatic_instrumentation/?tab=singlestepinstrumentation -[2]: /es/tracing/metrics/runtime_metrics/python/ -[3]: /es/metrics/custom_metrics/dogstatsd_metrics_submission/?code-lang=python +[1]:/es/tracing/trace_collection/library_config/python +{{< /programming-lang >}} +{{< programming-lang lang="java" >}} +1. **Instalar dependencias**. Descarga los JAR de Datadog y despliégalos con tu función: + ```bash + wget -O dd-java-agent.jar 'https://dtdg.co/latest-java-tracer' + wget -O dd-serverless-compat-java-agent.jar 'https://dtdg.co/latest-serverless-compat-java-agent' + ``` + Ver Datadog's [Maven Repository][1] para cualquier versión específica de Datadog Serverless Compatibility Layer. + + Datadog recomienda actualizar periódicamente las versiones más recientes de `dd-serverless-compat-java-agent` y `dd-java-agent` para garantizar el acceso a las mejoras y correcciones de errores. + +2. **Inicie la capa de compatibilidad sin servidor Datadog e inicialice el rastreador Java Datadog **. Añade los siguientes argumentos `-javaagent` a las opciones de la JVM.: + + ```bash + -javaagent:/path/to/dd-serverless-compat-java-agent.jar -javaagent:/path/to/dd-java-agent.jar + ``` + + **Nota**: la variable de entorno para establecer las opciones de JVM depende del plan de alojamiento (por ejemplo, Consumo, Elastic Premium, Dedicado). Consulte [Azure Functions Java developer guide][2] para obtener más detalles sobre la variable de entorno adecuada para su plan de alojamiento. + +3. **Configurar el trazador Java Datadog ** + + [Configuración de la biblioteca de seguimiento de Java][3] + +[1]: https://repo1.maven.org/maven2/com/datadoghq/dd-serverless-compat-java-agent/ +[2]: https://learn.microsoft.com/en-us/azure/azure-functions/functions-reference-java?tabs=bash%2Cconsumption#customize-jvm +[3]: /es/tracing/trace_collection/library_config/java +{{< /programming-lang >}} +{{< programming-lang lang="dotnet" >}} +1. **Instala dependencias**. Ejecuta los siguientes comandos: + ```shell + dotnet package add Datadog.Azure.Functions + ``` + + Datadog recomienda actualizar periódicamente a la última versión de `Datadog.AzureFunctions` para asegurarse de tener acceso a las mejoras y correcciones de errores. + +2. **Inicie la capa de compatibilidad sin servidor Datadog **. + + Si su aplicación Azure Function utiliza el modelo Isolated Worker, añada las siguientes líneas a su archivo de punto de entrada de la aplicación principal: + ```csharp + Datadog.Serverless.CompatibilityLayer.Start(); + ``` + + Si su aplicación Azure Function utiliza el modelo In-Process, añada una referencia de paquete NuGet a `Microsoft.Azure.Functions.Extensions`: + ```shell + dotnet package add Microsoft.Azure.Functions.Extensions + ``` + + Y añade el siguiente archivo `.cs` a tu aplicación: + ```csharp + using Datadog.Serverless; + using Microsoft.Azure.Functions.Extensions.DependencyInjection; + + [assembly: FunctionsStartup(typeof(MyFunctionApp.Startup))] + + namespace MyFunctionApp + { + public class Startup : FunctionsStartup + { + public override void Configure(IFunctionsHostBuilder builder) + { + Datadog.Serverless.CompatibilityLayer.Start(); + } + } + } + ``` + +3. **Configurar Instrumentación Automática** + + Si su aplicación Azure Function se ejecuta en Windows, añada las siguientes variables de entorno a su aplicación Function: + ``` + CORECLR_ENABLE_PROFILING=1 + + CORECLR_PROFILER={846F5F1C-F9AE-4B07-969E-05C26BC060D8} + + CORECLR_PROFILER_PATH_64= + C:\home\site\wwwroot\datadog\win-x64\Datadog.Trace.ClrProfiler.Native.dll + + CORECLR_PROFILER_PATH_32= + C:\home\site\wwwroot\datadog\win-x86\Datadog.Trace.ClrProfiler.Native.dll + + DD_DOTNET_TRACER_HOME=C:\home\site\wwwroot\datadog + + ``` + + Si su aplicación Azure Function se ejecuta en Linux, añada las siguientes variables de entorno a su aplicación Function: + ``` + CORECLR_ENABLE_PROFILING=1 + + CORECLR_PROFILER={846F5F1C-F9AE-4B07-969E-05C26BC060D8} + + CORECLR_PROFILER_PATH= + /home/site/wwwroot/datadog/linux-x64/Datadog.Trace.ClrProfiler.Native.so + + DD_DOTNET_TRACER_HOME=/home/site/wwwroot/datadog + + ``` + +4. **Configurar el trazador Datadog.NET** + + - [Configuración de la biblioteca de rastreo de .NET Core][1] + - [Configuración de la biblioteca de seguimiento de .NET Framework][2] + +[1]:/es/tracing/trace_collection/library_config/dotnet-core +[2]:/es/tracing/trace_collection/library_config/dotnet-framework {{< /programming-lang >}} {{< /programming-lang-wrapper >}} @@ -73,37 +168,27 @@ En esta página se explica cómo recopilar trazas (traces), rastrear métricas, | Nombre | Valor | | ---- | ----- | - | `DD_API_KEY` | Tu [Clave de la API de Datadog][1]. | + | `DD_API_KEY` | Tu [clave de API Datadog][1]. | | `DD_SITE` | Tu [sitio Datadog][2]. Por ejemplo, {{< region-param key=dd_site code="true" >}}. | -7. **Configura el etiquetado de servicios unificado**. Puedes recopilar métricas desde tu Azure Functions mediante la instalación de la [integración de Datadog Azure][6]. Para correlacionar estas métricas con tu trazas (traces), primero configura las etiquetas (tags) `env`, `service` y `version` en tu recurso en Azure . A continuación, configura las siguientes variables de entorno. Puedes añadir etiquetas (tags) personalizados como `DD_TAGS`. +7. **Configure el etiquetado de servicios unificados**. Puede recopilar métricas de sus funciones de Azure instalando la integración de Azure [Datadog ][5]. Para correlacionar estas métricas con sus trazas, primero configure las etiquetas `env`, `service`, y `version` en su recurso en Azure. A continuación, configura las siguientes variables de entorno. | Nombre | Valor | | ---- | ----- | - | `DD_ENV` | Cómo deseas etiquetar tu variable de entorno para el [etiquetado de servicios unificado][9]. Por ejemplo, `prod`. | - | `DD_SERVICE` | Cómo deseas etiquetar tu servicio para el [etiquetado de servicios unificado][9]. | - | `DD_VERSION` | Cómo deseas etiquetar tu versión para el [etiquetado de servicios unificado][9]. | - | `DD_TAGS` | Tus etiquetas (tags) personalizadas separadas por comas. Por ejemplo, `key1:value1,key2:value2`. | + | `DD_ENV` | Cómo quiere etiquetar su env para [Unified Service Tagging][7]. Por ejemplo, `prod`. | + | `DD_SERVICE` | Cómo desea etiquetar su servicio para [Unified Service Tagging][7]. | + | `DD_VERSION` | Cómo desea etiquetar su versión para [Etiquetado de Servicio Unificado][7]. | ## ¿Qué toca hacer ahora? -- Puedes ver tus trazas (traces) de Azure Functions en [Trace Explorer][4]. Busca por el nombre del servicio que configuraste en la variable de entorno `DD_SERVICE` para ver tus trazas (traces). -- Puedes utilizar la página [Serverless > Azure Funcitons][5] para ver tus trazas (traces) enriquecidas con la telemetría recopilada por la [integración de Datadog Azure][6]. - -### Activa/desactiva métricas de trazas (traces) - -Las [métricas de trazas (traces)][3] están activados en forma predeterminada. Para configurar métricas de trazas, utiliza la siguiente variable de entorno: - -`DD_TRACE_STATS_COMPUTATION_ENABLED` -: Activa (`true`) o desactiva (`false`) métricas de trazas. El valor predeterminado es `true`. - - **Valores**: `true`, `false` +- Puede ver sus trazas de Azure Functions en [trace (traza) Explorer ][3]. Busque el nombre del servicio que estableció en la variable de entorno `DD_SERVICE` para ver sus trazas. +- Puedes utilizar [Serverless > Azure Functions][4] Page ( página) para ver tus trazas enriquecidas con telemetría recogida por la [Datadog Azure integration][5]. ## Solucionar problemas ### Activa logs de depuración -Puedes recopilar [logs de depuración][7] para solucionar problemas. Para configurar logs de depuración, utiliza las siguientes variables de entorno: +Puede recopilar [registros de depuración][6] para solucionar problemas. Para configurar los registros de depuración, utilice las siguientes variables de entorno: `DD_TRACE_DEBUG` : Activa (`true`) o desactiva (`false`) el registro de depuración para la biblioteca de Datadog Tracing. El valor predeterminado es `false`. @@ -115,17 +200,10 @@ Puedes recopilar [logs de depuración][7] para solucionar problemas. Para config **Valores**: `trace`, `debug`, `info`, `warn`, `error`, `critical`, `off` -### Planes de Linux Consumption y acciones de GitHub - -Para utilizar una acción de GitHub para desplegar en una función de Linux Consumption, configura tu flujo de trabajo para utilizar un Azure Service Principal para RBAC. Consulta [Utilizar Azure Service Principal para RBAC como credencial de despliegue][8]. - - [1]: /es/account_management/api-app-keys/#add-an-api-key-or-client-token [2]: /es/getting_started/site -[3]: /es/tracing/metrics/metrics_namespace/ -[4]: https://app.datadoghq.com/apm/traces -[5]: https://app.datadoghq.com/functions?cloud=azure&entity_view=function -[6]: /es/integrations/azure/ -[7]: /es/tracing/troubleshooting/tracer_debug_logs/#enable-debug-mode -[8]: https://github.com/Azure/functions-action?tab=readme-ov-file#using-azure-service-principal-for-rbac-as-deployment-credential -[9]: /es/getting_started/tagging/unified_service_tagging/ \ No newline at end of file +[3]: https://app.datadoghq.com/apm/traces +[4]: https://app.datadoghq.com/functions?cloud=azure&entity_view=function +[5]: /es/integrations/azure/ +[6]: /es/tracing/troubleshooting/tracer_debug_logs/#enable-debug-mode +[7]: /es/getting_started/tagging/unified_service_tagging/ \ No newline at end of file diff --git a/content/es/service_management/events/pipelines_and_processors/lookup_processor.md b/content/es/service_management/events/pipelines_and_processors/lookup_processor.md index 3c6a3c4b68e72..6462ec5d32fb4 100644 --- a/content/es/service_management/events/pipelines_and_processors/lookup_processor.md +++ b/content/es/service_management/events/pipelines_and_processors/lookup_processor.md @@ -19,8 +19,7 @@ El procesador de búsqueda realiza las siguientes acciones: **Tabla de referencia** - {{< img src="logs/log_configuration/processor/lookup_processor_reference_table.png" alt="Procesador de búsqueda" - style="width:80%;">}} + {{< img src="logs/log_configuration/processor/lookup_processor_reference_table.png" alt="Procesador de búsqueda" style="width:80%;" >}} El límite de tamaño de la tabla de asignación es de 100 kB. Este límite se aplica a todos los procesadores de búsqueda de la plataforma. Sin embargo, las tablas de referencia admiten archivos de mayor tamaño. diff --git a/content/es/synthetics/guide/uptime-percentage-widget.md b/content/es/synthetics/guide/uptime-percentage-widget.md index fd901ecabb881..77254c73656a9 100644 --- a/content/es/synthetics/guide/uptime-percentage-widget.md +++ b/content/es/synthetics/guide/uptime-percentage-widget.md @@ -9,6 +9,9 @@ further_reading: - link: /getting_started/synthetics/ tag: Documentación text: Empezando con Synthetic Monitoring +- link: https://www.datadoghq.com/blog/slo-synthetic-monitoring/ + tag: Blog + text: Mejorar la precisión y el rendimiento de los SLOs con Datadog Synthetic Monitoring title: Monitorizar tiempos de actividad de sitios web con SLOs --- @@ -18,7 +21,7 @@ Para poder cumplir los acuerdos de nivel del servicio suscritos con clientes int A continuación, te mostramos cómo lograrlo con la herramienta [Synthetic Monitoring][1] y el [widget de objetivos de nivel del servicio ][2] (SLOs). Para ello, usaremos `http://example.com/` como ejemplo. -## Crear un test de Synthetics +## Cree una supervisión en Synthetic Monitoring test Para crear un [test de API de Synthetics][3] con `http://example.com/`, consulta [Crear un test de API simple][4]. @@ -37,7 +40,7 @@ Al hacer clic en **Test URL** (Probar URL), se rellenan las aserciones sobre el {{< img src="synthetics/guide/uptime_slo/slo_target.png" alt="Objetivo del SLO" >}} -4. Introduce un nombre, un mensaje y las etiquetas para detallar más el SLO. +4. Introduce un nombre, un mensaje y las etiquetas (tags) para detallar más el SLO. {{< img src="synthetics/guide/uptime_slo/slo_notif.png" alt="Notificación del SLO" >}} diff --git a/content/es/tests/correlate_logs_and_tests/_index.md b/content/es/tests/correlate_logs_and_tests/_index.md index de8f9cda263a5..034e9e4883b5e 100644 --- a/content/es/tests/correlate_logs_and_tests/_index.md +++ b/content/es/tests/correlate_logs_and_tests/_index.md @@ -11,8 +11,7 @@ title: Correlacionar logs y tests Puedes correlacionar los datos de Test Optimization con [logs inyectados en Datadog][1], lo que te permite ver y analizar logs para casos de tests específicos. -{{< img src="continuous_integration/correlate_logs_and_tests.png" - alt="Examinar logs para casos de tests específicos con la correlación de logs y tests." style="width:90%" >}} +{{< img src="continuous_integration/correlate_logs_and_tests.png" alt="Examinar logs para casos de tests específicos con la correlación de logs y tests." style="width:90%" >}} ## Configuración diff --git a/content/es/tracing/dynamic_instrumentation/_index.md b/content/es/tracing/dynamic_instrumentation/_index.md new file mode 100644 index 0000000000000..a0b14fe3cc774 --- /dev/null +++ b/content/es/tracing/dynamic_instrumentation/_index.md @@ -0,0 +1,240 @@ +--- +aliases: +- /es/dynamic_instrumentation/how-it-works/ +- /es/dynamic_instrumentation/ +further_reading: +- link: /dynamic_instrumentation/expression-language/ + tag: Documentación + text: Más información sobre el lenguaje de expresión de Dynamic Instrumentation +- link: dynamic_instrumentation/sensitive-data-scrubbing/ + tag: Documentación + text: Eliminación de información confidencial de los datos de Dynamic Instrumentation +- link: /tracing/trace_collection/dd_libraries + tag: Documentación + text: Más información sobre cómo instrumentar tu aplicación +- link: /getting_started/tagging/unified_service_tagging/ + tag: Documentación + text: Etiquetado de servicios unificado +- link: /tracing/software_catalog/ + tag: Documentación + text: Descubrir y catalogar los servicios que informan a Datadog +- link: /metrics + tag: Documentación + text: Más información sobre métricas +- link: https://www.datadoghq.com/blog/dynamic-instrumentation-application-logging/ + tag: Blog + text: Utilizar Datadog Dynamic Instrumentation para añadir logs de aplicación sin + volver a desplegarlos +is_beta: false +private: false +title: Instrumentación dinámica +--- + +{{% site-region region="gov" %}} +
+ Dynamic Instrumentation no es compatible con el sitioDatadog seleccionado ({{< region-param key="dd_site_name" >}}), ya que requiere que la configuración remota esté activada. +
+{{% /site-region %}} + +## Resumen + +Dynamic Instrumentation le permite añadir instrumentación en sus sistemas de producción en ejecución sin necesidad de reiniciar y en cualquier ubicación del código de su aplicación, incluyendo librerías de terceros. Puede añadir o modificar telemetría para logs, métricas, spans, y el etiquetado correspondiente, desde la interfaz de usuario de Datadog. Dynamic Instrumentation tiene una baja sobrecarga y no tiene efectos secundarios en su sistema. + +Si estás interesado en probar las últimas mejoras de la experiencia de usuario para Dynamic Instrumentation, considera la posibilidad de participar en la [Vista previa de autocompletar y búsqueda][17]. + +## Introducción + +### Requisitos previos + +Dynamic Instrumentation requiere lo siguiente: + +- [Datadog Agent][1] 7.45.0 o superior esté instalado junto a su servicio. +- [Configuración remota][2] esté habilitada en ese Agent. +- Para aplicaciones Java, la biblioteca de seguimiento [`dd-trace (traza)-java`][3] 1.34.0 o superior. +- Para aplicaciones Python, la biblioteca de seguimiento [`dd-trace (traza)-py`][4] 2.2.0 o superior. +- Para aplicaciones .NET, biblioteca de seguimiento [`dd-trace (traza)-dotnet`][5] 2.54.0 o superior. +- (Vista previa limitada) Para aplicaciones Node.js, biblioteca de seguimiento [`dd-trace (traza)-js`][18] 5.39.0 o superior. +- (Vista previa limitada) Para aplicaciones Ruby, biblioteca de seguimiento [`dd-trace (traza)-rb`][19] 2.9.0 o superior. +- (Vista previa limitada) Para aplicaciones PHP, biblioteca de seguimiento [`dd-trace (traza)-php`][20] 1.5.0 o superior. +- Las etiquetas [Unified Service Tagging][6] `service`, `env`, y `version` se aplican a su implementación. +- Recomendado, [autocompletar y buscar (en Vista previa)][17] está activado. +- Recomendado, [source (fuente) Integración de código][7] está configurado para su servicio. +- Se requiere el permiso **Dynamic Instrumentation Read Configuration** (`debugger_read`) para acceder a la página Dynamic Instrumentation. Page ( página) +- El permiso **Dynamic Instrumentation Escribir Configuración** (`debugger_write`) es necesario para crear o modificar instrumentaciones. +- El permiso **Dynamic Instrumentation Capturar Variables** (`debugger_capture_variables`) es necesario para utilizar la opción **Capturar parámetros de métodos y variables locales**. + + Para más información sobre roles y sobre cómo asignar roles a los usuarios, consulta [Control de acceso basado en roles][8]. + +### Crear un índice logs + +Dynamic Instrumentation crea " logs dinámicos" que se envían a Datadog y aparecen junto a los de su aplicación habitual logs. + +Si utiliza [Filtros de exclusión][9], asegúrese de que Dynamic Instrumentation log s no se filtren: + +1. Cree un índice logs y [configúrelo][10] con la retención deseada con **sin muestreo**. +2. 2. Configure el filtro para que coincida con la etiqueta `source (fuente):dd_debugger`. Todos los Dynamic Instrumentation log s tienen esta source (fuente). +3. Asegúrese de que el nuevo índice tiene prioridad sobre cualquier otro con filtros que coincidan con esa etiqueta, porque la primera coincidencia gana. + +### Habilitar Dynamic Instrumentation + +Para habilitar Dynamic Instrumentation en un servicio, vaya a [in-app setup Page ( página)][16]. + +Para obtener instrucciones más detalladas, seleccione su tiempo de ejecución a continuación: + +{{< partial name="dynamic_instrumentation/dynamic-instrumentation-languages.html" >}} + + +### Limitaciones + +- Dynamic Instrumentation aún no es compatible con Azure App Services o entornos sin servidor. +- La compatibilidad total solo está disponible para aplicaciones creadas con Python, Java y .NET. +- Existen vistas previas limitadas para aplicaciones creadas con Node.js, Ruby y PHP. +- La biblioteca de seguimiento de Java no es compatible con las coroutines de Kotlin. + +## Explorar Dynamic Instrumentation + +Dynamic Instrumentation puede ayudarte a entender lo que tu aplicación está haciendo en tiempo de ejecución. Al añadir una sonda Dynamic Instrumentation estás exportando datos adicionales de tu aplicación, sin necesidad de cambiar el código o volver a desplegarlo. + +### Uso de sondas + +Una sonda te permite recoger datos de puntos específicos de tu código sin detener la ejecución del programa. + +Piense en el uso de sondas como una mejora de su capacidad de observación mediante la adición de logs dinámicas, métricas y periodos a una aplicación en ejecución sin necesidad de cambiar el código, desplegarlo o reiniciar un servicio. Puede recopilar datos inmediatamente sin perturbar la experiencia del usuario ni requerir despliegues prolongados. + +Como desarrollador, también puede pensar en una sonda como un "punto de interrupción sin ruptura". En la depuración tradicional, un punto de interrupción es un punto del programa en el que se detiene la ejecución, lo que permite al desarrollador inspeccionar el estado del programa en ese punto. Sin embargo, en entornos de producción reales, no es práctico ni posible detener la ejecución del programa. Las sondas llenan este vacío permitiendo inspeccionar el estado de las variables en entornos de producción de forma no intrusiva. + +### Creación de una sonda + +Todos los tipos de sonda requieren la misma configuración inicial: + +1. Vaya a [Dynamic Instrumentation Page ( página) ][12]. +1. Haga clic en **Crear sonda** en la parte superior derecha, o haga clic en el menú de tres puntos en un servicio y seleccione **Añadir una sonda para este servicio**. +1. Si no están rellenados previamente, elija el servicio, el tiempo de ejecución, el entorno y la versión. +1. En el código source (fuente), especifique dónde establecer la sonda seleccionando una clase y un método o un archivo y una línea de source (fuente). Si has optado por [autocompletar y buscar Vista previa][17], autocompletar muestra sugerencias para seleccionar una clase o un método. + +Consulte los tipos de sonda individuales a continuación para ver los pasos de creación específicos para cada tipo de sonda. + +También puede crear una sonda desde estos otros contextos: + +Perfiles +: En un gráfico de llama del perfilador, puede crear una sonda para un método seleccionando **Instrumentar este marco con una sonda** en el menú contextual del marco. + +Error Tracking +: En una pila trace (traza), sitúe el ratón sobre un marco de pila y haga clic en **Instrumentar**. Esto rellena previamente el formulario de creación de sonda con el contexto de la Emisión. + + +### Creación de sondas log + +Una * sondalog * emite un log cuando se ejecuta. + +Para crear una sonda log: + +1. Selecciona **log** como tipo de sonda. +1. Complete la [configuración genérica de la sonda](#creating-a-probe) (elija el servicio, el entorno, la versión y la ubicación de la sonda). +1. Define una plantilla de mensaje log. Puede utilizar el lenguaje de expresión Dynamic Instrumentation para referenciar valores del contexto de ejecución. +1. (En Preview) Opcionalmente habilita la captura de datos extra de la sonda. +1. Opcionalmente, define una condición utilizando el lenguaje de expresión Dynamic Instrumentation. El mensaje log se emite cuando la expresión se evalúa como verdadera. + +log Las sondas se activan por defecto en todas las instancias de servicio que coincidan con el entorno y la versión especificados. Su velocidad de ejecución está limitada a un máximo de 5000 veces por segundo, en cada instancia de su servicio. + +Debe establecer una plantilla de mensaje log en cada sonda log. La plantilla admite la inclusión de [expresiones][15] entre llaves. Por ejemplo: `User {user.id} purchased {count(products)} products`. + +También puede establecer una condición en una sonda log utilizando el [lenguaje de expresiones][15]. La expresión debe evaluarse como booleana. La sonda se ejecuta si la expresión es verdadera, y no captura ni emite ningún dato si la expresión es falsa. + +{{< img src="dynamic_instrumentation/log_probe.png" alt="Creating a Dynamic Instrumentation log probe" >}} + +(En vista previa) Si activa **Capturar parámetros de método y variables locales** en la sonda log, todo el contexto de ejecución se añade al evento log: + - **argumentos de método**, **variables locales** y **campos**, con los siguientes límites predeterminados: + - Seguir referencias a tres niveles de profundidad (configurable en la UI). + - Los 100 primeros elementos dentro de colecciones. + - Los primeros 255 caracteres para valores de cadena. + - 20 campos dentro de objetos. Los campos estáticos no se recogen. + - Llamada a **pila trace (traza)**. + - **excepciones capturadas y no capturadas**. + +Las sondas con esta opción activada están limitadas a un acierto por segundo. + +

Advertencia: Los datos capturados pueden contener información sensible, incluyendo datos personales, contraseñas y secretos como claves AWS.

Para garantizar que esta información se redacta correctamente:

    +
  • Datadog Dynamic Instrumentation emplea varias técnicas para redactar la información sensible. Para obtener más información sobre los mecanismos predeterminados o sobre cómo ampliarlos para satisfacer sus necesidades, lea Depuración de datos confidenciales.
  • +
  • Desactive la opción Capturar parámetros de método y variables locales y seleccione explícitamente las variables que desea incluir en la plantilla de mensaje log. Hacer esto garantiza que las sondas de log contengan sólo datos relacionados con las variables que identifiques específicamente, reduciendo así el riesgo de fugas involuntarias de datos sensibles.
  • +
  • Si eres el administrador de tu cuenta Datadog y quieres evitar que otros usuarios puedan utilizar la opción Capturar parámetros de método y variables locales, puedes revocarles el permiso Dynamic Instrumentation Capturar variables(debugger_capture_variables).

Alternativamente, si necesita log estos datos pero desea mitigar el riesgo asociado a que sean accesibles en el producto Datadog, puede limitar qué usuarios de su organización pueden ver los datos capturados configurando una consulta de Restricción en source (fuente):dd_debugger.

+ +### Creación de sondeos de métrica + +Un *sondeo de métrica* emite una métrica cuando se ejecuta. + +Para crear un sondeo de métrica: + +1. Selecciona **Metric** (Métrica) como tipo de sondeo. +1. Completa la [configuración genérica del sondeo](#creating-a-probe) (elige un servicio, entorno, versión y localización del sondeo). +1. Especifica un nombre para la métrica, que llevará el prefijo `dynamic.instrumentation.metric.probe.`. +1. Selecciona un tipo de métrica (recuento, gauge, o histograma). +1. Elige el valor de la métrica con el [lenguaje de expresión de Dynamic Instrumentation][15]. Puedes usar cualquier valor numérico que quieras del contexto de ejecución, como un parámetro de método, una variable local, un campo de clase o una expresión que produzca un valor numérico. Esto es opcional en el caso de las métricas de recuento, y si lo omites, cada invocación incrementará el recuento en uno. + +{{< img src="dynamic_instrumentation/metric_probe.png" alt="Creación de un sondeo de métrica de Dynamic Instrumentation" >}} + +Los sondeos de métrica se habilitan de manera automática en todas las instancias de servicio que coinciden con la versión y entorno configurados. Los sondeos de métrica no están limitados por la frecuencia y se ejecutan cada vez que se invoca el método o la línea. + +Los sondeos de métrica de Dynamic Instrumentation admiten los siguientes tipos de métricas: + +- **Recuento**: cuenta la cantidad de veces que se ejecuta una línea o método determinado. Se puede combinar con [expresiones de métricas][15] para usar el valor de una variable a fin de incrementar el recuento. +- **Gauge**: genera un gauge basado en el último valor de una variable. Esta métrica requiere una [expresión de métrica][15]. +- **Histograma**: genera una distribución estadística de una variable. Esta métrica requiere una [expresión de métrica][15]. + +### Creación de sondeos de tramo + +Un *sondeo de tramo* emite un tramo cuando se ejecuta un método. + +Para crear un sondeo de tramo: + +1. Selecciona **Span** (Tramo) como tipo de sondeo. +1. Completa la [configuración genérica del sondeo](#creating-a-probe) (elige un servicio, entorno, versión y localización del sondeo). + +{{< img src="dynamic_instrumentation/span_probe.png" alt="Creación de un sondeo de tramo de Dynamic Instrumentation" >}} + +Puedes usar un *sondeo de tramo* como alternativa a [crear tramos nuevos con la instrumentación personalizada][13]. Si el método lanza una excepción, los detalles de la excepción se asocian a la nueva etiqueta `error` del tramo. + +### Creación de sondeos de etiqueta de tramo + +Un sondeo de *etiqueta de tramo* añade un valor de etiqueta a un tramo existente. Puedes añadir una etiqueta al tramo _activo_ o al tramo de _entrada de servicio_. +Ten en cuenta que los tramos internos no se indexan de manera predeterminada y, por tanto, es posible que no se puedan buscar en APM. + +Para crear un sondeo de etiqueta de tramo: + +1. Selecciona **Span Tag** (Etiqueta de tramo) como tipo de sondeo. +1. Completa la [configuración genérica del sondeo](#creating-a-probe) (elige un servicio, entorno, versión y localización del sondeo). +1. Especifica un nombre para la etiqueta. +1. Especifica el valor de la etiqueta con el [lenguaje de expresión de Dynamic Instrumentation][15]. +1. Opcionalmente, define una condición con el lenguaje de expresión de Dynamic Instrumentation. Solo se añadirá la etiqueta cuando la expresión se evalúe como verdadera. +1. Opcionalmente, añade etiquetas adicionales, cada una con su nombre, expresión y condición opcional. + + +{{< img src="dynamic_instrumentation/span_tag_probe.png" alt="Creación de un sondeo de etiqueta de tramo de Dynamic Instrumentation" >}} + +Puedes usar un *sondeo de etiqueta de tramo* como alternativa a [usar la instrumentación personalizada para añadir etiquetas en el código][14]. + + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/agent/ +[2]: /es/agent/remote_config/ +[3]: https://github.com/DataDog/dd-trace-java +[4]: https://github.com/DataDog/dd-trace-py +[5]: https://github.com/DataDog/dd-trace-dotnet +[6]: /es/getting_started/tagging/unified_service_tagging/ +[7]: /es/integrations/guide/source-code-integration/ +[8]: /es/account_management/rbac/permissions#apm +[9]: /es/logs/log_configuration/indexes/#exclusion-filters +[10]: /es/logs/log_configuration/indexes/#add-indexes +[11]: /es/dynamic_instrumentation/how-it-works/ +[12]: https://app.datadoghq.com/dynamic-instrumentation +[13]: /es/tracing/trace_collection/custom_instrumentation/java/#adding-spans +[14]: /es/tracing/trace_collection/custom_instrumentation/java/#adding-tags +[15]: /es/dynamic_instrumentation/expression-language +[16]: https://app.datadoghq.com/dynamic-instrumentation/setup +[17]: /es/dynamic_instrumentation/symdb/ +[18]: https://github.com/DataDog/dd-trace-js +[19]: https://github.com/DataDog/dd-trace-rb +[20]: https://github.com/DataDog/dd-trace-php \ No newline at end of file diff --git a/content/es/tracing/guide/instrument_custom_method.md b/content/es/tracing/guide/instrument_custom_method.md index f0808bf6b9cee..49af6fce3b3bc 100644 --- a/content/es/tracing/guide/instrument_custom_method.md +++ b/content/es/tracing/guide/instrument_custom_method.md @@ -2,13 +2,14 @@ further_reading: - link: /tracing/guide/alert_anomalies_p99_database/ tag: 3 minutos - text: Alerta sobre latencia p99 anómala de un servicio de base de datos + text: Alertar sobre la latencia p99 anómala de un servicio de base de datos - link: /tracing/guide/week_over_week_p50_comparison/ tag: 2 minutos text: Comparar la latencia del servicio con la de la semana anterior - link: /tracing/guide/slowest_request_daily/ tag: 3 minutos - text: Depurar el rastreo más lento en el endpoint más lento de un servicio web + text: Depurar la traza (traza) más lenta en el endpoint más lento de un servicio + web - link: /tracing/guide/ tag: '' text: Todas las guías @@ -22,23 +23,23 @@ _8 minutos para completarlo_
Nota: En esta página se describe el uso de OpenTracing para la instrumentación personalizada de aplicaciones. OpenTracing está obsoleto. Los conceptos presentados aquí todavía se aplican, pero, en su lugar, sigue las instrucciones y ejemplos de Instrumentación personalizada con OpenTelemetry para tu idioma.
-Para proporcionarte una visibilidad profunda de tu lógica de negocio, la APM de Datadog te permite personalizar los tramos (spans) que componen tus rastreos en función de tus necesidades e implementación. Esto te permite rastrear cualquier método de tu código base e incluso componentes específicos dentro de los métodos. Puedes utilizar esto para optimizar y monitorizar áreas críticas de tu aplicación en la granularidad que funcione para ti. +Para proporcionarte una visibilidad profunda de tu lógica de negocio, la APM de Datadog te permite personalizar los tramos (spans) que componen tus trazas en función de tus necesidades e implementación. Esto te permite rastrear cualquier método de tu código base e incluso componentes específicos dentro de los métodos. Puedes utilizar esto para optimizar y monitorizar áreas críticas de tu aplicación en la granularidad que funcione para ti. -Datadog instrumenta muchos marcos no incluidos, como servicios web, bases de datos y cachés y te permite instrumentar tu propia lógica de negocio para tener la visibilidad exacta que necesitas. Mediante la creación de tramos para los métodos, puedes optimizar el tiempo y realizar un rastreo de los errores utilizando la gráfica de llamas y las monitorizaciones APM. +Datadog instrumenta muchos marcos predefinidos, como servicios web, bases de datos y cachés y te permite instrumentar tu propia lógica de negocio para tener la visibilidad exacta que necesitas. Mediante la creación de tramos para los métodos, puedes optimizar el tiempo y rastrear errores utilizando la gráfica de llamas y las monitorizaciones de APM. -## Instrumentación de tu código +## Instrumentar tu código -**Follow the example to get your code instrumented** (Seguir el ejemplo para instrumentar el código). +**Follow the example to get your code instrumented** (Seguir el ejemplo para instrumentar tu código). -En estos ejemplos se rastrea todo el método `BackupLedger.write` para medir su tiempo de ejecución y su estado.`BackupLedger.write` es una acción que guarda en la memoria el estado actual de un libro de contabilidad de transacciones antes de hacer una llamada a una base de datos de pagos para contabilizar un nuevo cargo de un cliente. Esto sucede cuando se accede al endpoint `charge` del servicio de pagos: +En estos ejemplos se explica el rastreo de todo el método `BackupLedger.write` para medir su tiempo y estado de ejecución.`BackupLedger.write` es una acción que guarda en la memoria el estado actual de un libro de contabilidad de transacciones antes de hacer una llamada a una base de datos de pagos para contabilizar un nuevo cargo de un cliente. Esto sucede cuando se accede al endpoint `charge` del servicio de pagos: {{< img src="tracing/guide/custom_span/custom_span_2_cropped.png" alt="Vista de análisis" style="width:90%;">}} -El tramo `http.request POST /charge/` está tardando mucho sin tener ningún tramo secundario directo. Esta es una pista de que esta solicitud requiere más instrumentación para conocer mejor su comportamiento. Según el lenguaje de programación que utilices, deberás decorar tus funciones de forma diferente: +El tramo `http.request POST /charge/` está tardando mucho sin tener ningún tramo secundario directo. Esta es una pista de que esta solicitud requiere más instrumentación para conocer mejor su comportamiento. Según el lenguaje de programación que utilices, decora tus funciones de forma diferente: {{< programming-lang-wrapper langs="java,python,ruby,go,nodejs,.NET,php" >}} {{< programming-lang lang="java" >}} -En Java, la APM Datadog te permite Instrumentar tu código para generar tramos personalizados, ya sea utilizando decoradores de métodos o instrumentando bloques de código específicos. +En Java, la APM Datadog te permite instrumentar tu código para generar tramos personalizados, ya sea utilizando decoradores de métodos o instrumentando bloques de código específicos. **Instument a method with a decorator** (Instrumentar un método con un decorador): @@ -49,7 +50,7 @@ import datadog.trace.api.Trace public class BackupLedger { - // Use @Trace annotation to trace custom methods + // Utiliza la anotación @Trace para rastrear métodos personalizados @Trace public void write(List transactions) { for (Transaction transaction : transactions) { @@ -73,18 +74,18 @@ import io.opentracing.util.GlobalTracer; public class BackupLedger { - // Use `@Trace` annotation to trace custom methods + // Utiliza la anotación `@Trace` para rastrear métodos personalizados @Trace public void write(List transactions) { - for (Transaction transaction : transactions) { - // Use `GlobalTracer` to trace blocks of inline code + para (Transaction transaction : transactions) { + // Utiliza `GlobalTracer` para rastrear bloques del código insertado Tracer tracer = GlobalTracer.get(); - // Note: The scope in the try with resource block below - // will be automatically closed at the end of the code block. - // If you do not use a try with resource statement, you need - // to call scope.close(). - try (Scope scope = tracer.buildSpan("BackupLedger.persist").startActive(true)) { - // Add custom metadata to the span + // Nota: El ámbito en el siguiente bloque intentar con el recurso + // se cerrará automáticamente al final del bloque de código. + // Si no utilizas una instrucción probar con el recurso, deberás + // llamar a scope.close(). + prueba (Scope scope = tracer.buildSpan("BackupLedger.persist").startActive(true)) { + // Añade metadatos personalizados al tramo scope.span().setTag("transaction.id", transaction.getId()); ledger.put(transaction.getId(), transaction); } @@ -99,7 +100,7 @@ public class BackupLedger { {{< /programming-lang >}} {{< programming-lang lang="python" >}} -En Python, la APM Datadog te permite Instrumentar tu código para generar tramos personalizados, ya sea utilizando decoradores de métodos o instrumentando bloques de código específicos. +En Python, la APM Datadog te permite instrumentar tu código para generar tramos personalizados, ya sea utilizando decoradores de métodos o instrumentando bloques de código específicos. **Instument a method with a decorator** (Instrumentar un método con un decorador): @@ -110,10 +111,10 @@ from ddtrace import tracer class BackupLedger: - # Use `tracer.wrap` decorator to trace custom methods + # Utiliza el decorador `tracer.wrap` para rastrear métodos personalizados @tracer.wrap() def write(self, transactions): - for transaction in transactions: + para una transacción en transacciones: self.ledger[transaction.id] = transaction # [...] @@ -121,20 +122,20 @@ class BackupLedger: **Instrument a specific code block** (Instrumentar un bloque de código específico): -Este ejemplo añade tramos secundarios al tramo `BackupLedger.write` creado anteriormente. Este método añade un tramo secundario para cada transacción en el libro de contabilidad y una [etiqueta personalizada][1] con el ID de transacción específico. +Este ejemplo añade tramos secundarios al tramo `BackupLedger.write` creado anteriormente. Este método añade un tramo secundario para cada transacción en el libro de contabilidad y una [etiqueta (tag) personalizada][1] con el ID de transacción específico. ```python from ddtrace import tracer class BackupLedger: - # Use `tracer.wrap` decorator to trace custom methods + # Utiliza el decorador `tracer.wrap` para rastrear métodos personalizados @tracer.wrap() def write(self, transactions): - for transaction in transactions: - # Use `tracer.trace` context manager to trace blocks of inline code - with tracer.trace('BackupLedger.persist') as span: - # Add custom metadata to the "persist_transaction" span + para la transacción en transacciones: + # Utiliza el administrador del contexto `tracer.trace` para rastrear bloques del código insertado + con el tramo tracer.trace('BackupLedger.persist'): + # Añade metadatos personalizados al tramo "persist_transaction" span.set_tag('transaction.id', transaction.id) self.ledger[transaction.id] = transaction @@ -155,11 +156,11 @@ require 'ddtrace' class BackupLedger def write(transactions) - # Use global `Datadog::Tracing.trace` to trace blocks of inline code + # Utiliza `Datadog::Tracing.trace` global para rastrear bloques del código insertado Datadog::Tracing.trace('BackupLedger.write') do |method_span| transactions.each do |transaction| Datadog::Tracing.trace('BackupLedger.persist') do |span| - # Add custom metadata to the "persist_transaction" span + # Añade metadatos personalizados al tramo "persist_transaction" span.set_tag('transaction.id', transaction.id) ledger[transaction.id] = transaction end @@ -179,10 +180,14 @@ end Este ejemplo crea un nuevo tramo para cada transacción contabilizada en el libro de contabilidad y añade una [etiqueta personalizada][1] con el ID de transacción específico al tramo. + {{% tracing-go-v2 %}} + ```go package ledger -import "gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer" +import ( + "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer" +) // [...] @@ -218,6 +223,8 @@ func (bl *BackupLedger) persistTransaction(ctx context.Context, transaction *Tra ``` [1]: /es/tracing/trace_collection/custom_instrumentation/otel_instrumentation/ +[2]: /es/tracing/trace_collection/custom_instrumentation/go/migration + {{< /programming-lang >}} {{< programming-lang lang="nodejs" >}} @@ -229,11 +236,11 @@ Este ejemplo crea un nuevo tramo para la llamada al método `BackupLedger.write` const tracer = require('dd-trace') function write (transactions) { - // Use `tracer.trace` context manager to trace blocks of inline code + // Utiliza el administrador de contexto `tracer.trace` para rastrear bloques del código insertado tracer.trace('BackupLedger.write', () => { - for (const transaction of transactions) { + para (const transaction of transactions) { tracer.trace('BackupLedger.persist' , (span) => { - // Add custom metadata to the "persist_transaction" span + // Añade metadatos personalizados al tramo "persist_transaction" span.setTag('transaction.id', transaction.id) this.ledger[transaction.id] = transaction }) @@ -250,21 +257,21 @@ function write (transactions) { En .NET, la APM Datadog te permite instrumentar tu código para generar tramos personalizados instrumentando bloques de código específicos. -Este ejemplo crea un nuevo tramo para cada transacción contabilizada en el libro de contabilida y añade una [etiqueta personalizada][1] con el ID de transacción específico al tramo. +Este ejemplo crea un nuevo tramo para cada transacción contabilizada en el libro de contabilidad y añade una [etiqueta personalizada][1] con el ID de transacción específico al tramo. ```csharp using Datadog.Trace; public void Write(List transactions) { - // Use global tracer to trace blocks of inline code - using (var scope = Tracer.Instance.StartActive("BackupLedger.write")) + // Utiliza el rastreador global para rastrear bloques del código insertado + utilizando (var scope = Tracer.Instance.StartActive("BackupLedger.write")) { foreach (var transaction in transactions) { - using (var scope = Tracer.Instance.StartActive("BackupLedger.persist")) + utilizando (var scope = Tracer.Instance.StartActive("BackupLedger.persist")) { - // Add custom metadata to the span + // Añade metadatos personalizados al tramo scope.Span.SetTag("transaction.id", transaction.Id); this.ledger[transaction.Id] = transaction; } @@ -319,15 +326,15 @@ Este ejemplo añade tramos secundarios al tramo `BackupLedger.write` creado ante public function write(array $transactions) { foreach ($transactions as $transaction) { - // Use global tracer to trace blocks of inline code + // Utiliza el rastreador global para rastrear bloques del código insertado $span = \DDTrace\start_span(); $span->name = 'BackupLedger.persist'; - // Add custom metadata to the span + // Añade metadatos personalizados al tramo $span->meta['transaction.id'] = $transaction->getId(); $this->transactions[$transaction->getId()] = $transaction; - // Close the span + // Cierra el tramo \DDTrace\close_span(); } @@ -354,19 +361,19 @@ Este ejemplo añade tramos secundarios al tramo `BackupLedger.write` creado ante Ahora que has instrumentado tu lógica de negocio, es el momento de ver los resultados en la UI de la APM Datadog . -1. Ve al **[Service Catalog][1]** (Catálogo de servicios) y haz clic en el servicio al que has añadido tramos personalizados, para abrir su página de servicios. En la página de servicios, haz clic en el **specific resource** (recurso específico) que has añadido, cambia el filtro de tiempo a `The past 15 minutes` y desplázate hacia abajo a la tabla de resumen de tramos: +1. Ve a **[Software Catalog][1]** y haz clic en el servicio al que has añadido spans (tramos) personalizados, para abrir su page (página) de servicio. En la page (página) de servicio, haz clic en el **recurso específico** que has añadido, cambia el filtro de tiempo a `The past 15 minutes` y desplázate hacia abajo hasta la tabla resumen de spans (tramos): {{< img src="tracing/guide/custom_span/custom_span_3.png" alt="Tabla de resumen de tramos" style="width:90%;">}} -La tabla resumen tramos proporciona información agregada sobre los tramos que componen tus rastreos. Aquí puedes identificar tramos que se repiten una cantidad anormal de veces, lo cual indica algún bucle o ineficiencia de acceso a la base de datos (como el problema [`n+1`][2]). +La tabla resumen tramos proporciona información agregada sobre los tramos que componen tus trazas. Aquí puedes identificar tramos que se repiten una cantidad anormal de veces, lo cual indica algún bucle o ineficiencia de acceso a la base de datos (como el problema [`n+1`][2]). -2. Desplázate hacia abajo a **Traces list** (Lista de rastreos) y haz clic en uno de tus rastreos. +2. Desplázate hacia abajo a **Traces list** (Lista de trazas) y haz clic en una de tus trazas. {{< img src="tracing/guide/custom_span/custom_span_4_cropped.png" alt="Vista de análisis" style="width:90%;">}} -Has añadido con éxito tramos personalizados a tu código base, y has hecho que estén disponibles en la gráfica de llamas y en [Análisis de la aplicación][3]. Este es el primer paso para aprovechar al máximo las herramientas de Datadog. Ahora puedes [añadir etiquetas personalizados a tus tramos][4] para hacerlos aún más potentes. +Has añadido con éxito tramos personalizados a tu código base y has hecho que estén disponibles en la gráfica de llamas y en [Análisis de la aplicación][3]. Este es el primer paso para aprovechar al máximo las herramientas de Datadog. Ahora puedes [añadir etiquetas personalizadas a tus tramos][4] para hacerlos aún más potentes. -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/es/tracing/metrics/runtime_metrics/_index.md b/content/es/tracing/metrics/runtime_metrics/_index.md new file mode 100644 index 0000000000000..5a7553fe3b92f --- /dev/null +++ b/content/es/tracing/metrics/runtime_metrics/_index.md @@ -0,0 +1,305 @@ +--- +aliases: +- /es/tracing/advanced/runtime_metrics/ +- /es/tracing/metrics/runtime_metrics/dotnet +- /es/tracing/metrics/runtime_metrics/java +- /es/tracing/metrics/runtime_metrics/nodejs +- /es/tracing/metrics/runtime_metrics/python +- /es/tracing/metrics/runtime_metrics/ruby +- /es/tracing/runtime_metrics/dotnet +- /es/tracing/runtime_metrics/java +- /es/tracing/runtime_metrics/nodejs +- /es/tracing/runtime_metrics/python +- /es/tracing/runtime_metrics/ruby +description: Obtén información adicional sobre el rendimiento de una aplicación con + las métricas de tiempo de ejecución asociadas a tus trazas (traces). +further_reading: +- link: tracing/other_telemetry/connect_logs_and_traces + tag: Documentación + text: Correlacionar logs y trazas +- link: tracing/trace_collection/custom_instrumentation + tag: Documentación + text: Instrumenta tu aplicación de forma manual para crear trazas. +- link: tracing/glossary/ + tag: Documentación + text: Explorar tus servicios, recursos y trazas (traces) +title: Métricas de tiempo de ejecución +--- + +## Información general + +Las métricas de tiempo de ejecución monitorizan el uso de memoria, la recolección de basura y la paralelización de tu aplicación. Las bibliotecas de rastreo de Datadog recopilan automáticamente estas métricas de entornos compatibles y las envían al Agent. + +Estas métricas te permiten identificar cuellos de botella, solucionar problemas de rendimiento y optimizar el uso de los recursos. Al consultar las métricas de tiempo de ejecución junto con las trazas y los logs, obtendrás una visibilidad completa del estado y el rendimiento de tu aplicación. + +## Compatibilidad + +Las métricas de tiempo de ejecución están disponibles para varios lenguajes de programación y tiempos de ejecución, con distintos niveles de compatibilidad y opciones de configuración. + +{{< tabs >}} +{{% tab "Java" %}} + +- **Activado por defecto**: Sí +- **Versión de la biblioteca**: 0.29.0 o posterior +- **Tiempos de ejecución**: Java 8 o posterior + +
La recopilación de métricas de JMX no es compatible con los entornos AWS Lambda.
+ +{{% /tab %}} + +{{% tab "Python" %}} + + - **Activado por defecto**: No + - **Versión de la biblioteca**: 0.30.0 o posterior + - **Nivel de compatibilidad**: Vista previa + - **Tiempos de ejecución**: Todas las versiones de Python compatibles + +{{% /tab %}} + +{{% tab "Ruby" %}} + + - **Activado por defecto**: No + - **Versión de la biblioteca**: 0.44.0 o posterior + - **Tiempos de ejecución**: Todas las versiones de Ruby compatibles + + +
Debes añadir la gema dogstatsd-ruby a tu aplicación.
+ +{{% /tab %}} + +{{% tab "Go" %}} + + - **Activado por defecto**: No + - **Versión de la biblioteca**: 1.18.0 o posterior + - **Tiempos de ejecución**: Todas las versiones de Go compatibles + +{{% /tab %}} + +{{% tab "Node.js" %}} + + - **Activado por defecto**: No + - **Versión de la biblioteca**: 3.0.0 o posterior + - **Tiempos de ejecución**: Todas las versiones de Node.js compatibles + +{{% /tab %}} + +{{% tab ".NET" %}} + + - **Activado por defecto**: No + - **Versión de la biblioteca**: 1.23.0 o posterior + - **Tiempos de ejecución**: .NET Framework 4.6.1 o posterior y .NET Core 3.1 o posterior (incluyendo .NET 5 y posteriores). + +#### Permisos para Internet Information Services (IIS) + +En .NET Framework, las métricas se recopilan mediante contadores de rendimiento. Los usuarios en sesiones de inicio de sesión no interactivas (que incluyen cuentas de grupos de aplicaciones IIS y algunas cuentas de servicio) deben añadirse al grupo **Usuarios de monitorización de rendimiento** para acceder a los datos del contador. + +Los grupos de aplicaciones IIS utilizan cuentas especiales que no aparecen en lista de usuarios. Para añadirlas al grupo de usuarios de monitorización de rendimiento, busca `IIS APPPOOL\`. Por ejemplo, el usuario para el DefaultAppPool sería `IIS APPPOOL\DefaultAppPool`. + +Puedes hacer esto desde la interfaz de usuario "Gestión de ordenadores" o desde una acción de comando del administrador: + +```shell +net localgroup "Performance Monitor Users" "IIS APPPOOL\DefaultAppPool" /add +``` + +{{% /tab %}} +{{% tab "PHP" %}} + +
No se admiten métricas en tiempo de ejecución para PHP.
+ +{{% /tab %}} +{{% tab "C++" %}} + +
No se admiten métricas en tiempo de ejecución para C++.
+ +{{% /tab %}} +{{< /tabs >}} + +## Instrucciones de instalación + +Para configurar las métricas en tiempo de ejecución, debes configurar tanto el Datadog Agent como tu aplicación. + +### 1. Configurar el Datadog Agent + +Habilita [DogStatsD para el Agent][2]. Por defecto, el Datadog Agent está configurado para ingerir métricas con UDP a través del puerto `8125`. + +{{% collapse-content title="Configuración específica de contenedor" level="h4" expanded=false %}} + +Cuando el Agent se ejecuta en entornos de contenedores, es necesaria una configuración adicional: + +1. Define `dogstatsd_non_local_traffic: true` en tu [archivo de configuración principal`datadog.yaml`][8], o define la [variable de entorno][3] `DD_DOGSTATSD_NON_LOCAL_TRAFFIC=true`. +2. Sigue estas instrucciones de configuración específica de contenedor: + +{{< partial name="apm/apm-runtime-metrics-containers.html" >}} + +
+ +{{< site-region region="us3,us5,eu,gov,ap1,ap2" >}} + +3. Define `DD_SITE` en el Datadog Agent como {{< region-param key="dd_site" code="true" >}} para asegurarte de que el Agent envía los datos a la localización Datadog correcta. + +{{< /site-region >}} + +{{% /collapse-content %}} + +### 2. Configurar la aplicación + +Configura las métricas de tiempo de ejecución en tu aplicación utilizando variables de entorno. Algunos lenguajes también permiten configurar métricas de tiempo de ejecución [directamente en el código](#code-based-configuration). + +#### Variables de entorno + +Utiliza las siguientes variables de entorno para configurar métricas de tiempo de ejecución en tu aplicación: + +`DD_RUNTIME_METRICS_ENABLED` +: **Por defecto**: `true` para Java, `false` para todos los demás lenguajes
+**Descripción**: Activa la recopilación de métricas de tiempo de ejecución. Las métricas se envían al Datadog Agent, según lo configurado para la aplicación instrumentada. + +`DD_RUNTIME_METRICS_RUNTIME_ID_ENABLED` +: **Por defecto**: `true` para Java, `false` para Node.js, Ruby y Python. No existe para .NET y Go. Siempre se indica `runtime_id`.
+**Descripción**: Habilita métricas en tiempo de ejecución mejoradas, proporcionando una etiqueta (tag) `runtime_id` junto con cada métrica. `runtime_id` representa el identificador de procesos de la aplicación y te permite correlacionar directamente las métricas de tiempo de ejecución con aplicaciones individuales en ejecución. + +`DD_AGENT_HOST` +: **Por defecto**: `localhost`
+**Descripción**: Define la dirección del host para el envío de métricas de la biblioteca de rastreo. Puede ser un nombre de host o una dirección IP. + +`DD_DOGSTATSD_PORT` +: **Por defecto**: `8125`
+**Descripción**: Define el puerto para el envío de métricas de la biblioteca de rastreo. + +#### Configuración basada en códigos + +Además de las variables de entorno, algunos lenguajes permiten configurar métricas de tiempo de ejecución directamente en el código. + +{{< tabs >}} +{{% tab "Java" %}} + +Sólo puedes activar las métricas de tiempo de ejecución con [variables de entorno](#environment-variables). + +Sin embargo, puedes ampliar las métricas recopiladas añadiendo métricas JMX personalizadas. Para obtener más información, consulta la documentación de la [integración JMX][100]. + +[100]: /es/integrations/java/ +{{% /tab %}} + +{{% tab "Python" %}} + +Puedes activar las métricas de tiempo de ejecución con [variables de entorno](#environment-variables) o en código: + +```python +from ddtrace.runtime import RuntimeMetrics +RuntimeMetrics.enable() +``` + +
Esto sólo se aplica si no estás utilizando ddtrace-run
+{{% /tab %}} + +{{% tab "Ruby" %}} + +Puedes activar las métricas de tiempo de ejecución con [variables de entorno](#environment-variables) o en código: + +```ruby +# config/initializers/datadog.rb +require 'datadog/statsd' +require 'datadog' # Use 'ddtrace' if you're using v1.x + +Datadog.configure do |c| + c.runtime_metrics.enabled = true + + # Optionally, you can configure the DogStatsD instance used for sending runtime metrics. + # DogStatsD is automatically configured with default settings if `dogstatsd-ruby` is available. + # You can configure with host and port of Datadog agent; defaults to 'localhost:8125'. + c.runtime_metrics.statsd = Datadog::Statsd.new +end +``` +{{% /tab %}} + +{{% tab "Go" %}} + +Puedes activar las métricas de tiempo de ejecución con [variables de entorno](#environment-variables) o en código: + +```go +// Basic configuration +tracer.Start(tracer.WithRuntimeMetrics()) + +// With custom DogStatsD address +tracer.Start( + tracer.WithRuntimeMetrics(), + tracer.WithDogstatsdAddr("custom-host:8125") +) +``` + +La opción `WithDogstatsdAddr` te permite especificar una dirección personalizada para el servidor DogStatsD. Utiliza la opción [`WithDogstatsdAddr`][101] (o [`WithDogstatsdAddress` v1][100]), si tu dirección difiere de la predeterminada `localhost:8125`. (Disponible para la v1.18.0 o posterior) + +[100]: https://pkg.go.dev/gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer#WithDogstatsdAddress +[101]: https://pkg.go.dev/github.com/DataDog/dd-trace-go/v2/ddtrace/tracer#WithDogstatsdAddr +{{% /tab %}} + +{{% tab "Node.js" %}} + +Puedes activar las métricas de tiempo de ejecución con [variables de entorno](#environment-variables) o en código: + +```js +const tracer = require('dd-trace').init({ + // Other tracer options... + runtimeMetrics: true +}) +``` +{{% /tab %}} + +{{% tab ".NET" %}} + +Sólo puedes activar las métricas de tiempo de ejecución con [variables de entorno](#environment-variables). + +{{% /tab %}} +{{< /tabs >}} + +## Dashboards + +Una vez finalizada la configuración, puedes ver las métricas de tiempo de ejecución en: + +- Página con información del servicio instrumentado +- Pestaña **Métricas** del gráfico de llama +- Dashboards de tiempo de ejecución por defecto + +{{< img src="tracing/runtime_metrics/jvm_runtime_trace.png" alt="Traza de tiempo de ejecución de JVM" >}} + +## Solucionar problemas +- Para asociar métricas de tiempo de ejecución dentro de los gráficos de llama, asegúrate de que la etiqueta `env` (que distingue entre mayúsculas y minúsculas) está configurada y coincide en todo tu entorno. +- Para que las métricas de tiempo de ejecución aparezcan en la página del servicio al utilizar Fargate, asegúrate de que `DD_DOGSTATSD_TAGS` está configurado en la tarea de tu Agent y que la etiqueta `env` configurada coincide con la `env` del servicio instrumentado. + +## Datos recopilados + +Cada lenguaje compatible recopila un conjunto de métricas de tiempo de ejecución que proporcionan información sobre el uso de la memoria, la recolección de basura, el uso de la CPU y otros indicadores de rendimiento. + +{{< tabs >}} +{{< tab "Java" >}} +{{< get-metrics-from-git "java" >}} +{{< /tab >}} + +{{< tab "Python" >}} +{{< get-metrics-from-git "python" >}} +{{< /tab >}} + +{{< tab "Ruby" >}} +{{< get-metrics-from-git "ruby" >}} +{{< /tab >}} + +{{< tab "Go" >}} +{{< get-metrics-from-git "go" >}} +{{< /tab >}} + +{{< tab "Node.js" >}} +{{< get-metrics-from-git "node" >}} +{{< /tab >}} + +{{< tab ".NET" >}} +{{< get-metrics-from-git "dotnet" >}} +{{< /tab >}} +{{< /tabs >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[2]: /es/developers/dogstatsd/#setup +[3]: /es/agent/docker/#dogstatsd-custom-metrics +[7]: /es/developers/dogstatsd/unix_socket/ +[8]: /es/agent/configuration/agent-configuration-files/#main-configuration-file \ No newline at end of file diff --git a/content/es/tracing/services/deployment_tracking.md b/content/es/tracing/services/deployment_tracking.md index 3e1245a9517a5..ae6413abf9912 100644 --- a/content/es/tracing/services/deployment_tracking.md +++ b/content/es/tracing/services/deployment_tracking.md @@ -8,13 +8,13 @@ further_reading: - link: getting_started/tagging/unified_service_tagging/ tag: Documentación text: Más información sobre el etiquetado de servicios unificado y las etiquetas - (tags) reservadas + reservadas - link: tracing/app_analytics tag: Documentación text: Utiliza la versión como una dimensión en tus consultas a App Analytics title: Rastreo de despliegue --- -## La etiqueta de versión +## La etiqueta "version" (versión) La etiqueta `version` está reservada dentro del etiquetado de servicios unificado. Se aplica a métricas de infraestructura (host, contenedor, proceso, y checks de NPM), métricas de traza ( trace), trazas (traces), perfiles y logs. @@ -53,10 +53,10 @@ Un servicio configurado con etiquetas `version` tiene una sección de versión e Por defecto, verás: - Los nombres de las versiones desplegadas para este servicio a lo largo del tiempo. -- Las horas a las que trazas que corresponden a esta versión fueron vistas por primera y última vez. +- Las horas a las que las trazas que corresponden a esta versión fueron vistas por primera y última vez. - Un indicador de Error Types (Tipos de error), que muestra cuántos tipos de error aparecen en cada versión que no aparecían en la versión inmediatamente anterior. - > **Nota:** Este indicador muestra errores que no se veían en trazas de la versión anterior. No significa que esta versión haya introducido necesariamente estos errores. Buscar nuevos tipos de error puede ser una buena forma de empezar a investigar errores. + > **Nota:** Este indicador muestra errores que no se veían en trazas de la versión anterior. No significa que esta versión haya introducido necesariamente estos errores. Buscar nuevos tipos de error puede ser una buena forma de empezar a investigar errores. - Solicitudes por segundo. - Porcentaje de errores sobre el total de solicitudes. @@ -70,11 +70,11 @@ Puedes añadir o eliminar columnas de este cuadro y tus selecciones se guardará - Número total de errores. - Latencia medida por p50, p75, p90, p95, p99 o máx. -{{< img src="tracing/deployment_tracking/VersionComparison.png" alt="Versiones en la Página de servicios" style="width:100%;">}} +{{< img src="tracing/deployment_tracking/VersionComparison.png" alt="Versiones en la página de servicios" style="width:100%;">}} **Nota:** La sección de versiones solo aparece si hay más de una versión informando durante el intervalo de tiempo seleccionado en la parte superior de la página. -## Comparación del despliegue +## Comparación de despliegues Haz clic en cualquier fila de la tabla de resumen de versiones para abrir una página de comparación de versiones, que te permitirá comparar dos versiones del mismo servicio. Por defecto, la versión seleccionada se comparará con la versión inmediatamente anterior, pero puedes cambiar esto para comparar dos versiones cualesquiera de los últimos 30 días. @@ -222,13 +222,13 @@ Tiempo = 30 : `{service: foo, env: staging, cluster-name: us-staging, version: Y}` Tiempo = 45 -: `{service: foo, env: dev-shopist, cluster-name: us-staging, version: Y}` +: `{service: foo, env: staging, cluster-name: dev-shopist, version: Y}` Tiempo máximo entre despliegues: : `max:datadog.service.time_between_deployments{env: staging, cluster-name: *} = 25` -## Leer más +## Referencias adicionales {{< partial name="whats-next/whats-next.html" >}} diff --git a/content/fr/agent/_index.md b/content/fr/agent/_index.md index c6445e3ab20df..60bae0815d2d2 100644 --- a/content/fr/agent/_index.md +++ b/content/fr/agent/_index.md @@ -6,13 +6,13 @@ aliases: - /fr/agent/faq/the-datadog-agent-for-logs-or-traces-only cascade: - _target: - path: /agent/basic_agent_usage/chef lang: fr + path: /agent/basic_agent_usage/chef tags: - uninstall - _target: - path: /infrastructure/**/* lang: fr + path: /infrastructure/**/* algolia: rank: 80 tags: @@ -41,7 +41,7 @@ title: Agent L'Agent v7 est disponible. Passez à la dernière version pour profiter des nouvelles fonctionnalités.
-## Présentation +## Section Overview L'Agent Datadog est un logiciel qui s'exécute sur vos hosts. Il recueille les événements et les métriques des hosts et les envoie à la plateforme Datadog, à partir de laquelle vous pouvez analyser vos données de surveillance et de performance. L'Agent Datadog est open source et son code source est disponible sur GitHub dans [DataDog/datadog-agent][1]. diff --git a/content/fr/agent/configuration/agent-configuration-files.md b/content/fr/agent/configuration/agent-configuration-files.md new file mode 100644 index 0000000000000..a7b916e446adf --- /dev/null +++ b/content/fr/agent/configuration/agent-configuration-files.md @@ -0,0 +1,76 @@ +--- +algolia: + category: guide + rank: 80 + subcategory: Fichiers de configuration de l'Agent + tags: + - configuration de l'agent + - configuration de l'agent + - répertoire de l’agent +aliases: +- /fr/agent/faq/agent-configuration-files +- /fr/agent/guide/agent-configuration-files +title: Fichiers de configuration de l'Agent +--- + +## Fichier de configuration principal + +L'emplacement du fichier de configuration de l'Agent dépend du système d'exploitation. + +| Plateforme | Commande | +|:-------------------------------------|:-------------------------------------| +| AIX | `/etc/datadog-agent/datadog.yaml` | +| Linux | `/etc/datadog-agent/datadog.yaml` | +| macOS | `~/.datadog-agent/datadog.yaml` | +| Windows | `%ProgramData%\Datadog\datadog.yaml` | + +Consultez le [fichier d'exemple 'config_template.yaml'][1] pour découvrir toutes les options de configuration disponibles. + +## Répertoire de configuration de l'Agent + +Les fichiers de checks des vérifications de l'Agent et des intégrations sont stockés dans le répertoire 'conf.d'. L'emplacement de ce répertoire varie selon le système d'exploitation. + +| Plateforme | Commande | +|:-------------------------------------|:-------------------------------| +| AIX | `/etc/datadog-agent/conf.d/` | +| Linux | `/etc/datadog-agent/conf.d/` | +| CentOS | `/etc/datadog-agent/conf.d/` | +| Debian | `/etc/datadog-agent/conf.d/` | +| Fedora | `/etc/datadog-agent/conf.d/` | +| macOS | `~/.datadog-agent/conf.d/` | +| RedHat | `/etc/datadog-agent/conf.d/` | +| Source | `/etc/datadog-agent/conf.d/` | +| Suse | `/etc/datadog-agent/conf.d/` | +| Ubuntu | `/etc/datadog-agent/conf.d/` | +| Windows | `%ProgramData%\Datadog\conf.d` | + +**Remarque** : les fichiers de taille nulle dans ce répertoire sont ignorés par l'Agent. Cela permet de prendre en charge les systèmes de provisioning qui ne permettent pas d'ignorer les fichiers modèles vides. + +### Fichiers de configuration des checks + +Pour chaque check de l'Agent, un exemple de configuration se trouve dans le fichier `conf.yaml.example` du dossier `.d/` correspondant. Renommez ce fichier `conf.yaml` pour activer le check associé. **Remarque** : l'Agent charge tous les fichiers YAML valides qui se trouvent dans le dossier `/etc/datadog-agent/conf.d/.d/`. Cela permet de décomposer les configurations complexes en plusieurs fichiers. Voici un exemple de configuration de `http_check` : + +```text +/etc/datadog-agent/conf.d/http_check.d/ +├── backend.yaml +└── frontend.yaml +``` + +Les fichiers YAML avec le suffixe `.default` fonctionnent différemment. Ils sont chargés par défaut par l'Agent et aident à définir l'ensemble des checks de base qui sont toujours activés (processeur, mémoire, disponibilité, etc.). Lorsqu'un check comporte une autre configuration, ces fichiers YAML sont ignorés. Vous n'avez donc pas à vous en soucier. Si vous souhaitez désactiver l'un des checks par défaut, supprimez ce fichier YAML. Pour configurer ces checks, les fichiers `conf.yaml.example` doivent être utilisés comme point de départ. + +Les fichiers de modèle Autodiscovery sont stockés dans le répertoire de configuration avec le fichier `auto_conf.yaml`. Par exemple, pour le check Redis, la configuration dans `redisdb.d/` est la suivante : + +```text +/etc/datadog-agent/conf.d/redisdb.d/ +├── auto_conf.yaml +└── conf.yaml.example +``` + +Pour la collecte de logs, l'Agent n'accepte pas plusieurs fichiers YAML pointant vers la même source de logs, afin d'empêcher l'envoi de logs en double à Datadog. Si plusieurs fichiers YAML pointent vers la même source de logs, l'Agent récupère les fichiers dans l'ordre alphabétique et utilise le premier fichier. + +## Fichier de configuration JMX + +Les checks de l'Agent JMX ont un fichier `metrics.yaml` supplémentaire dans leur répertoire de configuration. Il s'agit d'une liste de tous les beans recueillis par défaut par l'Agent Datadog. De cette manière, vous n'avez pas besoin d'énumérer manuellement tous les beans lorsque vous configurez un check avec les [étiquettes Docker ou les annotations Kubernetes][2]. + +[1]: https://github.com/DataDog/datadog-agent/blob/master/pkg/config/config_template.yaml +[2]: /fr/agent/kubernetes/integrations/#configuration \ No newline at end of file diff --git a/content/fr/containers/kubernetes/installation.md b/content/fr/containers/kubernetes/installation.md index 04876f8bf853f..8fe8e2ea294ee 100644 --- a/content/fr/containers/kubernetes/installation.md +++ b/content/fr/containers/kubernetes/installation.md @@ -4,387 +4,312 @@ aliases: - /fr/agent/kubernetes/helm - /fr/agent/kubernetes/installation further_reading: -- link: infrastructure/livecontainers/ - tag: Documentation - text: Live containers - link: /agent/kubernetes/configuration tag: Documentation - text: Configurer l'Agent Datadog sur Kubernetes -- link: /agent/kubernetes/integrations - tag: Documentation - text: Configurer des intégrations -- link: /agent/kubernetes/apm - tag: Documentation - text: Recueillir les traces de vos applications -- link: agent/kubernetes/log - tag: Documentation - text: Recueillir les logs de votre application -- link: /agent/kubernetes/tag - tag: Documentation - text: Assigner des tags à toutes les données émises par un conteneur, un pod ou - un nœud + text: Configuration avancée de l'Agent Datadog sur Kubernertes +- link: https://github.com/DataDog/helm-charts/blob/main/charts/datadog/README.md#all-configuration-options + tag: Code source + text: Chart Helm Datadog - Toutes les options de configuration +- link: https://github.com/DataDog/helm-charts/blob/main/charts/datadog/README.md#upgrading + tag: Code source + text: Mise à niveau du chart Helm Datadog title: Installer l'Agent Datadog sur Kubernetes --- -## Installation - -Cette page décrit la marche à suivre pour installer l'Agent Datadog dans un environnement Kubernetes. Vous pouvez choisir l'une des trois ressources suivantes : +## Présentation -- Operator Datadog -- Chart Helm -- DaemonSet +Cette page fournit des instructions pour installer l’Agent Datadog dans un environnement Kubernetes. Pour parcourir la documentation dédiée aux principales distributions Kubernetes, y compris AWS Elastic Kubernetes Service (EKS), Azure Kubernetes Service (AKS), Google Kubernetes Engine (GKE), Red Hat OpenShift, Rancher et Oracle Container Engine pour Kubernetes (OKE) et découvrir des exemples, référez-vous à la section [Distributions Kubernetes][1]. Pour parcourir la documentation dédiée à la surveillance du plan de contrôle Kubernetes ainsi que des exemples, consultez la section [Surveillance du plan de contrôle Kubernetes][2]. -### Versions minimales de l'Agent et de l'Agent de cluster +### Versions minimales de Kubernetes et de l'Agent Datadog Pour utiliser certaines fonctionnalités des versions récentes de Kubernetes, vous devez exécuter des versions minimales de l'Agent Datadog et de l'Agent de cluster. -| Version de Kubernetes | Version de l'Agent | Version de l'Agent de cluster | Raison | -|--------------------|----------------|-----------------------|---------------------------------------| -| 1.16.0+ | 7.19.0+ | 1.9.0+ | Obsolescence des métriques Kubelet | -| 1.21.0+ | 7.36.0+ | 1.20.0+ | Obsolescence des ressources Kubernetes | +| Version de Kubernetes | Version de l'Agent | Raison | +| ------------------ | ------------- | ------------------------------------- | +| 1.16.0+ | 7.19.0+ | Obsolescence des métriques Kubelet | +| 1.21.0+ | 7.36.0+ | Obsolescence des ressources Kubernetes | +| 1.22.0+ | 7.37.0+ | Prise en charge du token de compte de service dynamique | -{{< tabs >}} -{{% tab "Operator" %}} +Voir aussi : [Versions minimales de Kubernetes et de l'Agent de cluster][8]. -
L'Operator Datadog est disponible pour le grand public depuis la version `1.0.0`, il prend en charge la version `v2alpha1` du `DatadogAgent` .
- -[L'Operator Datadog][1] est une fonctionnalité permettant de déployer l'Agent Datadog sur Kubernetes et OpenShift. L'Operator transmet des données sur le statut, la santé et les erreurs du déploiement dans le statut de sa ressource personnalisée. Ses paramètres de niveau supérieur permettent également de réduire les erreurs de configuration. +## Installation -## Prérequis +Aidez-vous de la page [Installation sur Kubernetes][16] dans Datadog pour vous guider tout au long du processus d'installation. -L'utilisation de l'Operator Datadog nécessite les prérequis suivants : +1. **Sélectionner la méthode d'installation** -- **Cluster Kubernetes version >= v1.20.X** : les tests ont été réalisés sur les versions >= `1.20.0`. Néanmoins, les versions `>= v1.11.0` devraient également fonctionner. Pour les versions plus anciennes, en raison de la prise en charge limitée de la CRD, il se peut que l'Operator ne fonctionne pas comme prévu. -- [`Helm`][2] pour le déploiement de `datadog-operator`. -- [Interface de ligne de commande `Kubectl`][3] pour l'installation de `datadog-agent`. + Choisissez l'une des méthodes d'installation suivantes : -## Déployer un Agent avec l'Operator + - [Datadog Operator][9] (recommandé) : un [operator][10] Kubernetes que vous pouvez utiliser pour déployer l'Agent Datadog sur Kubernetes et OpenShift. Il indique l'état du déploiement, la santé et les erreurs dans le statut de sa Custom Resource, et réduit le risque de mauvaise configuration grâce à des options de configuration de plus haut niveau. + - [Helm][11] + - Installation manuelle. Consultez la rubrique [Manually install and configure the Datadog Agent with a DaemonSet][12] (en anglais) -Pour déployer l'Agent Datadog avec l'Operator le plus rapidement possible, consultez le chart Helm [`datadog-operator`][4]. Voici la marche à suivre : +{{< tabs >}} +{{% tab "Operator Datadog" %}} +
Nécessite Helm et le CLI kubectl.
-1. Installez l'[Operator Datadog][5] : +2. **Installer l'Operator Datadog** + Pour installer l'Operator Datadog dans votre espace de nommage actuel, exécutez : ```shell helm repo add datadog https://helm.datadoghq.com - helm install my-datadog-operator datadog/datadog-operator + helm install datadog-operator datadog/datadog-operator + kubectl create secret generic datadog-secret --from-literal api-key= ``` - -2. Créez un secret Kubernetes avec vos clés d'API et d'application. - - ```shell - kubectl create secret generic datadog-secret --from-literal api-key= --from-literal app-key= + - Remplacez `` par votre [clé d'API Datadog][1]. + +3. **Configurer `datadog-agent.yaml`** + + Créez un fichier `datadog-agent.yaml` contenant : + ```yaml + apiVersion: datadoghq.com/v2alpha1 + kind: DatadogAgent + metadata: + name: datadog + spec: + global: + clusterName: + site: + credentials: + apiSecret: + secretName: datadog-secret + keyName: api-key ``` - Remplacez `` et `` par vos [clés d'API et d'application Datadog][6]. + - Remplacez `` par un nom pour votre cluster. + - Remplacez `` par votre [site Datadog][2]. Votre site est {{< region-param key="dd_site" code="true" >}}. (Assurez-vous que le bon site est sélectionné à droite.) -2. Créez un fichier avec les spécifications de la configuration de déploiement de votre Agent Datadog. Voici la configuration la plus simple : +4. **Déployer l'Agent avec le fichier de configuration ci-dessus** -```yaml -kind: DatadogAgent -apiVersion: datadoghq.com/v2alpha1 -metadata: - name: datadog -spec: - global: - credentials: - apiSecret: - secretName: datadog-secret - keyName: api-key - appSecret: - secretName: datadog-secret - keyName: app-key - override: - clusterAgent: - image: - name: gcr.io/datadoghq/cluster-agent:latest - nodeAgent: - image: - name: gcr.io/datadoghq/agent:latest -``` - -3. Déployez l'Agent Datadog avec le fichier de configuration ci-dessus : + Exécutez : ```shell - kubectl apply -f /path/to/your/datadog-agent.yaml + kubectl apply -f datadog-agent.yaml ``` -## Nettoyage - -La commande suivante permet de supprimer toutes les ressources Kubernetes créées par les instructions ci-dessus : - -```shell -kubectl delete datadogagent datadog -helm delete my-datadog-operator -``` - -Pour en savoir plus sur la configuration de l'Operator, notamment sur l'utilisation de tolérances, consultez le [guide de configuration avancée de l'Operator Datadog][7]. - -## Sans privilèges - -(Facultatif) Pour exécuter une installation sans privilèges, ajoutez le bloc suivant à la [ressource personnalisée Datadog][8] : - -```yaml -kind: DatadogAgent -apiVersion: datadoghq.com/v2alpha1 -metadata: - name: placeholder - namespace: placeholder -spec: - override: - nodeAgent: - securityContext: - runAsUser: 1 # - supplementalGroups: - - 123 # -``` - -`` correspond à l'UID utilisé pour exécuter l'agent et `` à l'ID du groupe auquel appartient le socket containerd ou Docker. - -## Registres de conteneurs - -Pour modifier le registre d'image de conteneur, consultez le guide [Modifier votre registre de conteneurs][9]. - -[1]: https://github.com/DataDog/datadog-operator -[2]: https://helm.sh -[3]: https://kubernetes.io/docs/tasks/tools/install-kubectl/ -[4]: https://github.com/DataDog/helm-charts/tree/master/charts/datadog-operator -[5]: https://artifacthub.io/packages/helm/datadog/datadog-operator -[6]: https://app.datadoghq.com/organization-settings/api-keys -[7]: /fr/agent/guide/operator-advanced -[8]: https://github.com/DataDog/datadog-operator/blob/main/docs/configuration.md -[9]: /fr/agent/guide/changing_container_registry/#kubernetes-with-the-datadog-operator +[1]: https://app.datadoghq.com/organization-settings/api-keys +[2]: /fr/getting_started/site {{% /tab %}} {{% tab "Helm" %}} +
Requires Helm.
-Pour installer le chart avec un nom de version `` personnalisé (par exemple, `datadog-agent`) : - -1. [Installez Helm][1]. -2. Créez votre fichier `values.yaml` en vous référant au [fichier de configuration `values.yaml` Datadog][2]. Datadog vous conseille d'utiliser uniquement des valeurs qui doivent être remplacées, afin de faciliter la mise à niveau du chart. -3. S'il s'agit d'une nouvelle installation, ajoutez le référentiel Helm Datadog : - ```bash - helm repo add datadog https://helm.datadoghq.com - helm repo update - ``` -4. Récupérez votre clé d'API Datadog à partir des [instructions d'installation de l'Agent][3] et exécutez ce qui suit : +2. **Add the Datadog Helm repository** -- **Helm v3 et ultérieur** - - ```bash - helm install -f values.yaml --set datadog.apiKey= datadog/datadog --set targetSystem= - ``` + Run: + ```shell + helm repo add datadog https://helm.datadoghq.com + helm repo update + kubectl create secret generic datadog-secret --from-literal api-key= + ``` - Remplacez `` par le nom de votre système d'exploitation : `linux` ou `windows`. + - Replace `` with your [Datadog API key][1]. -- **Helm v1 ou v2** +3. **Configure `datadog-values.yaml`** - ```bash - helm install -f values.yaml --name --set datadog.apiKey= datadog/datadog - ``` + Create a file, `datadog-values.yaml`, that contains: + ```yaml + datadog: + apiKeyExistingSecret: datadog-secret + site: + ``` -Ce chart ajoute l'Agent Datadog à l'ensemble des nœuds dans votre cluster avec un DaemonSet. Il peut également déployer le [chart kube-state-metrics][4] et l'utiliser comme source supplémentaire de métriques concernant le cluster. Quelques minutes après l'installation, Datadog commence à transmettre les hosts et les métriques. + - Replace `` with your [Datadog site][2]. Your site is {{< region-param key="dd_site" code="true" >}}. (Ensure the correct SITE is selected on the right). -Activez ensuite les fonctionnalités Datadog que vous souhaitez utiliser, comme l'[APM][5] ou les [logs][6]. +4. **Deploy Agent with the above configuration file** -**Remarques** : + Run: -- Pour obtenir la liste complète des paramètres configurables pour le chart Datadog et leurs valeurs par défaut, consultez le [README du référentiel Helm Datadog][7]. + ```shell + helm install datadog-agent -f datadog-values.yaml datadog/datadog + ``` -### Registres de conteneurs +
+ For Windows, append --set targetSystem=windows to the helm install command. +
-Si Google Container Registry ([gcr.io/datadoghq][8]) n'est pas accessible dans votre région de déploiement, utilisez un autre registre avec la configuration suivante dans le fichier `values.yaml` : +[1]: https://app.datadoghq.com/organization-settings/api-keys +[2]: /fr/getting_started/site -- Pour le registre AWS ECR public ([public.ecr.aws/datadog][9]), utilisez la commande suivante : +{{% /tab %}} +{{< /tabs >}} - ```yaml - registry: public.ecr.aws/datadog - ``` +5. **Confirm Agent installation** -- Pour le registre Docker Hub ([docker.io/datadog][10]), utilisez la commande suivante : + Verify that Agent pods (tagged with `app.kubernetes.io/component:agent`) appear on the [Containers][13] page in Datadog. Agent pods are detected within a few minutes of deployment. - ```yaml - registry: docker.io/datadog - ``` +
-**Remarques** : +<CLUSTER_NAME> allows you to scope hosts and Cluster Checks. This unique name must be dot-separated tokens and abide by the following restrictions: +
    +
  • Must only contain lowercase letters, numbers, and hyphens +
  • Must start with a letter +
  • Must end with a number or a letter +
  • Must be less than or equal to 80 characters +
+
-- Si vous déployez le chart Datadog dans un environnement AWS, il est conseillé d'utiliser le registre AWS ECR public ([public.ecr.aws/datadog][9]). +### Unprivileged installation -### Mise à niveau depuis le chart v1.x +{{< tabs >}} +{{% tab "Datadog Operator" %}} +To run an unprivileged installation, add the following to `datadog-agent.yaml`: -Le chart Datadog a été réusiné dans la v2.0 afin de regrouper plus logiquement les paramètres du fichier `values.yaml`. +{{< highlight yaml "hl_lines=13-18" >}} +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + clusterName: + site: + credentials: + apiSecret: + secretName: datadog-secret + keyName: api-key +agent: + config: + securityContext: + runAsUser: + supplementalGroups: + - +{{< /highlight >}} -Si vous déployez actuellement un chart antérieur à `v2.0.0`, suivez le [guide de migration][11] (en anglais) afin de mapper vos anciens paramètres avec les nouveaux champs. +- Replace `` with the UID to run the Datadog Agent. Datadog recommends [setting this value to 100 since Datadog Agent v7.48+][1]. +- Replace `` with the group ID that owns the Docker or containerd socket. -### Core kube-state-metrics dans les charts v2.x +[1]: /fr/data_security/kubernetes/#running-container-as-root-user -Dans les nouveaux déploiements, Datadog recommande d'utiliser le nouveau core `kube-state-metrics` avec les valeurs suivantes : +Then, deploy the Agent: -```yaml -... -datadog: -... - kubeStateMetricsCore: - enabled: true -... +```shell +kubectl apply -f datadog-agent.yaml ``` -Pour en savoir plus sur le core `kube-state-metrics`, consultez la [documentation dédiée][12]. - -### Sans privilèges - -(Facultatif) Pour exécuter une installation sans privilèges, ajoutez le bloc suivant au fichier `values.yaml` : +{{% /tab %}} +{{% tab "Helm" %}} +To run an unprivileged installation, add the following to your `datadog-values.yaml` file: -```yaml +{{< highlight yaml "hl_lines=4-7" >}} datadog: + apiKeyExistingSecret: datadog-secret + site: securityContext: - runAsUser: + runAsUser: supplementalGroups: - - -``` - -`` correspond à l'UID utilisé pour exécuter l'agent et `` à l'ID du groupe auquel appartient le socket containerd ou docker. - -[1]: https://v3.helm.sh/docs/intro/install/ -[2]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/values.yaml -[3]: https://app.datadoghq.com/organization-settings/api-keys -[4]: https://github.com/prometheus-community/helm-charts/tree/main/charts/kube-state-metrics -[5]: /fr/agent/kubernetes/apm?tab=helm -[6]: /fr/agent/kubernetes/log?tab=helm -[7]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog -[8]: https://gcr.io/datadoghq -[9]: https://gallery.ecr.aws/datadog/ -[10]: https://hub.docker.com/u/datadog/ -[11]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/docs/Migration_1.x_to_2.x.md -[12]: /fr/integrations/kubernetes_state_core -{{% /tab %}} -{{% tab "DaemonSet" %}} - -Tirez profit des DaemonSets pour déployer l'Agent Datadog sur l'ensemble de vos nœuds (ou sur un nœud donné grâce [aux nodeSelectors][1]). - -Pour installer l'Agent Datadog sur votre cluster Kubernetes : - -1. **Configurez les autorisations de l'Agent** : si le contrôle d'accès basé sur des rôles (RBAC) est activé pour votre déploiement Kubernetes, configurez les autorisations RBAC pour le compte de service de votre Agent Datadog. Depuis la version 1.6 de Kubernetes, le RBAC est activé par défaut. Créez les ClusterRole, ServiceAccount et ClusterRoleBinding appropriés à l'aide de la commande suivante : + - +{{< /highlight >}} - ```shell - kubectl apply -f "https://raw.githubusercontent.com/DataDog/datadog-agent/master/Dockerfiles/manifests/rbac/clusterrole.yaml" +- Replace `` with the UID to run the Datadog Agent. +- Replace `` with the group ID that owns the Docker or containerd socket. - kubectl apply -f "https://raw.githubusercontent.com/DataDog/datadog-agent/master/Dockerfiles/manifests/rbac/serviceaccount.yaml" +Then, deploy the Agent: - kubectl apply -f "https://raw.githubusercontent.com/DataDog/datadog-agent/master/Dockerfiles/manifests/rbac/clusterrolebinding.yaml" - ``` - - **Remarque** : ces configurations RBAC sont définies pour l'espace de nommage `default`. Si vous utilisez un espace de nommage personnalisé, modifiez le paramètre `namespace` avant d'appliquer les configurations. - - -2. **Créez le manifeste de l'Agent Datadog**. Créez le manifeste `datadog-agent.yaml` à partir de l'un des modèles suivants : - - | Métriques | Logs | APM | Processus | NPM | Sécurité | Linux | Windows | - |---------------------------|---------------------------|---------------------------|---------------------------|---------------------------|-------------------------|-------------------------|-------------------------| - | | | | | | | [Modèle de manifeste][2] | [Modèle de manifeste][3] (sans sécurité) | - | | | | | | | [Modèle de manifeste][4] | [Modèle de manifeste][5] | - | | | | | | | [Modèle de manifeste][6] | [Modèle de manifeste][7] | - | | | | | | | [Modèle de manifeste][8] | [Modèle de manifeste][9] | - | | | | | | | [Modèle de manifeste][10] | Aucun modèle | - | | | | | | | [Modèle de manifeste][11] | [Modèle de manifeste][12] | +```shell +helm install datadog-agent -f datadog-values.yaml datadog/datadog +``` - Pour activer toutes les fonctionnalités de collecte de traces, vous devez suivre [plusieurs étapes supplémentaires lors de la configuration des pods de votre application][13]. Consultez également les sections relatives aux [logs][14], à [APM][15], aux [processus][16], à [Network Performance Monitoring][17] et à la [sécurité][18] pour découvrir comment activer chacune de ces fonctionnalités. +{{% /tab %}} +{{< /tabs >}} - **Remarque** : ces manifestes sont définis pour l'espace de nommage `default`. Si vous utilisez un espace de nommage personnalisé, modifiez le paramètre `metadata.namespace` avant d'appliquer les manifestes. +### Container registries -3. Dans le manifeste `secret-api-key.yaml`, remplacez `PUT_YOUR_BASE64_ENCODED_API_KEY_HERE` par [votre clé d'API Datadog][19] encodée en base64. Pour obtenir la version base64 de votre clé d'API, exécutez la commande suivante : +Datadog publishes container images to Google Artifact Registry, Amazon ECR, Azure ACR, and Docker Hub: - ```shell - echo -n '' | base64 - ``` -4. Dans le manifeste `secret-cluster-agent-token.yaml`, remplacez `PUT_A_BASE64_ENCODED_RANDOM_STRING_HERE` par une chaîne aléatoire encodée en base64. Pour obtenir la version base64 de cette chaîne, exécutez la commande suivante : +| Google Artifact Registry | Amazon ECR | Azure ACR | Docker Hub | +| ------------------------ | ---------------------- | -------------------- | ----------------- | +| gcr.io/datadoghq | public.ecr.aws/datadog | datadoghq.azurecr.io | docker.io/datadog | - ```shell - echo -n 'Random string' | base64 - ``` +By default, the Agent image is pulled from Google Artifact Registry (`gcr.io/datadoghq`). If Artifact Registry is not accessible in your deployment region, use another registry. - **Remarque** : la chaîne aléatoire doit inclure au moins 32 caractères alphanumériques, afin de sécuriser les communications entre l'Agent de cluster et l'Agent. +If you are deploying the Agent in an AWS environment, Datadog recommend that you use Amazon ECR. -5. **Définissez votre site Datadog** sur {{< region-param key="dd_site" code="true" >}} en utilisant la variable d'environnement `DD_SITE` dans le manifeste `datadog-agent.yaml`. +
Docker Hub is subject to image pull rate limits. If you are not a Docker Hub customer, Datadog recommends that you update your Datadog Agent and Cluster Agent configuration to pull from Google Artifact Registry or Amazon ECR. For instructions, see Changing your container registry.
- **Remarque** : si la variable d'environnement `DD_SITE` n'est pas explicitement définie, sa valeur par défaut correspond au site `US`, à savoir `datadoghq.com`. Si vous utilisez l'un des autres sites (`EU`, `US3` ou `US1-FED`), un message de clé d'API non valide s'affiche. Utilisez le [menu de sélection de site de la documentation][20] pour accéder à la documentation spécifique à votre site. +{{< tabs >}} +{{% tab "Datadog Operator" %}} -6. **Déployez le DaemonSet** avec cette commande : +To use a different container registry, modify `global.registry` in `datadog-agent.yaml`. - ```shell - kubectl apply -f datadog-agent.yaml - ``` +For example, to use Amazon ECR: -7. **Vérification** : pour vérifier que l'Agent Datadog s'exécute dans votre environnement en tant que DaemonSet, exécutez ce qui suit : +{{< highlight yaml "hl_lines=8">}} +apiVersion: datadoghq.com/v2alpha1 +kind: DatadogAgent +metadata: + name: datadog +spec: + global: + clusterName: + registry: public.ecr.aws/datadog + site: + credentials: + apiSecret: + secretName: datadog-secret + keyName: api-key +{{< /highlight >}} - ```shell - kubectl get daemonset - ``` +{{% /tab %}} +{{% tab "Helm" %}} - Si l'Agent est déployé, une sortie similaire au texte ci-dessous s'affiche. Les valeurs `DESIRED` et `CURRENT` correspondent au nombre de nœuds exécutés dans votre cluster. +To use a different container registry, modify `registry` in `datadog-values.yaml`. - ```shell - NAME DESIRED CURRENT READY UP-TO-DATE AVAILABLE NODE SELECTOR AGE - datadog-agent 2 2 2 2 2 10s - ``` +For example, to use Amazon ECR: -8. **Configurez des métriques Kubernetes State** (facultatif) : téléchargez le [dossier de manifestes Kube-State][21], puis appliquez les manifestes à votre cluster Kubernetes pour recueillir automatiquement des [métriques kube-state][22] : +{{< highlight yaml "hl_lines=1">}} +registry: public.ecr.aws/datadog +datadog: + apiKeyExistingSecret: datadog-secret + site: +{{< /highlight >}} - ```shell - kubectl apply -f - ``` +{{% /tab %}} +{{< /tabs >}} -### Sans privilèges +For more information, see [Changing your container registry][17]. -(Facultatif) Pour exécuter une installation sans privilèges, ajoutez le bloc suivant à votre [modèle de pod][19] : +### Uninstall -```yaml - spec: - securityContext: - runAsUser: - supplementalGroups: - - +{{< tabs >}} +{{% tab "Operator Datadog" %}} +```shell +kubectl delete datadogagent datadog +helm delete datadog-operator ``` -`` correspond à l'UID utilisé pour exécuter l'agent et `` à l'ID du groupe auquel appartient le socket containerd ou docker. - -[1]: https://kubernetes.io/docs/concepts/configuration/assign-pod-node/#nodeselector -[2]: /resources/yaml/datadog-agent-all-features.yaml -[3]: /resources/yaml/datadog-agent-windows-all-features.yaml -[4]: /resources/yaml/datadog-agent-logs-apm.yaml -[5]: /resources/yaml/datadog-agent-windows-logs-apm.yaml -[6]: /resources/yaml/datadog-agent-logs.yaml -[7]: /resources/yaml/datadog-agent-windows-logs.yaml -[8]: /resources/yaml/datadog-agent-apm.yaml -[9]: /resources/yaml/datadog-agent-windows-apm.yaml -[10]: /resources/yaml/datadog-agent-npm.yaml -[11]: /resources/yaml/datadog-agent-vanilla.yaml -[12]: /resources/yaml/datadog-agent-windows-vanilla.yaml -[13]: /fr/agent/kubernetes/apm/#setup -[14]: /fr/agent/kubernetes/log/ -[15]: /fr/agent/kubernetes/apm/ -[16]: /fr/infrastructure/process/?tab=kubernetes#installation -[17]: /fr/network_monitoring/performance/setup/ -[18]: /fr/data_security/agent/ -[19]: https://app.datadoghq.com/organization-settings/api-keys -[20]: /fr/getting_started/site/ -[21]: https://github.com/kubernetes/kube-state-metrics/tree/master/examples/standard -[22]: /fr/agent/kubernetes/data_collected/#kube-state-metrics +This command deletes all Kubernetes resources created by installing Datadog Operator and deploying the Datadog Agent. +{{% /tab %}} +{{% tab "Helm" %}} +```shell +helm uninstall datadog-agent +``` {{% /tab %}} {{< /tabs >}} ## Étapes suivantes -Pour configurer des live containers, consultez la section [Configuration des live containers][3]. +### Surveiller votre infrastructure dans Datadog +Utilisez la page [Containers][13] pour avoir de la visibilité sur votre infrastructure de conteneurs, avec des métriques de ressources et une recherche par facettes. Pour en savoir plus sur l’utilisation de cette page, consultez [Containers View][14] (en anglais). + +Utilisez la page [Container Images][18] (en anglais) pour obtenir des informations sur chaque image utilisée dans votre environnement. Cette page affiche aussi les vulnérabilités détectées dans vos images de conteneurs par [Cloud Security][19]. Pour en savoir plus, consultez la section [Containers Images View][20] (en anglais). + +La section [Kubernetes][21] propose un aperçu de toutes vos ressources Kubernetes. L'[Orchestrator Explorer][22] vous permet de surveiller l'état des pods, des déploiements et d'autres concepts Kubernetes dans un espace de nommage ou une zone de disponibilité donnée, de consulter les spécifications des ressources pour les pods défaillants au sein d'un déploiement, de mettre en corrélation l'activité des nœuds avec les logs associés, et bien plus. La page [Utilisation des ressources][23] fournit des informations sur la manière dont vos workloads Kubernetes consomment les ressources informatiques dans toute votre infrastructure. Pour en savoir plus, consultez les rubriques [Orchestrator Explorer][24] et [Utilisation des ressources Kubernetes][25]. -Pour recueillir des événements, remplacer les paramètres de proxy, envoyer des métriques custom avec DogStatsD, configurer des listes d'inclusion et d'exclusion de conteneurs ou consulter la liste complète des variables d'environnement disponibles, consultez la section [Configurer l'Agent Datadog sur Kubernetes][4]. +### Activer les fonctionnalités -Pour configurer des intégrations, consultez la section [Intégrations Autodiscovery avec Kubernetes][5]. +{{< whatsnext >}} + {{< nextlink href="/containers/kubernetes/apm" >}}APM pour Kubernetes : Configurez la collecte de traces pour votre application Kubernetes.{{< /nextlink >}}  + {{< nextlink href="/agent/kubernetes/log" >}}Collecte des logs dans Kubernetes : Configurez la collecte des logs dans un environnement Kubernetes.{{< /nextlink >}}  + {{< nextlink href="/agent/kubernetes/prometheus" >}}Prometheus & OpenMetrics : Collectez les métriques Prometheus et OpenMetrics exposées par votre application dans Kubernetes.{{< /nextlink >}}  + {{< nextlink href="/agent/kubernetes/control_plane" >}}Surveillance du plan de contrôle : Surveillez le serveur d'API Kubernetes, le gestionnaire de contrôleur, le planificateur et etcd.{{< /nextlink >}}  + {{< nextlink href="/agent/kubernetes/configuration" >}}Configuration avancée : Collectez les événements, remplacez les paramètres de proxy, envoyez des métriques personnalisées avec DogStatsD, configurez des listes d'autorisation et de blocage de conteneurs, et consultez la liste complète des variables d'environnement disponibles.{{< /nextlink >}}  +{{< /whatsnext >}} -Pour configurer la solution APM, consultez la section [Collecte de traces Kubernetes][6]. +## Pour aller plus loin -Pour configurer la collecte de logs, consultez la section [Collecte de logs Kubernetes][7]. +{{< partial name="whats-next/whats-next.html" >}} [1]: /fr/agent/kubernetes/distributions [2]: /fr/agent/kubernetes/control_plane @@ -392,4 +317,22 @@ Pour configurer la collecte de logs, consultez la section [Collecte de logs Kube [4]: /fr/agent/kubernetes/configuration/ [5]: /fr/agent/kubernetes/integrations/ [6]: /fr/agent/kubernetes/apm/ -[7]: /fr/agent/kubernetes/log/ \ No newline at end of file +[7]: /fr/agent/kubernetes/log/ +[8]: /fr/containers/cluster_agent/#minimum-agent-and-cluster-agent-versions +[9]: /fr/containers/datadog_operator +[10]: https://kubernetes.io/docs/concepts/extend-kubernetes/operator/ +[11]: https://helm.sh +[12]: /fr/containers/guide/kubernetes_daemonset/ +[13]: https://app.datadoghq.com/containers +[14]: /fr/infrastructure/containers +[15]: /fr/containers/kubernetes/apm +[16]: https://app.datadoghq.com/account/settings/agent/latest?platform=kubernetes +[17]: /fr/containers/guide/changing_container_registry/ +[18]: https://app.datadoghq.com/containers/images +[19]: /fr/security/cloud_security_management +[20]: /fr/infrastructure/containers/container_images +[21]: https://app.datadoghq.com/kubernetes +[22]: https://app.datadoghq.com/orchestration/overview +[23]: https://app.datadoghq.com/orchestration/resource/pod +[24]: /fr/infrastructure/containers/orchestrator_explorer +[25]: /fr/infrastructure/containers/kubernetes_resource_utilization \ No newline at end of file diff --git a/content/fr/logs/log_collection/_index.md b/content/fr/logs/log_collection/_index.md index fe87953d69cf1..39fae8b8db4d5 100644 --- a/content/fr/logs/log_collection/_index.md +++ b/content/fr/logs/log_collection/_index.md @@ -226,10 +226,10 @@ Utilisez le menu déroulant situé à droite de la page pour sélectionner votre | Site | Type | Endpoint | Port | Rôle | |------|-------|---------------------------------------------------------------------------|------|--------------------------------------------------------------------------------------------------------------------------| -| AP1 | HTTPS | `http-intake.logs.ap2.datadoghq.com` | 443 | Utilisé par les redirecteurs personnalisés pour envoyer des logs au format JSON ou texte brut via HTTPS. Consultez la [documentation relative à l'API Logs HTTP][1]. | -| AP1 | HTTPS | `lambda-http-intake.logs.ap2.datadoghq.com` | 443 | Utilisé par les fonctions Lambda pour envoyer des logs au format brut, Syslog ou JSON via HTTPS. | -| AP1 | HTTPS | `agent-http-intake.logs.ap2.datadoghq.com` | 443 | Utilisé par l'Agent pour envoyer des logs au format JSON via HTTPS. Consultez la [section Collecte de logs de l'Agent de host][2]. | -| AP1 | HTTPS | {{< region-param key="browser_sdk_endpoint_domain" code="true" >}} | 443 | Utilisé par le SDK Browser pour envoyer des logs au format JSON via HTTPS. | +| AP2 | HTTPS | `http-intake.logs.ap2.datadoghq.com` | 443 | Utilisé par les redirecteurs personnalisés pour envoyer des logs au format JSON ou texte brut via HTTPS. Consultez la [documentation relative à l'API Logs HTTP][1]. | +| AP2 | HTTPS | `lambda-http-intake.logs.ap2.datadoghq.com` | 443 | Utilisé par les fonctions Lambda pour envoyer des logs au format brut, Syslog ou JSON via HTTPS. | +| AP2 | HTTPS | `agent-http-intake.logs.ap2.datadoghq.com` | 443 | Utilisé par l'Agent pour envoyer des logs au format JSON via HTTPS. Consultez la [section Collecte de logs de l'Agent de host][2]. | +| AP2 | HTTPS | {{< region-param key="browser_sdk_endpoint_domain" code="true" >}} | 443 | Utilisé par le SDK Browser pour envoyer des logs au format JSON via HTTPS. | [1]: /fr/api/latest/logs/#send-logs [2]: /fr/agent/logs/#send-logs-over-https diff --git a/content/fr/metrics/custom_metrics/historical_metrics.md b/content/fr/metrics/custom_metrics/historical_metrics.md new file mode 100644 index 0000000000000..61f09f1c9efc4 --- /dev/null +++ b/content/fr/metrics/custom_metrics/historical_metrics.md @@ -0,0 +1,480 @@ +--- +further_reading: +- link: https://www.datadoghq.com/blog/historical-metrics/ + tag: Blog + text: Surveillez les performances système sur de plus longues périodes grâce aux + métriques historiques +- link: /developers/dogstatsd/ + tag: Documentation + text: En savoir plus sur DogStatsD +- link: /developers/community/libraries/ + tag: Documentation + text: Bibliothèques client de Datadog et sa communauté pour DogStatsD et les API +- link: https://www.datadoghq.com/blog/historical-metrics/ + tag: Blog + text: Surveillez les performances système sur de plus longues périodes grâce aux + métriques historiques +title: Ingestion historique de métriques +--- + +{{< jqmath-vanilla >}} + +{{% site-region region="gov" %}} +"
L'ingestion des métriques historiques n'est pas prise en charge pour le site Datadog sélectionné ({{< region-param key="dd_site_name" >}}).
+{{% /site-region %}} + +## Section Overview + +Activer l'ingestion des métriques historiques vous permet de collecter des **métriques personnalisées** dont les horodatages sont antérieurs d'une heure à la date de soumission, mais pas au-delà de votre période totale de rétention des métriques (15 mois par défaut). + +Activer cette fonctionnalité sur vos métriques peut s'avérer utile dans plusieurs cas : reprise après incident, correction de valeurs erronées, gestion des retards liés à l'IoT, etc. + +## Qu'est-ce que l'ingestion des métriques historiques ? + +{{< img src="/metrics/custom_metrics/historical_metrics/diagram_historical-metrics-ingestion_1_240202.png" alt="Diagramme illustrant le flux d'ingestion lorsque les métriques historiques sont activées" >}} + +Datadog classe comme *métriques historiques* les points de métrique dont les horodatages sont antérieurs d'une heure à leur date de soumission. Si l'ingestion des métriques historiques n'est pas activée, les valeurs de métriques plus anciennes d'une heure ne sont pas ingérées. + +Par exemple, votre métrique (`exampleMetricA`) envoie une valeur à Datadog à 13 h 00 (heure de l'Est), avec un horodatage de 10 h 00. Cette valeur est considérée comme _historique_ car son horodatage est antérieur de 3 heures à la date de soumission. + +Avec l'ingestion des métriques historiques activée, si vous soumettez plusieurs valeurs avec le même horodatage et les mêmes étiquettes, Datadog conserve la valeur soumise la plus récemment. Autrement dit, si vous soumettez une métrique avec la valeur X, puis avec la valeur Y pour le même horodatage, c'est la valeur soumise en dernier qui est conservée. + +Vous pouvez commencer à ingérer des valeurs historiques en activant l'ingestion sur la [page de synthèse des métriques][1], pour les types de métriques *count*, *rate* et *gauge*.  + +**Remarque** : L'ingestion de mesures historiques n'est pas disponible pour les mesures de distribution ou les mesures personnalisées générées à partir d'autres types de données Datadog (telles que les journaux). + +## Configuration + +Pour activer l'ingestion des métriques historiques pour une métrique spécifique : +1. Accédez à la [page de synthèse des métriques][1]. +1. Cliquez sur le nom de la métrique concernée pour ouvrir le panneau latéral de détails. +1. Dans la section *Advanced* de ce panneau, cliquez sur **Configure**. +1. Activez l'option **Enable historical metrics** et cliquez sur **Save**. + +{{< img src="metrics/custom_metrics/historical_metrics/enable_historical_metrics.png" alt="Page de synthèse des métriques montrant le panneau des facettes et la section Advanced d'un panneau latéral avec l'option activée" style="width:100%;" >}} + +### Configuration groupée pour plusieurs métriques + +Vous pouvez activer ou désactiver l'ingestion des métriques historiques pour plusieurs métriques en une seule opération, sans avoir à les configurer une par une. + +1. Accédez à la [page de synthèse des métriques][1] et cliquez sur le menu déroulant **Configure Metrics**. +1. Sélectionnez **Enable historical metrics**. +1. Spécifiez un préfixe d'espace de noms de métriques pour sélectionner toutes les métriques correspondant à cet espace de noms. +1. (Facultatif) Pour désactiver l'ingestion de métriques historiques pour toutes les métriques de l'espace de noms, cliquez sur le bouton **Historical metrics**. + +{{< img src="metrics/custom_metrics/historical_metrics/historical_metrics_ingestion_toggle.png" alt="Bouton d'ingestion des métriques historiques" >}} + +## Soumission de données historiques + +Après avoir activé l'ingestion de métriques historiques, vous pouvez soumettre des valeurs de métriques avec des horodatages historiques via l'[API](#api) ou via l'[Agent](#agent). + +### API + +Avec l'API, vous pouvez soumettre des valeurs de métriques avec des horodatages historiques dans la charge utile (à condition que le nom de la métrique ait déjà été activé pour accepter les métriques historiques via l'interface utilisateur décrite ci-dessus). + +{{< programming-lang-wrapper langs="python,java,go,ruby,typescript,curl" collapsible="true">}} + +{{< programming-lang lang="python">}} +```python +""" +L'envoi de métriques renvoie la réponse « Payload accepted » +""" + +from datetime import datetime +from datadog_api_client import ApiClient, Configuration +from datadog_api_client.v2.api.metrics_api import MetricsApi +from datadog_api_client.v2.model.metric_intake_type import MetricIntakeType +from datadog_api_client.v2.model.metric_payload import MetricPayload +from datadog_api_client.v2.model.metric_point import MetricPoint +from datadog_api_client.v2.model.metric_resource import MetricResource +from datadog_api_client.v2.model.metric_series import MetricSeries + +body = MetricPayload( + series=[ + MetricSeries( + metric="system.load.1", + type=MetricIntakeType.UNSPECIFIED, + points=[ + MetricPoint( + + """ Ajouter l'hotodatage historique ici """ + timestamp=int(datetime.now().timestamp()), + """ *********************** """ + + value=0.7, + ), + ], + resources=[ + MetricResource( + name="dummyhost", + type="host", + ), + ], + ), + ], +) + +configuration = Configuration() +with ApiClient(configuration) as api_client: + api_instance = MetricsApi(api_client) + response = api_instance.submit_metrics(body=body) + + print(response) +``` +{{< /programming-lang >}} + +{{< programming-lang lang="java" >}} +```java +// L'envoi de métriques renvoie la réponse « Payload accepted » +import com.datadog.api.client.ApiClient; +import com.datadog.api.client.ApiException; +import com.datadog.api.client.v2.api.MetricsApi; +import com.datadog.api.client.v2.model.IntakePayloadAccepted; +import com.datadog.api.client.v2.model.MetricIntakeType; +import com.datadog.api.client.v2.model.MetricPayload; +import com.datadog.api.client.v2.model.MetricPoint; +import com.datadog.api.client.v2.model.MetricResource; +import com.datadog.api.client.v2.model.MetricSeries; +import java.time.OffsetDateTime; +import java.util.Collections; + +public class Example { + public static void main(String[] args) { + ApiClient defaultClient = ApiClient.getDefaultApiClient(); + MetricsApi apiInstance = new MetricsApi(defaultClient); + + MetricPayload body = + new MetricPayload() + .series( + Collections.singletonList( + new MetricSeries() + .metric("system.load.1") + .type(MetricIntakeType.UNSPECIFIED) + .points( + Collections.singletonList( + new MetricPoint() + + //Add historical timestamp here + .timestamp(OffsetDateTime.now().toInstant().getEpochSecond()) + //*********************** + + .value(0.7))) + .resources( + Collections.singletonList( + new MetricResource().name("dummyhost").type("host"))))); + + try { + IntakePayloadAccepted result = apiInstance.submitMetrics(body); + System.out.println(result); + } catch (ApiException e) { + System.err.println("Exception when calling MetricsApi#submitMetrics"); + System.err.println("Status code: " + e.getCode()); + System.err.println("Reason: " + e.getResponseBody()); + System.err.println("Response headers: " + e.getResponseHeaders()); + e.printStackTrace(); + } + } +} +``` +{{< /programming-lang >}} + +{{< programming-lang lang="go" >}} +```go +// L'envoi de métriques renvoie la réponse « Payload accepted » + +package main + +import ( + "context" + "encoding/json" + "fmt" + "os" + "time" + + "github.com/DataDog/datadog-api-client-go/v2/api/datadog" + "github.com/DataDog/datadog-api-client-go/v2/api/datadogV2" +) + +func main() { + body := datadogV2.MetricPayload{ + Series: []datadogV2.MetricSeries{ + { + Metric: "system.load.1", + Type: datadogV2.METRICINTAKETYPE_UNSPECIFIED.Ptr(), + Points: []datadogV2.MetricPoint{ + { + //Add historical timestamp here + Timestamp: datadog.PtrInt64(time.Now().Unix()), + //*********************** + + Value: datadog.PtrFloat64(0.7), + }, + }, + Resources: []datadogV2.MetricResource{ + { + Name: datadog.PtrString("dummyhost"), + Type: datadog.PtrString("host"), + }, + }, + }, + }, + } + ctx := datadog.NewDefaultContext(context.Background()) + configuration := datadog.NewConfiguration() + apiClient := datadog.NewAPIClient(configuration) + api := datadogV2.NewMetricsApi(apiClient) + resp, r, err := api.SubmitMetrics(ctx, body, *datadogV2.NewSubmitMetricsOptionalParameters()) + + if err != nil { + fmt.Fprintf(os.Stderr, "Error when calling `MetricsApi.SubmitMetrics`: %v\n", err) + fmt.Fprintf(os.Stderr, "Full HTTP response: %v\n", r) + } + + responseContent, _ := json.MarshalIndent(resp, "", " ") + fmt.Fprintf(os.Stdout, "Response from `MetricsApi.SubmitMetrics`:\n%s\n", responseContent) +} +``` +{{< /programming-lang >}} + +{{< programming-lang lang="ruby" >}} +```ruby +# L'envoi de métriques renvoie la réponse « Payload accepted » + +require "datadog_api_client" +api_instance = DatadogAPIClient::V2::MetricsAPI.new + +body = DatadogAPIClient::V2::MetricPayload.new({ + series: [ + DatadogAPIClient::V2::MetricSeries.new({ + metric: "system.load.1", + type: DatadogAPIClient::V2::MetricIntakeType::UNSPECIFIED, + points: [ + DatadogAPIClient::V2::MetricPoint.new({ + + #Add historical timestamp here + timestamp: Time.now.to_i, + #*********************** + + value: 0.7, + }), + ], + resources: [ + DatadogAPIClient::V2::MetricResource.new({ + name: "dummyhost", + type: "host", + }), + ], + }), + ], +}) +p api_instance.submit_metrics(body) +``` +{{< /programming-lang >}} + +{{< programming-lang lang="typescript" >}} +```typescript +/** + * L'envoi de métriques renvoie la réponse « Payload accepted » + */ + +import { client, v2 } from "@datadog/datadog-api-client"; + +const configuration = client.createConfiguration(); +const apiInstance = new v2.MetricsApi(configuration); + +const params: v2.MetricsApiSubmitMetricsRequest = { + body: { + series: [ + { + metric: "system.load.1", + type: 0, + points: [ + { + //Add historical timestamp here + timestamp: Math.round(new Date().getTime() / 1000), + //*********************** + + value: 0.7, + }, + ], + resources: [ + { + name: "dummyhost", + type: "host", + }, + ], + }, + ], + }, +}; + +apiInstance + .submitMetrics(params) + .then((data: v2.IntakePayloadAccepted) => { + console.log( + "API called successfully. Returned data: " + JSON.stringify(data) + ); + }) + .catch((error: any) => console.error(error)); +``` +{{< /programming-lang >}} + +{{< programming-lang lang="curl" >}} +```shell +## Points dynamiques +# Envoyez des données de séries temporelles pouvant être représentées dans les dashboards de Datadog. +# Variables de modèle +export NOW="$(date +%s)" +# Commande Curl +curl -X POST "https://api.datadoghq.com/api/v2/series" \ +-H "Accept: application/json" \ +-H "Content-Type: application/json" \ +-H "DD-API-KEY: ${DD_API_KEY}" \ +-d @- << EOF +{ + "series": [ + { + "metric": "system.load.1", + "type": 0, + "points": [ + { + # Ajouter ici un horodatage historique + "timestamp": 1636629071, + # *********************** + + "value": 0.7 + } + ], + "resources": [ + { + "name": "dummyhost", + "type": "host" + } + ] + } + ] +} +EOF +``` +{{< /programming-lang >}} + +{{< /programming-lang-wrapper >}} + +### Agent + +Pour envoyer des métriques historiques avec l'Agent, assurez-vous d'avoir installé la version 7.40.0 ou ultérieure de l'Agent. Cette version inclut une interface DogStatsD mise à jour, compatible avec **Java**, **GoLang** et **.NET**. Cela vous permet d'envoyer des points de métrique différés via l'Agent. + +{{< programming-lang-wrapper langs="java,go,.NET" >}} + +{{< programming-lang lang="java" >}} +```java +import com.timgroup.statsd.NonBlockingStatsDClientBuilder; +import com.timgroup.statsd.StatsDClient; +import java.util.Random; + +public class DogStatsdClient { + + public static void main(String[] args) throws Exception { + + StatsDClient Statsd = new NonBlockingStatsDClientBuilder() + .prefix("statsd"). + .hostname("localhost") + .port(8125) + .build(); + Statsd.gaugeWithTimestamp("example_metric.gauge_with_timestamp", new Random().nextInt(20), 1205794800, new String[]{"environment:dev"}); + Statsd.countWithTimestamp("example_metric.count_with_timestamp", new Random().nextInt(20), 1205794800, new String[]{"environment:dev"}); + } +} +``` +{{< /programming-lang >}} + +{{< programming-lang lang="go" >}} +```go +package main + +import ( + "log" + "time" + + "github.com/DataDog/datadog-go/statsd" +) + +func main() { + statsd, err := statsd.New("127.0.0.1:8125") + if err != nil { + log.Fatal(err) + } + + ts := time.Date(2008, time.March, 17, 23, 0, 0, 0, time.UTC) + statsd.GaugeWithTimestamp("example_metric.gauge_with_timestamp", 12, []string{"environment:dev"}, 1, ts) + statsd.CountWithTimestamp("example_metric.count_with_timestamp", 12, []string{"environment:dev"}, 1, ts) +} +``` +{{< /programming-lang >}} + +{{< programming-lang lang=".NET" >}} +```csharp +using StatsdClient; + +public class DogStatsdClient +{ + public static void Main() + { + var dogstatsdConfig = new StatsdConfig + { + StatsdServerName = "127.0.0.1", + StatsdPort = 8125, + }; + + using (var dogStatsdService = new DogStatsdService()) + { + dogStatsdService.Configure(dogstatsdConfig); + var random = new Random(0); + var dto = new DateTimeOffset(2008, 03, 17, 23, 00, 00, new TimeSpan(0, 0, 0)) + dogStatsdService.Gauge("example_metric.gauge_with_timestamp", 10, tags: new[] {"environment:dev"}, dto); + dogStatsdService.Counter("example_metric.count_with_timestamp", 10, tags: new[] {"environment:dev"}, dto); + } + } +} +``` +{{< /programming-lang >}} + +{{< /programming-lang-wrapper >}} + +## Latence de l'ingestion des métriques historiques + +La latence de l'ingestion des métriques historiques varie selon l'ancienneté des horodatages de vos métriques. + +| Délai de la métrique : | Latence d'ingestion | +|----------------------|-------------------------------------------| +| 1 à 12 heures | Ingestion en temps quasi réel (1 heure maximum) | +| 12 heures à 30 jours | Jusqu'à 14 heures de latence | +| Plus de 30 jours | Plus de 14 heures de latence | + +## Facturation de l'ingestion des métriques historiques + +Les mesures historiques sont comptabilisées et facturées comme des mesures personnalisées indexées. Les mesures personnalisées facturables sont déterminées par l'**horodatage des mesures soumises**, qu'elles soient datées d'aujourd'hui ou de 15 mois. Tant que cette combinaison de nom de métrique et de valeur de tag rapporte activement **une valeur** (indépendamment de l'horodatage), elle est considérée comme active dans l'heure où elle a été soumise. + +L'exemple suivant part du principe que +- 3000 combinaisons uniques de tags et de valeurs +- 1500 mesures en temps réel +- 1500 mesures historiques +- 720 heures dans le mois (30 jours) +- Coût des métriques personnalisées : 5 $ pour 100 métriques + +$(1500/ 720) ⋅ (5 / 100) + $(1500/ 720) ⋅ (5 / 100) = \\$0.21$ + +Suivez vos métriques historiques indexées dans la section Usage Summary (Récapitulatif d'utilisation) de la [page Plan and Usage (Abonnement et utilisation)][4]. + +{{< img src="metrics/custom_metrics/historical_metrics/custom_metrics_usage_summary.png" alt="Section Récapitulatif d'utilisation de la page Plan and Usage, affichant les métriques personnalisées indexées et les métriques historiques indexées" style="width:100%;" >}} + +Pour plus d'informations, voir la documentation [Facturation de métriques personnalisées][3]. + +## Pour aller plus loin + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/metric/summary +[2]: /fr/metrics/#submit-metrics +[3]: /fr/account_management/billing/custom_metrics/ +[4]: https://app.datadoghq.com/billing/usage \ No newline at end of file diff --git a/content/fr/tracing/trace_collection/_index.md b/content/fr/tracing/trace_collection/_index.md new file mode 100644 index 0000000000000..da24d3cd75755 --- /dev/null +++ b/content/fr/tracing/trace_collection/_index.md @@ -0,0 +1,95 @@ +--- +aliases: +- /fr/tracing/setup +- /fr/tracing/send_traces/ +- /fr/tracing/setup/ +- /fr/tracing/environments/ +- /fr/tracing/setup/environment +- /fr/tracing/setup/first_class_dimensions +- /fr/tracing/getting_further/first_class_dimensions/ +- /fr/agent/apm/ +- /fr/tracing/setup_overview/ +- /fr/tracing/trace_collection/library_injection_remote +description: Débuter avec l'APM Datadog +further_reading: +- link: tracing/trace_collection/compatibilité + tag: Documentation + text: Exigences de compatibilité +title: Instrumentation de lʼapplication +--- + +## Section Overview + +Pour commencer avec Datadog APM, suivez les étapes clés suivantes : + +1. Installez et configurez l'Agent Datadog.  +2. Instrumentez votre application. + +
Simplifiez votre configuration ! Installez l'Agent et instrumentez votre application en une seule étape grâce à la Single Step Instrumentation.
+ +L'instrumentation de votre application permet d'envoyer des données d'observabilité à l'Agent, qui les transmet ensuite à l'interface Datadog. + +{{< img src="tracing/visualization/troubleshooting_pipeline.png" alt="Le pipeline de l'APM">}} + +## Types d'instrumentation  + +Il existe principalement deux approches pour instrumenter votre application : automatique ou personnalisée {{< tooltip glossary="instrumentation" >}}. + +### Instrumentation automatique + +Créez des {{< tooltip glossary="span" >}} dans votre application avec un minimum d'étapes manuelles. Pour instrumenter automatiquement votre application, vous pouvez utiliser l'une des options suivantes : + +- [L'instrumentation en une seule étape][7] : Exécutez une commande d'installation en une ligne pour installer l'Agent Datadog, activer l'APM et instrumenter tous vos services sur votre host Linux, votre machine virtuelle ou votre conteneur. +- [Bibliothèques Datadog][8] : Ajoutez les bibliothèques de tracing Datadog à votre application. + +Pour en savoir plus, consultez la page [instrumentation automatique][5]. + +### Instrumentation personnalisée + +Capturez les données d'observabilité issues de votre propre code ou de fonctions complexes non prises en charge par l'instrumentation automatique. Pour instrumenter votre application manuellement, vous pouvez utiliser l'une des options suivantes : + +- [Bibliothèques Datadog][9] : utilisez les bibliothèques de tracing Datadog pour ajouter et personnaliser la collecte de données dans Datadog. +- [API OpenTelemetry][10] : Utilisez les API OpenTelemetry prises en charge par les bibliothèques Datadog pour une instrumentation neutre vis-à-vis des fournisseurs. + +Pour en savoir plus, consultez la page [instrumentation personnalisée][6]. + +{{< callout url="https://www.datadoghq.com/product-preview/service-discovery/" btn_hidden="false" header="La découverte de services est disponible en Preview" >}} +La découverte de services offre une visibilité complète sur l'état actuel de la supervision de vos applications, en mettant en évidence les lacunes majeures ou les traces rompues dans votre système. +{{< /callout >}} + + +## Tutoriels de configuration APM + +Les tutoriels suivants vous guident dans la mise en place du tracing distribué pour une application exemple dans différents scénarios d'infrastructure, avec instrumentation automatique ou personnalisée, en utilisant les bibliothèques de tracing Datadog : + +{{< whatsnext desc="Choisissez le tutoriel correspondant à votre langage et votre environnement :" >}} + {{< nextlink href="tracing/guide/tutorial-enable-python-host" >}} Activer le tracing d'une application Python sur le même host que l'Agent Datadog{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-python-containers" >}} Activer le tracing d'une application Python et de l'Agent Datadog dans des conteneurs{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-python-container-agent-host" >}} Activer le tracing d'une application Python dans un conteneur et d'un Agent sur un host{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-java-host" >}} Activer le tracing d'une application Java sur le même host que l'Agent Datadog{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-java-containers" >}} Activer le tracing d'une application Java et de l'Agent Datadog dans des conteneurs{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-java-container-agent-host" >}} Activer le tracing d'une application Java dans un conteneur et d'un Agent sur un host{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-java-gke" >}} Activer le tracing d'une application Java dans GKE{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-java-aws-eks" >}} Activer le tracing d'une application Java dans AWS EKS{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-java-aws-ecs-ec2" >}} Activer le tracing d'une application Java dans Amazon ECS avec EC2{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-java-aws-ecs-fargate" >}} Activer le tracing d'une application Java dans Amazon ECS avec Fargate{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-java-admission-controller" >}}Activer le tracing d'une application Java avec le contrôleur d'admission{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-go-host" >}} Activer le tracing d'une application Go sur le même host que l'Agent Datadog{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-go-containers" >}} Activer le tracing d'une application Go et de l'Agent Datadog dans des conteneurs{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-go-aws-ecs-ec2" >}} Activer le tracing d'une application Go dans Amazon ECS avec EC2{{< /nextlink >}} + {{< nextlink href="tracing/guide/tutorial-enable-go-aws-ecs-fargate" >}} Activer le tracing d'une application Go dans Amazon ECS avec Fargate{{< /nextlink >}} + +{{< /whatsnext >}} +## Pour aller plus loin + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /fr/developers/community/libraries/#apm-tracing-client-libraries +[2]: /fr/tracing/trace_collection/library_injection_local/ +[4]: /fr/tracing/trace_collection/dd_libraries/ +[5]: /fr/tracing/trace_collection/automatic_instrumentation/ +[6]: /fr/tracing/trace_collection/custom_instrumentation/ +[7]: /fr/tracing/trace_collection/automatic_instrumentation/single-step-apm/ +[8]: /fr/tracing/trace_collection/automatic_instrumentation/dd_libraries/ +[9]: /fr/tracing/trace_collection/custom_instrumentation/dd_libraries/ +[10]: /fr/tracing/trace_collection/custom_instrumentation/otel_instrumentation/ \ No newline at end of file diff --git a/content/fr/tracing/trace_collection/automatic_instrumentation/dd_libraries/java.md b/content/fr/tracing/trace_collection/automatic_instrumentation/dd_libraries/java.md new file mode 100644 index 0000000000000..2d8806da851fd --- /dev/null +++ b/content/fr/tracing/trace_collection/automatic_instrumentation/dd_libraries/java.md @@ -0,0 +1,241 @@ +--- +aliases: +- /fr/tracing/java +- /fr/tracing/languages/java +- /fr/agent/apm/java/ +- /fr/tracing/setup/java +- /fr/tracing/setup_overview/java +- /fr/tracing/setup_overview/setup/java +- /fr/tracing/trace_collection/dd_libraries/java/ +code_lang: java +code_lang_weight: 0 +further_reading: +- link: https://github.com/DataDog/dd-trace-java + tag: Code source + text: Code source de l'APM Datadog Java +- link: tracing/glossary/ + tag: Documentation + text: Explorer vos services, ressources et traces +title: Tracer des applications Java +type: multi-code-lang +--- +## Exigences de compatibilité + +La dernière version du traceur Java prend en charge toutes les JVM à partir de la version 8. Pour en savoir plus sur les JVM antérieures à la version 8, consultez la section [Runtimes JVM pris en charge][10]. + +Pour obtenir la liste complète des frameworks et versions Java pris en charge (y compris les anciennes versions et les versions de maintenance), consultez la section relative aux [exigences de compatibilité][1]. + +## Prise en main + +Avant de commencer, vérifiez que vous avez bien [installé et configuré l'Agent][18]. + +### Instrumenter votre application + +Après avoir installé et configuré votre Agent Datadog, l'étape suivante consiste à ajouter la bibliothèque de traçage directement dans l'application afin de l'instrumenter. Pour en savoir plus, consultez les [informations de compatibilité][1]. + +Pour commencer à tracer vos applications : + +1. Téléchargez le fichier `dd-java-agent.jar`, qui contient les derniers fichiers de classe de l'Agent, dans un dossier auquel votre utilisateur Datadog peut accéder : + +{{< tabs >}} +{{% tab "Wget" %}} + ```shell + wget -O dd-java-agent.jar 'https://dtdg.co/latest-java-tracer' + ``` +{{% /tab %}} +{{% tab "cURL" %}} + ```shell + curl -Lo dd-java-agent.jar 'https://dtdg.co/latest-java-tracer' + ``` +{{% /tab %}} +{{% tab "Dockerfile" %}} + ```dockerfile + ADD 'https://dtdg.co/latest-java-tracer' dd-java-agent.jar + ``` +{{% /tab %}} +{{< /tabs >}} + + **Remarque :** pour télécharger la dernière build d’une version **majeure** spécifique, utilisez le lien `https://dtdg.co/java-tracer-vX`, où `X` est le numéro de version majeure souhaité. + Par exemple, utilisez `https://dtdg.co/java-tracer-v1` pour la dernière build de la version 1. Ne pas inclure de numéro de version mineure. Vous pouvez aussi consulter le [dépôt Maven][3] de Datadog pour toute version spécifique. + + **Remarque** : les versions Release Candidate sont disponibles sur GitHub [DataDog/dd-trace-java releases][21]. Elles portent la mention "RC" dans la version et sont recommandées pour des tests en dehors de votre environnement de production. Vous pouvez [vous abonner aux notifications de publication de GitHub][20] pour être informé lorsque de nouvelles Release Candidates sont disponibles pour des tests. Si vous rencontrez des problèmes avec les Release Candidates, contactez [l'assistance Datadog][22]. + +2. Pour exécuter votre application à partir d'un IDE, d'un script d'application Maven ou Gradle, ou de la commande `java -jar`, avec le profileur en continu, le suivi des déploiements et l'injection de logs (si vous envoyez des logs à Datadog), ajoutez l'argument JVM `-javaagent` et les options de configuration suivantes, le cas échéant : + + ```text + java -javaagent:/path/to/dd-java-agent.jar -Ddd.profiling.enabled=true -Ddd.logs.injection=true -Ddd.service=my-app -Ddd.env=staging -Ddd.version=1.0 -jar path/to/your/app.jar + ``` + Si vous avez besoin de réduire la taille de votre image et d'omettre des modules, vous pouvez utiliser la commande [jdeps][19] pour identifier les dépendances. Cependant, les modules requis peuvent changer au fil du temps, c'est donc à vos risques et périls. + +
L'activation du profilage peut avoir un impact sur votre facture en fonction de votre forfait APM. Pour plus d'informations, consultez la page des tarifs.
+ +| Variable d'environnement | Propriété système | Rôle| +| --------- | --------------------------------- | ------------ | +| `DD_ENV` | `dd.env` | L'environnement de votre application (`production`, `staging`, etc.). | +| `DD_LOGS_INJECTION` | `dd.logs.injection` | Activez l'injection automatique des clés MDC pour les IDs de trace et de span Datadog. Consultez la section [Utilisation avancée][6] pour en savoir plus.

À partir de la version 1.18.3, si la [configuration à distance de l'Agent][16] est activée là où ce service est exécuté, vous pouvez définir `DD_LOGS_INJECTION` dans l'interface utilisateur du [Software Catalog][17]. | +| `DD_PROFILING_ENABLED` | `dd.profiling.enabled` | Activer le [Continuous Profiler][5] | +| `DD_SERVICE` | `dd.service` | Le nom d'un ensemble de processus qui effectuent la même tâche. Utilisé pour regrouper les statistiques de votre application. | +| `DD_TRACE_SAMPLE_RATE` | `dd.trace.sample.rate` | Définissez un taux d'échantillonnage à la racine de la trace pour tous les services.

À partir de la version 1.18.3, si la [configuration à distance de l'Agent][16] est activée là où ce service est exécuté, vous pouvez définir `DD_TRACE_SAMPLE_RATE` dans l'interface utilisateur du [Software Catalog][17]. | +| `DD_TRACE_SAMPLING_RULES` | `dd.trace.sampling.rules` | Définit un taux d'échantillonnage à la racine de la trace pour les services qui correspondent à la règle spécifiée. | +| `DD_VERSION` | `dd.version` | Version de votre application (par exemple, `2.5`, `202003181415` ou `1.3-alpha`) | + +D'autres [options de configuration](#configuration) sont décrites ci-dessous. + + +### Ajouter le traceur Java à la JVM + +Consultez la documentation de votre serveur d'application pour découvrir comment passer `-javaagent` et d'autres arguments JVM. Voici des instructions pour certains frameworks couramment utilisés : + +{{< tabs >}} +{{% tab "Spring Boot" %}} + +Si votre application s'appelle `my_app.jar`, créez un fichier `my_app.conf`, contenant : + +```text +JAVA_OPTS=-javaagent:/chemin/vers/dd-java-agent.jar +``` + +Pour en savoir plus, consultez la [documentation de Spring Boot][1]. + + +[1]: https://docs.spring.io/spring-boot/docs/current/reference/html/deployment.html#deployment-script-customization-when-it-runs +{{% /tab %}} +{{% tab "Tomcat" %}} + +#### Linux + +Pour activer le traçage lors de l'exécution de Tomcat sous Linux : + +1. Ouvrez votre fichier script de démarrage Tomcat, par exemple `setenv.sh`. +2. Ajoutez ce qui suit à `setenv.sh`: + ```text + CATALINA_OPTS="$CATALINA_OPTS -javaagent:/path/to/dd-java-agent.jar" + ``` + +#### Windows (Tomcat en tant que service Windows) + +Pour activer le traçage lors de l'exécution de Tomcat en tant que service Windows : + +1. Ouvrez l'utilitaire de maintenance « tomcat@VERSION_MAJOR@w.exe » situé dans le répertoire ./bin du dossier projet Tomcat. +2. Accédez à l'onglet **Java** et ajoutez ce qui suit à `Java Options` : +```text +-javaagent:C:\Npathto\Ndd-java-agent.jar +``` +3. Redémarrez vos services Tomcat pour que les modifications soient prises en compte. + +{{% /tab %}} +{{% tab "JBoss" %}} + +- En mode autonome : + + Ajoutez la ligne suivante à la fin de `standalone.conf` : + +```text +JAVA_OPTS="$JAVA_OPTS -javaagent:/chemin/vers/dd-java-agent.jar" +``` + +- En mode autonome et sur Windows, ajoutez la ligne suivante à la fin de `standalone.conf.bat` : + +```text +set "JAVA_OPTS=%JAVA_OPTS% -javaagent:X:/chemin/vers/dd-java-agent.jar" +``` + +- En mode domaine : + + Ajoutez la ligne suivante dans le fichier `domain.xml`, sous le tag server-groups.server-group.jvm.jvm-options : + +```text +