Only the account owner can configure the SAML SSO feature. If the account owner is unable to configure SSO,
contact the Cloudcraft support team to enable this feature.
+
1. Cloudcraft で、**User** > **Security & SSO** に移動します。
@@ -27,7 +27,7 @@ Cloudcraft で SSO を使用するための一般的な情報については、[
6. **New application** をクリックし、**Non-gallery application** を選択します。
7. アプリケーション名として **Cloudcraft** を入力し、**Add** をクリックします。
-Next, configure the SAML integration using the details provided by Cloudcraft.
+次に、Cloudcraft から提供された詳細を使用して SAML インテグレーションを構成します。
1. **Getting started** セクションで、**Set up single sign on** を選択し、**SAML** をクリックします。
2. **Basic SAML Configuration** セクションで、**Edit** をクリックします。
diff --git a/content/ja/developers/authorization/_index.md b/content/ja/developers/authorization/_index.md
index ca2d4b767c797..7fc2857e8eb55 100644
--- a/content/ja/developers/authorization/_index.md
+++ b/content/ja/developers/authorization/_index.md
@@ -24,9 +24,9 @@ Datadog は、[OAuth 2.0 (OAuth2) Authorization Framework][1] を使用し、ユ
OAuth2 クライアントは、ユーザーに代わって Datadog リソースへのアプリケーションのアクセスを承認できるようにするアプリケーションのコンポーネントです。OAuth2 は、パブリックと[機密][3]の 2 種類のクライアントを定義しています。
-Public Clients
-: Typically used for browser-based applications and are not capable of storing confidential information.
-
+パブリッククライアント
+: 通常、ブラウザベースのアプリケーションで使用され、機密情報を保存できません。
+
機密クライアント
: 機密データを保存することができ、認可リクエストを行うために追加の `client_secret` を必要とします。インテグレーション用の OAuth クライアントは機密クライアントです。
diff --git a/content/ja/integrations/ibm_i.md b/content/ja/integrations/ibm_i.md
index 8e77f60acc25a..a4835d7b18f22 100644
--- a/content/ja/integrations/ibm_i.md
+++ b/content/ja/integrations/ibm_i.md
@@ -120,7 +120,7 @@ IBM i ODBC ドライバーの名前は、IBM i のチェックを構成するた
## 収集データ
### メトリクス
-{{< get-metrics-from-git "ibm-i" >}}
+{{< get-metrics-from-git "ibm_i" >}}
### イベント
diff --git a/content/ja/integrations/rapdev_jira.md b/content/ja/integrations/rapdev_jira.md
index dd5732d555fc6..0bf02ccf5e2ee 100644
--- a/content/ja/integrations/rapdev_jira.md
+++ b/content/ja/integrations/rapdev_jira.md
@@ -110,4 +110,4 @@ Jira インテグレーションにより、サマリーレポート、ワーク
[7]: mailto:sales@rapdev.io
---
-このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。このアプリケーションを購入するには、
こちらをクリックしてください。
\ No newline at end of file
+このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、
Marketplace でこのアプリケーションを購入してください。
\ No newline at end of file
diff --git a/content/ja/integrations/rapdev_managed_datadog_reports.md b/content/ja/integrations/rapdev_managed_datadog_reports.md
new file mode 100644
index 0000000000000..fe4601c3619e6
--- /dev/null
+++ b/content/ja/integrations/rapdev_managed_datadog_reports.md
@@ -0,0 +1,94 @@
+---
+algolia:
+ subcategory: Marketplace インテグレーション
+app_id: rapdev-managed-datadog-reports
+app_uuid: 76ce1013-ac71-4253-8af5-8936afc32de9
+assets:
+ oauth: assets/oauth_clients.json
+author:
+ contact_link: https://www.rapdev.io/datadogservices
+ homepage: https://www.rapdev.io
+ name: RapDev
+ sales_email: ddsales@rapdev.io
+ support_email: support@rapdev.io
+ vendor_id: rapdev
+categories:
+- marketplace
+custom_kind: インテグレーション
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: rapdev_managed_datadog_reports
+integration_id: rapdev-managed-datadog-reports
+integration_title: RapDev Managed Datadog Reports
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: rapdev_managed_datadog_reports
+pricing:
+- includes_assets: true
+ private_offer_only: true
+ product_id: md-reports
+ short_description: プライベートオファーのプレースホルダー
+ unit_price: null
+public_title: RapDev Managed Datadog Reports
+short_description: RapDev の Datadog 専門知識へ柔軟にアクセスし、Datadog デプロイメントを強化
+supported_os:
+- linux
+- windows
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ - Category::Marketplace
+ - Offering::Professional Service
+ configuration: README.md#Setup
+ description: RapDev の Datadog 専門知識へ柔軟にアクセスし、Datadog デプロイメントを強化
+ media:
+ - caption: RapDev Services Overview
+ image_url: images/dd-pcp-op2.png
+ media_type: image
+ - caption: RapDev Managed Datadog Reports
+ image_url: images/pcp_reports.jpg
+ media_type: image
+ overview: README.md#Overview
+ support: README.md#Support
+ title: RapDev Managed Datadog Reports
+ uninstallation: README.md#Uninstallation
+---
+
+
+
+
+## 概要
+
+Datadog Gold Partner である RapDev は、Datadog のアプリケーションおよびインフラ監視機能を最大限に活用してきた豊富な実績を有します。Managed Datadog Reports サービスは、これまで以上に柔軟な形で当社の専門知識を活用できるようにし、Datadog デプロイメントを自動的に監視・改善します。
+
+Datadog プラットフォームのヘルスを監視し、セキュリティ脆弱性の自動検出、コスト監査、平均応答時間 (MTTR) の短縮を実現します。次の領域で支援します。
+
+- **Hygiene**: Ensure your platform is clean and efficient, with visibility into the staleness of your tags, monitors, notebooks, dashboards, and service catalog.
+- **リアルタイム インサイト**: 余剰使用量、未使用コンポーネント、誤ったログ取り込みを検知し、メールとチャットで即時通知。週次および月次のサマリーで推奨アクションを確認できます。
+- **継続的 モニタリング**: 統合の破損、応答しない Agent、EOS・EOL Agent、API キーの誤構成などの問題を即座に特定します。
+
+## サポート
+
+サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから RapDev.io にお問い合わせください。
+
+- Email: [support@rapdev.io][2]
+- チャット: [rapdev.io][3]
+- 電話: 855-857-0222
+
+---
+ボストンより ❤️ を込めて
+
+*お探しのインテグレーションが見つかりませんか?組織に必要な重要な機能が欠けていますか?私たちがその機能を構築しますので、[お問い合わせ](mailto:support@rapdev.io)ください!*
+
+[1]: mailto:sales@rapdev.io
+[2]: mailto:support@rapdev.io
+[3]: https://www.rapdev.io/#Get-in-touch
+
+---
+このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、
Marketplace でこのアプリケーションを購入してください。
\ No newline at end of file
diff --git a/content/ja/monitors/types/slo.md b/content/ja/monitors/types/slo.md
index cd74c44301e53..a1086c899c9d4 100644
--- a/content/ja/monitors/types/slo.md
+++ b/content/ja/monitors/types/slo.md
@@ -12,7 +12,7 @@ title: SLO アラート
---
-This monitor is available for the Metric-based SLOs, Time Slice SLOs, and Monitor-based SLOs composed of Metric Monitor types (Metric, Integration, APM Metric, Anomaly, Forecast, or Outlier Monitors).
+このモニターは、Metric-based SLO、Time Slice SLO、および以下のメトリックモニタータイプ (Metric、Integration、APM Metric、Anomaly、Forecast、Outlier Monitor) で構成された Monitor-based SLO に対して利用できます。
## 概要
@@ -37,7 +37,7 @@ Datadog で [SLO アラート][2]を作成するには、メインナビゲー
### 通知
-For detailed instructions on the **Configure notifications and automations** section, see the [Notifications][5] page.
+**Configure notifications and automations** セクション (通知と自動化の構成) の詳細な手順については、[通知][5]のページをご覧ください。
すべてのモニタータイプで利用可能な[標準テンプレート変数][6]に加えて、SLO アラートは以下の変数もサポートします。
diff --git a/content/ja/observability_pipelines/log_volume_control/datadog_agent.md b/content/ja/observability_pipelines/log_volume_control/datadog_agent.md
new file mode 100644
index 0000000000000..cd7f086811968
--- /dev/null
+++ b/content/ja/observability_pipelines/log_volume_control/datadog_agent.md
@@ -0,0 +1,233 @@
+---
+disable_toc: false
+title: Datadog Agent の Log Volume Control
+---
+
+## 概要
+
+Datadog Agent ソースを使用して Observability Pipelines Worker をセットアップし、有用なログのみを宛先にルーティングできるようにします。
+
+{{% observability_pipelines/use_case_images/log_volume_control %}}
+
+This document walks you through the following steps:
+1. The [prerequisites](#prerequisites) needed to set up Observability Pipelines
+1. [Setting up Observability Pipelines](#set-up-observability-pipelines)
+1. [Datadog Agent を Observability Pipelines Worker に接続する](#connect-the-datadog-agent-to-the-observability-pipelines-worker)
+
+## 前提条件
+
+{{% observability_pipelines/prerequisites/datadog_agent %}}
+
+## 観測可能性パイプラインを設定する
+
+1. [Observability Pipelines][1] に移動します。
+1. **Log Volume Control** テンプレートを選択して新しいパイプラインを作成します。
+1. ソースとして **Datadog Agent** を選択します。
+
+### Set up the source
+
+{{% observability_pipelines/source_settings/datadog_agent %}}
+
+### Set up the destinations
+
+Enter the following information based on your selected logs destination.
+
+{{< tabs >}}
+{{% tab "Datadog" %}}
+
+{{% observability_pipelines/destination_settings/datadog %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_settings/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_settings/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_settings/syslog %}}
+
+{{% /tab %}}
+{{% tab "Chronicle" %}}
+
+{{% observability_pipelines/destination_settings/chronicle %}}
+
+{{% /tab %}}
+{{% tab "Elasticsearch" %}}
+
+{{% observability_pipelines/destination_settings/elasticsearch %}}
+
+{{% /tab %}}
+{{% tab "OpenSearch" %}}
+
+{{% observability_pipelines/destination_settings/opensearch %}}
+
+{{% /tab %}}
+{{% tab "Amazon OpenSearch" %}}
+
+{{% observability_pipelines/destination_settings/amazon_opensearch %}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### Set up processors
+
+{{% observability_pipelines/processors/intro %}}
+
+{{% observability_pipelines/processors/filter_syntax %}}
+
+{{% observability_pipelines/processors/add_processors %}}
+
+{{< tabs >}}
+{{% tab "Filter" %}}
+
+{{% observability_pipelines/processors/filter %}}
+
+{{% /tab %}}
+{{% tab "Edit fields" %}}
+
+{{% observability_pipelines/processors/remap %}}
+
+{{% /tab %}}
+{{% tab "Sample" %}}
+
+{{% observability_pipelines/processors/sample %}}
+
+{{% /tab %}}
+{{% tab "Grok Parser" %}}
+
+{{% observability_pipelines/processors/grok_parser %}}
+
+{{% /tab %}}
+{{% tab "Quota" %}}
+
+{{% observability_pipelines/processors/quota %}}
+
+{{% /tab %}}
+{{% tab "Reduce" %}}
+
+{{% observability_pipelines/processors/reduce %}}
+
+{{% /tab %}}
+{{% tab "Dedupe" %}}
+
+{{% observability_pipelines/processors/dedupe %}}
+
+{{% /tab %}}
+{{% tab "Sensitive Data Scanner" %}}
+
+{{% observability_pipelines/processors/sensitive_data_scanner %}}
+
+{{% /tab %}}
+{{% tab "Add hostname" %}}
+
+{{% observability_pipelines/processors/add_hostname %}}
+
+{{% /tab %}}
+{{% tab "Parse JSON" %}}
+
+{{% observability_pipelines/processors/parse_json %}}
+
+{{% /tab %}}
+{{% tab "Enrichment table" %}}
+
+{{% observability_pipelines/processors/enrichment_table %}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+### 観測可能性パイプラインワーカーのインストール
+1. Select your platform in the **Choose your installation platform** dropdown menu.
+1. Datadog Agent のアドレスを入力します。これは Datadog Agent がログデータを送信しているアドレスとポートです。Observability Pipelines Worker はこのアドレスでログを受信します。
+1. 選択した各宛先に対する環境変数を設定します。
+{{< tabs >}}
+{{% tab "Datadog" %}}
+
+{{% observability_pipelines/destination_env_vars/datadog %}}
+
+{{% /tab %}}
+{{% tab "Splunk HEC" %}}
+
+{{% observability_pipelines/destination_env_vars/splunk_hec %}}
+
+{{% /tab %}}
+{{% tab "Sumo Logic" %}}
+
+{{% observability_pipelines/destination_env_vars/sumo_logic %}}
+
+{{% /tab %}}
+{{% tab "Syslog" %}}
+
+{{% observability_pipelines/destination_env_vars/syslog %}}
+
+{{% /tab %}}
+{{% tab "Chronicle" %}}
+
+{{% observability_pipelines/destination_env_vars/chronicle %}}
+
+{{% /tab %}}
+{{% tab "Elasticsearch" %}}
+
+{{% observability_pipelines/destination_env_vars/elasticsearch %}}
+
+{{% /tab %}}
+{{% tab "OpenSearch" %}}
+
+{{% observability_pipelines/destination_env_vars/opensearch %}}
+
+{{% /tab %}}
+{{% tab "Amazon OpenSearch" %}}
+
+{{% observability_pipelines/destination_env_vars/amazon_opensearch %}}
+
+{{% /tab %}}
+{{< /tabs >}}
+1. Follow the instructions for your environment to install the Worker.
+{{< tabs >}}
+{{% tab "Docker" %}}
+
+{{% observability_pipelines/install_worker/docker %}}
+
+{{% /tab %}}
+{{% tab "Amazon EKS" %}}
+
+{{% observability_pipelines/install_worker/amazon_eks %}}
+
+{{% /tab %}}
+{{% tab "Azure AKS" %}}
+
+{{% observability_pipelines/install_worker/azure_aks %}}
+
+{{% /tab %}}
+{{% tab "Google GKE" %}}
+
+{{% observability_pipelines/install_worker/google_gke %}}
+
+{{% /tab %}}
+{{% tab "Linux (APT)" %}}
+
+{{% observability_pipelines/install_worker/linux_apt %}}
+
+{{% /tab %}}
+{{% tab "Linux (RPM)" %}}
+
+{{% observability_pipelines/install_worker/linux_rpm %}}
+
+{{% /tab %}}
+{{% tab "CloudFormation" %}}
+
+{{% observability_pipelines/install_worker/cloudformation %}}
+
+{{% /tab %}}
+{{< /tabs >}}
+
+## Connect the Datadog Agent to the Observability Pipelines Worker
+
+{{% observability_pipelines/log_source_configuration/datadog_agent %}}
+
+[1]: https://app.datadoghq.com/observability-pipelines
\ No newline at end of file
diff --git a/content/ja/tracing/legacy_app_analytics/_index.md b/content/ja/tracing/legacy_app_analytics/_index.md
index 102cc4bc6c6c5..9e811eeaf27f5 100644
--- a/content/ja/tracing/legacy_app_analytics/_index.md
+++ b/content/ja/tracing/legacy_app_analytics/_index.md
@@ -35,7 +35,7 @@ App Analytics は、Java トレースクライアントのバージョン 0.25.0
{{< /programming-lang >}}
{{< programming-lang lang="python" >}}
-App Analytics は、Python トレースクライアントのバージョン 0.19.0 以降で使用できます。トレースクライアントでコンフィギュレーションパラメーターを 1 つ設定することで、すべての **web** インテグレーションに対して App Analytics をグローバルに有効にできます。
+App Analytics は Python トレーシング クライアント バージョン 0.19.0 以降で利用できます。この構成は ddtrace バージョン 3.x 以前でのみ利用可能です。Tracing Client の 1 つの構成パラメーターで、すべての **web** 統合に対して App Analytics をグローバルに有効化できます:
* トレーサー構成: `ddtrace.config.analytics_enabled = True`
*
@@ -59,7 +59,7 @@ Datadog.configure { |c| c.tracing.analytics.enabled = true }
App Analyticsは、Go トレースクライアントのバージョン 1.11.0 以降で使用できます。以下を使用することで、すべての **web** インテグレーションにグローバルに有効化できます:
-* [`WithAnalytics`][1] トレーサー開始オプション。例:
+* [`WithAnalytics`][2] ([v1 ドキュメント][1]) トレーサー起動オプション。例:
```go
tracer.Start(tracer.WithAnalytics(true))
@@ -68,6 +68,7 @@ App Analyticsは、Go トレースクライアントのバージョン 1.11.0
* バージョン 1.26.0 以降は、環境変数 `DD_TRACE_ANALYTICS_ENABLED=true` を使用
[1]: https://pkg.go.dev/gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer#WithAnalytics
+[2]: https://pkg.go.dev/github.com/DataDog/dd-trace-go/v2/ddtrace/tracer#WithAnalytics
{{< /programming-lang >}}
{{< programming-lang lang="nodejs" >}}
@@ -185,14 +186,16 @@ Datadog.configure { |c| c.tracing.instrument :integration, analytics_enabled: tr
{{< /programming-lang >}}
{{< programming-lang lang="go" >}}
+{{% tracing-go-v2 %}}
+
グローバル設定に加えて、各インテグレーションで App Analytics を個別に有効または無効にできます。たとえば、標準ライブラリの `net/http` パッケージを構成する場合は、以下のようにします。
-
```go
+```go
package main
import (
- httptrace "gopkg.in/DataDog/dd-trace-go.v1/contrib/net/http"
- "gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer"
+ httptrace "github.com/DataDog/dd-trace-go/contrib/net/http/v2"
+ "github.com/DataDog/dd-trace-go/v2/ddtrace/tracer"
)
func main() {
@@ -200,9 +203,9 @@ func main() {
defer tracer.Stop()
mux := httptrace.NewServeMux(httptrace.WithAnalytics(true))
- // ...
-
}
-```
+ // ...
+}
+```
{{< /programming-lang >}}
{{< programming-lang lang="nodejs" >}}
@@ -513,4 +516,4 @@ Agent の APM レート制限を増やすには、Agent のコンフィギュレ
[1]: /ja/tracing/trace_pipeline/ingestion_controls/
-[2]: /ja/tracing/trace_pipeline/ingestion_mechanisms/
+[2]: /ja/tracing/trace_pipeline/ingestion_mechanisms/
\ No newline at end of file
diff --git a/content/ko/monitors/types/service_check.md b/content/ko/monitors/types/service_check.md
index 8213a4b1e8683..cfd0777044160 100644
--- a/content/ko/monitors/types/service_check.md
+++ b/content/ko/monitors/types/service_check.md
@@ -7,11 +7,11 @@ description: 임의 서비스 검사 상태를 모니터링합니다.
further_reading:
- link: /monitors/notify/
tag: 설명서
- text: Configure your monitor notifications
+ text: 모니터 알림 설정
- link: /monitors/downtimes/
tag: 설명서
- text: Schedule a downtime to mute a monitor
-- link: /monitors/manage/status/
+ text: 모니터 음소거를 위한 다운타임 시간 예약
+- link: /모니터/상태/
tag: 설명서
text: 모니터 상태를 확인하세요
title: 서비스 검사 모니터
@@ -43,24 +43,24 @@ Datadog에서 [서비스 검사 모니터][6]를 생성하려면 기본 탐색
{{< tabs >}}
{{% tab "Check Alert" %}}
-검사 알림은 검사 그룹별로 제출된 연속 상태를 추적하고 이를 임계값과 비교합니다.
+검사 알림은 검사 그룹별로 제출된 연속 상태를 추적하고 이를 임계값과 비교합니다.
검사 알림 설정
1. 검사를 보고하는 각 `
`에 대해 별도의 알림을 트리거합니다.
* 검사 그룹화는 알려진 그룹화 목록에서 또는 사용자가 지정합니다. 서비스 검사 모니터의 경우 검사별 그룹화가 명시되지 않으므로 직접 지정해야 합니다.
-2. 선택한 장애가 연속적으로 발생하면 경고를 트리거합니다:``
- * 알림을 트리거하는 `CRITICAL` 상태의 연속 실행 횟수를 선택합니다. 예를 들어 검사가 실패할 때 즉시 알림을 받으려면 `1` 위험 상태에 대한 모니터 경고를 트리거합니다.
+2. 연속 실패 횟수를 선택하여 알림을 트리거합니다:``
+ * 알림을 트리거하는 `CRITICAL` 상태의 연속 실행 횟수를 선택합니다. 예를 들어 검사가 실패할 때 즉시 알림을 받으려면 `1` 위험 상태에 대한 모니터 알림을 트리거합니다.
3. Unknown 상태에 대해 `Do not notify` 또는 `Notify`를 선택합니다.
* `Notify`를 선택하면 `UNKNOWN`으로 전환될 때 알림을 트리거합니다. [모니터 상태 페이지][1]에서 `UNKNOWN` 상태에 있는 그룹의 상태 표시줄은 `NODATA` 회색을 사용합니다. 모니터의 전반적인 상태는 `OK`로 유지됩니다.
4. 연속 성공 횟수를 선택하여 알림을 해결합니다: ``
- * 알림을 해결하는 `OK` 상태의 연속 실행 횟수를 선택합니다. 예를 들어 문제가 해결되었는지 확인하려면 `4``OK`상태에서 모니터를 해결합니다.
+ * 알림을 해결하는 `OK` 상태의 연속 실행 횟수를 선택합니다. 예를 들어 문제가 해결되었는지 확인하려면 `4``OK` 상태에서 모니터를 해결합니다.
-[1]: /ko/monitors/manage/status
+[1]: /ko/monitors/status
{{% /tab %}}
{{% tab "Cluster Alert" %}}
@@ -70,24 +70,24 @@ Datadog에서 [서비스 검사 모니터][6]를 생성하려면 기본 탐색
{{< img src="monitors/monitor_types/process_check/cluster_check_thresholds.png" alt="클러스터 검사 임계값" style="width:90%;">}}
-예를 들어, 환경별로 그룹화된 클러스터 검사 모니터는 환경에 대한 검사 중 70% 이상이 `CRITICAL` 상태를 제출하면 알림을 트리거할 수 있고, 환경에 대한 검사 중 70% 이상이 `WARN` 상태를 제출하면 경고할 수 있습니다.
+예를 들어, 환경별로 그룹화된 클러스터 검사 모니터는 환경에 대한 검사 중 70% 이상이 `CRITICAL` 상태를 제출하면 알림을 트리거할 수 있고, 환경에 대한 검사 중 70% 이상이 `WARN` 상태를 제출하면 경고할 수 있습니다.
클러스터 알림을 설정하려면:
1. 태그에 따라 검사를 그룹화할지를 결정합니다. `Ungrouped`는 모든 소스의 상태 비율을 계산합니다. `Grouped`는 그룹별로 상태 비율을 계산합니다.
-2. 알림 및 알림 임계값의 백분율을 선택합니다. 하나의 설정(알림 또는 경고)만 필요합니다.
+2. 알림 및 경고 임계값의 백분율을 선택합니다. 하나의 설정(알림 또는 경고)만 필요합니다.
{{% /tab %}}
{{< /tabs >}}
-#### 고급 경고 조건
+#### 고급 알림 조건
-[데이터 없음][8], [자동 해결][9] 및 [새 그룹 지연][10] 옵션에 대한 자세한 내용은 [모니터 설정][7] 설명서를 참조하세요.
+[데이터 없음][8], [자동 해결][9], [새 그룹 지연][10] 옵션에 대한 자세한 내용은 [모니터 설정][7] 설명서를 참조하세요.
### 알림
-**Say what's happening** 및 **Notify your team** 섹션에 대한 자세한 지침은 [알림][11] 페이지를 참조하세요.
+**알림 및 자동화 설정하기** 섹션에 관한 자세한 지침은 [알림][11] 페이지를 참조하세요.
## 참고 자료
diff --git a/content/ko/profiler/automated_analysis.md b/content/ko/profiler/automated_analysis.md
new file mode 100644
index 0000000000000..22d9964747e57
--- /dev/null
+++ b/content/ko/profiler/automated_analysis.md
@@ -0,0 +1,74 @@
+---
+description: 상황별 인사이트와 다음 단계 추천을 제시하고 중대 오류를 자동으로 표시
+further_reading:
+- link: profiler/enabling
+ tag: 설명서
+ text: 애플리케이션에 대해 지속적 프로파일러 사용
+- link: getting_started/profiler
+ tag: 설명서
+ text: 프로파일러 시작하기
+- link: https://www.datadoghq.com/blog/introducing-datadog-profiling/
+ tag: 블로그
+ text: DataDog에 상시 가동 프로덕션 프로파일링 도입
+- link: https://www.datadoghq.com/blog/continuous-profiler-timeline-view/
+ tag: 블로그
+ text: Continuous Profiler의 타임라인 뷰를 사용해 런타임 및 코드 비효율성 진단
+title: Automated Analysis
+---
+{{< callout url="https://www.datadoghq.com/product-preview/automated-analysis/" btn_hidden="false" header="체험판 신청하기" >}}
+Automated Analysis는 현재 체험판 버전입니다.
+{{< /callout >}}
+
+## 개요
+Automated Analysis는 Continuous Profiler 데이터를 사용하여 애플리케이션의 성능 문제를 자동으로 감지하고 실행 가능한 해결 인사이트를 제공합니다. 문제가 감지되면 Automated Analysis는 다음을 제공합니다.
+
+- 문제와 해당 문제가 중요한 이유를 설명하는 개괄적 요약
+- 프로파일링 데이터에서 얻은 상황별 인사이트(예: 영향을 받는 메서드, 패키지 또는 프로세스)
+- 문제 해결에 도움이 되는 다음 단계 권장 사항
+
+발견하지 못할 수도 있는 애플리케이션의 성능 문제를 식별하고 이를 해결하는 데 필요한 프로파일링 전문성을 줄입니다.
+
+{{< img src="profiler/profiling_automated_analysis.png" alt="발생 예외 인사이트가 표시된 Profiler 스레드 타임라인" style="width:100%;" >}}
+
+## 인사이트 살펴보기
+[Profile Explorer][1]에서 Automated Analysis에 액세스합니다. 다음 인사이트가 표시됩니다.
+
+- 특정 서비스로 범위가 지정되면 Page 상단의 **Top Insights** 배너에서 다음을 확인할 수 있습니다.
+{{< img src="profiler/profiling_automated_analysis_banner.png" alt="Automated Analysis 배너, 지정된 서비스에 대해 탐지된 인사이트가 표시됨" style="width:100%;">}}
+
+- 서비스 목록의 **Insights** 열에 다음과 같이 표시됩니다.
+{{< img src="profiler/profiling_automated_analysis_column.png" alt="Automated Analysis 열, 서비스 목록 내 지정된 서비스와 관련하여 탐지된 인사이트가 표시됨" style="width:100%;">}}
+
+- 플레임 그래프 보기 내에서는 다음과 같이 표시됩니다.
+{{< img src="profiler/profiling_automated_analysis_flamegraph_viz.png" alt="Automated Analysis 열, 플레임 그래프 내의 지정된 서비스와 관련하여 탐지된 인사이트가 표시됨" style="width:100%;">}}
+
+- 타임라인 보기 내에서는 다음과 같이 표시됩니다.
+{{< img src="profiler/profiling_automated_analysis.png" alt="Automated Analysis 열, 타임라인 내 지정된 서비스에 대해 탐지된 인사이트가 표시됨" style="width:100%;">}}
+
+인사이트를 클릭하면 문제를 설명하는 개괄적 요약, 프로파일링 데이터의 상황별 인사이트, 권장 다음 단계를 확인할 수 있습니다.
+{{< img src="profiler/profiling_automated_analysis_details.png" alt="감지된 문제의 세부 사항을 보여주는 확장 프로파일링 인사이트" style="width:100%;">}}
+
+## 지원되는 인사이트
+
+Automated Analysis는 다음 인사이트를 확인할 수 있도록 지원합니다.
+
+| 이름 | 심각도 | 설명 |
+|---------------------------|----------|-------------|
+| 중복 플래그 | Info | 런타임에 중복 플래그가 입력된 경우 트리거됩니다(예: `-Xmx2g -Xmx5g`). 이는 예상 효과가 나타나지 않는 변경으로 이어질 수 있으므로 문제가 됩니다. |
+| 명시적 GC | Info | System.gc() 호출이 있는 경우 트리거됩니다. |
+| GC 일시 중지 피크 지속 시간 | Info | 하나 이상의 GC 일시 중지가 1초 이상 소요될 경우 트리거됩니다. |
+| GC 설정 | Info | 멀티코어 머신에서 시리얼 GC가 사용된 경우, 단일 코어 머신에서 병렬 GC가 사용된 경우, 사용 가능한 코어보다 많은 GC 스레드가 구성된 경우, 또는 병렬 GC가 1개의 스레드로 실행되도록 구성된 경우 중 하나가 발생하면 트리거됩니다. |
+| HOL 차단 | Info | 큐 이벤트가 지정된 활동 뒤에서 멈춘 경우 트리거됩니다. |
+| 기본 값 박싱 | Info | 기본 값<>오브젝트 값 간의 변환에 CPU 시간의 5% 이상이 소모된 경우 트리거됩니다. |
+| 교착 상태의 스레드 감지 | 경고 | 쿼리 컨텍스트에 대한 최대 교착 상태 스레드 수가 0보다 클 경우 트리거됩니다. |
+| GC 일시 중지 | 경고 | GC 일시 중지에 10% 이상의 시간을 소모한 경우 트리거됩니다. |
+| 옵션 | 경고 | 문서화되지 않았거나 사용 중단되었거나 권장되지 않는 옵션 플래그가 감지되면 트리거됩니다. |
+| 스택 깊이 설정 | 경고 | 잘린 스택트레이스가 있는 이벤트 때문에 프로파일링 데이터를 이해하기 어려우면 트리거됩니다. |
+| 발생 예외(Thrown Exceptions) | 경고 | 1분당 발생하는 발생 예외(처리된 예외 및 처리되지 않은 예외)의 비율이 임계값(기본값: 1만 건)을 초과하면 트리거됩니다. |
+| VMOperation 피크 지속 시간 | 경고 | 차단성 VM 작업(또는 시간상 가까운 여러 작업의 조합)이 2초를 초과해 실행될 경우 트리거됩니다. 가장 오래 걸린 작업과 관련한 세부 정보가 보고됩니다. |
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/profiling/explorer
\ No newline at end of file
diff --git a/content/ko/security/application_security/threats/add-user-info.md b/content/ko/security/application_security/threats/add-user-info.md
new file mode 100644
index 0000000000000..468e4f95dc81b
--- /dev/null
+++ b/content/ko/security/application_security/threats/add-user-info.md
@@ -0,0 +1,848 @@
+---
+aliases:
+- /ko/security_platform/application_security/add-user-info
+- /ko/security/application_security/add-user-info
+further_reading:
+- link: /security/application_security/
+ tag: 설명서
+ text: Datadog App과 API Protection을 사용하여 위협으로부터 보호
+- link: /security/application_security/threats/library_configuration/
+ tag: 설명서
+ text: 기타 고려 사항 및 구성 옵션
+title: 사용자 모니터링 및 보호
+---
+
+## 개요
+
+서비스를 계측하고 사용자 활동을 추적하여 악성 행위자를 탐지하고 차단하세요.
+
+[트레이스에 인증된 사용자 정보를 추가](#adding-authenticated-user-information-to-traces-and-enabling-user-blocking-capability)하여 인증된 공격 영역을 노리는 악성 공격자를 식별하고 차단합니다. 이를 위해 실행 중인 APM 트레이스에 사용자 ID 태그를 설정하여 AAP가 인증된 공격자를 차단하는 데 필요한 도구를 제공해야 합니다. 이렇게 하면 AAP는 공격 및 비즈니스 로직 이벤트를 사용자와 연결할 수 있습니다.
+
+기본 제공 탐지 규칙을 활용해 [사용자의 로그인 및 활동을 추적](#adding-business-logic-information-login-success-login-failure-any-business-logic-to-traces)함으로써, 계정 탈취나 비즈니스 로직 악용을 탐지하고 궁극적으로 공격자를 차단할 수 있습니다.
+
+기본 탐지 규칙을 적용한 사용자 맞춤 활동은 다음과 같습니다.
+
+| 기본 제공 이벤트 이름 | 필수 메타데이터 | 관련 규칙 |
+|------------------------|------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `activity.sensitive` | `{ "name": "coupon_use", "required_role": "user" }` | [IP 기반 속도 제한이 적용된 활동][4]
[승인되지 않은 활동 감지][5] |
+| `users.login.success` | 사용자 ID는 필수이며, 필요시 메타데이터를 추가할 수 있음 | [크리덴셜 스터핑 공격[6]
[무차별 대입 공격][12]
[분산형 크리덴셜 스터핑 공격][13] |
+| `users.login.failure` | 사용자 ID와 `usr.exists`는 필수이며, 필요시 메타데이터를 추가할 수 있음 | [크리덴셜 스터핑 공격[6]
[무차별 대입 공격][12]
[분산형 크리덴셜 스터핑 공격][13] |
+| `users.signup` | `{ "usr.id": "12345" }` | [IP에서 과도한 계정 생성][7] |
+| `users.delete` | `{ "usr.id": "12345" }` | [IP에서 과도한 계정 삭제][8] |
+| `users.password_reset` | `{ "usr.id": "12345", "usr.login": "user@email.com", "exists": true }` | [암호 재설정 무차별 대입 시도][9] |
+| `payment.failure` | 없음 | [IP에서 과도한 결제 실패][10] |
+
+## 인증된 사용자 정보를 추적에 추가하고 사용자 차단 기능 활성화
+
+
+
사용자 활동 자동 감지: Datadog Tracing Libraries는 사용자 활동 이벤트를 자동으로 감지하고 보고합니다. 자세한 내용은
자동 사용자 활동 이벤트 추적 비활성화를 참고하세요.
+
+
+[루트 스팬에 사용자 정의 태그를 추가][3]하거나 아래 설명된 계측 기능을 사용할 수 있습니다.
+
+{{< programming-lang-wrapper langs="java,dotnet,go,ruby,php,nodejs,python" >}}
+
+{{< programming-lang lang="java" >}}
+
+Java 트레이서 API를 사용하여 루트 스팬에 사용자 정의 태그와 사용자 정보를 추가하면 애플리케이션에서 인증된 요청을 모니터링할 수 있습니다.
+
+사용자 모니터링 태그는 루트 스팬에 적용되며 `usr` 접두사로 시작하고 그 뒤에 필드 이름이 옵니다. 예를 들어, `usr.name`는 사용자 이름을 추적하는 사용자 모니터링 태그입니다.
+
+**참고**: [애플리케이션에 필요한 종속성][1]이 추가되었는지 확인하세요.
+
+아래 예에서는 루트 스팬을 얻고, 관련 사용자 모니터링 태그를 추가하고, 사용자 차단 기능을 활성화하는 방법을 보여줍니다.
+
+```java
+import io.opentracing.Span;
+import io.opentracing.util.GlobalTracer;
+import datadog.appsec.api.blocking.Blocking;
+import datadog.trace.api.interceptor.MutableSpan;
+
+// 활성화된 스팬 가져오기
+final Span span = GlobalTracer.get().activeSpan();
+if ((span instanceof MutableSpan)) {
+ MutableSpan localRootSpan = ((MutableSpan) span).getLocalRootSpan();
+ // 필수 사용자 ID 태그 설정
+ localRootSpan.setTag("usr.id", "d131dd02c56eec4");
+ // 선택적 사용자 모니터링 태그 설정
+ localRootSpan.setTag("usr.name", "Jean Example");
+ localRootSpan.setTag("usr.email", "jean.example@example.com");
+ localRootSpan.setTag("usr.session_id", "987654321");
+ localRootSpan.setTag("usr.role", "admin");
+ localRootSpan.setTag("usr.scope", "read:message, write:files");
+}
+
+Blocking
+ .forUser("d131dd02c56eec4")
+ .blockIfMatch();
+```
+
+[1]: /ko/tracing/trace_collection/custom_instrumentation/opentracing/java#setup
+{{< /programming-lang >}}
+
+{{< programming-lang lang="dotnet" >}}
+
+.NET 트레이서 패키지는 `SetUser()` 함수를 제공하여 사용자 정보를 트레이스에 추가하고 인증된 요청을 모니터링할 수 있는 기능을 제공합니다.
+
+아래 예에서는 관련 사용자 모니터링 태그를 추가하고 사용자 차단 기능을 활성화하는 방법을 보여줍니다.
+
+```csharp
+
+using Datadog.Trace;
+
+// ...
+
+ var userDetails = new UserDetails()
+ {
+ // 사용자를 위한 시스템 내부 식별자
+ Id = "d41452f2-483d-4082-8728-171a3570e930",
+ // 사용자 이메일 주소
+ Email = "test@adventure-works.com",
+ // 시스템에 표시되는 사용자 이름
+ Name = "Jane Doh",
+ // 사용자의 세션 ID
+ SessionId = "d0632156-132b-4baa-95b2-a492c5f9cb16",
+ // 사용자가 요청하는 역할
+ Role = "standard",
+ };
+ Tracer.Instance.ActiveScope?.Span.SetUser(userDetails);
+```
+
+자세한 내용과 옵션은 [.NET 트레이서 문서][1]를 참고하세요.
+
+[1]: https://github.com/DataDog/dd-trace-dotnet/tree/master/docs/Datadog.Trace#user-identification
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="go" >}}
+
+Go 트레이서 패키지는 트레이스에 사용자 정보를 추가하여 인증된 요청을 모니터링할 수 있는 `SetUser()` 함수를 제공합니다. 더 많은 옵션은 [Go 트레이서 문서][1](또는 [v2 문서][2])를 참고하세요.
+
+이 예제에서는 현재 트레이서 스팬을 검색하고 이를 사용하여 사용자 모니터링 태그를 설정하며, 사용자 차단 기능을 활성화하는 방법을 보여줍니다.
+
+```go
+import (
+ "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x
+ // "github.com/DataDog/dd-trace-go/v2/appsec // 2.x
+)
+
+func handler(w http.ResponseWriter, r *http.Request) {
+ if appsec.SetUser(r.Context(), "my-uid") != nil {
+ // 요청 핸들러를 최대한 빨리 중단하여 사용자를 차단해야 합니다.
+ // 차단 응답은 AppSec 미들웨어에 의해 자동으로 처리되어 전송됩니다.
+ return
+ }
+}
+```
+
+[1]: https://pkg.go.dev/gopkg.in/DataDog/dd-trace-go.v1/ddtrace/tracer#SetUser
+[2]: https://pkg.go.dev/github.com/DataDog/dd-trace-go/v2/ddtrace/tracer#SetUser
+{{< /programming-lang >}}
+
+{{< programming-lang lang="ruby" >}}
+
+다음 API 중 하나를 사용하여 트레이스에 사용자 정보를 추가하면 애플리케이션에서 인증된 요청을 모니터링할 수 있습니다.
+
+{{% collapse-content title="set_user" level="h4" expanded="true" %}}
+
+`ddtrace` 1.1.0 버전부터 `Datadog::Kit::Identity.set_user` 메서드를 사용할 수 있습니다. 트레이스에 사용자 정보를 추가하려면 다음 API를 사용하는 것이 좋습니다.
+
+```ruby
+# 활성화된 트레이스 가져오기
+trace = Datadog::Tracing.active_trace
+
+# 필수 사용자 ID 태그 설정
+Datadog::Kit::Identity.set_user(trace, id: 'd131dd02c56eeec4')
+
+# 또는 선택적 사용자 모니터링 태그 설정
+Datadog::Kit::Identity.set_user(
+ trace,
+
+ # 필수 ID
+ id: 'd131dd02c56eeec4',
+
+ # 의미가 정해진 선택적 태그들
+ name: 'Jean Example',
+ email:, 'jean.example@example.com',
+ session_id:, '987654321',
+ role: 'admin',
+ scope: 'read:message, write:files',
+
+ # 선택적인 자유 형식 태그
+ another_tag: 'another_value',
+)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="set_tag" level="h4" expanded="false" id="ruby-set-tag" %}}
+
+`Datadog::Kit::Identity.set_user`로 충분하지 않으면 `set_tag`를 대신 사용할 수 있습니다.
+
+사용자 모니터링 태그는 트레이스에 적용되며 접두사 `usr.`로 시작하고 그 뒤에 필드 이름이 옵니다. 예를 들어, `usr.name`는 사용자 이름을 추적하는 사용자 모니터링 태그입니다.
+
+아래 예에서는 활성화된 트레이스를 얻고 관련 사용자 모니터링 태그를 추가하는 방법을 보여줍니다.
+
+**참고**:
+- 태그 값은 문자열이어야 합니다.
+- `usr.id` 태그는 필수입니다.
+
+```ruby
+# 활성 추적 가져오기
+trace = Datadog::Tracing.active_trace
+
+# 필수 사용자 ID 태그 설정
+trace.set_tag('usr.id', 'd131dd02c56eeec4')
+
+# 의미가 정해진 선택적 사용자 모니터링 태그 설정
+trace.set_tag('usr.name', 'Jean Example')
+trace.set_tag('usr.email', 'jean.example@example.com')
+trace.set_tag('usr.session_id', '987654321')
+trace.set_tag('usr.role', 'admin')
+trace.set_tag('usr.scope', 'read:message, write:files')
+
+# 자유 형식 태그 설정
+trace.set_tag('usr.another_tag', 'another_value')
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="php" >}}
+
+PHP 트레이서는 인증된 요청을 모니터링하고 차단할 수 있는 `\DDTrace\set_user()` 함수를 제공합니다.
+
+`\DDTrace\set_user()`는 트레이스에 관련 사용자 태그와 메타데이터를 추가하고 자동으로 사용자를 차단합니다.
+
+다음 예제에서는 사용자 모니터링 태그를 설정하고 사용자 차단을 활성화하는 방법을 보여줍니다.
+
+```php
+ 'Jean Example',
+ 'email' => 'jean.example@example.com',
+ 'session_id' => '987654321',
+ 'role' => 'admin',
+ 'scope' => 'read:message, write:files',
+ ]
+);
+?>
+```
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="nodejs" >}}
+
+Node 트레이서 패키지는 사용자 정보를 트레이스에 추가하여 인증된 요청을 모니터링할 수 있는 `tracer.setUser(user)` 함수를 제공합니다.
+
+아래 예에서는 관련 사용자 모니터링 태그를 추가하고 사용자 차단 기능을 활성화하는 방법을 보여줍니다.
+
+```javascript
+const tracer = require('dd-trace').init()
+
+function handle () {
+ tracer.setUser({
+ id: '123456789', // *필수* 사용자 고유 식별자.
+
+ // 다른 모든 필드는 선택 사항입니다.
+ email: 'jane.doe@example.com', // 사용자 이메일 주소
+ name: 'Jane Doe', // 사용자 이름
+ session_id: '987654321', // 사용자 세션 ID
+ role: 'admin', // 사용자가 요청하는 역할
+ scope: 'read:message, write:files', // 사용자가 현재 소유하고 있는 범위 또는 부여된 권한
+
+ // 커스텀 데이터를 추가하기 위한 임의의 필드도 허용됩니다(RBAC, Oauth 등).
+ custom_tag: 'custom data'
+ })
+
+// 현재 인증된 사용자를 설정하고 차단 여부를 확인하세요.
+if (tracer.appsec.isUserBlocked(user)) { // 현재 인증된 사용자도 설정합니다.
+ return tracer.appsec.blockRequest(req, res) // 차단 응답이 전송되었습니다.
+ }
+
+}
+```
+
+자세한 내용과 옵션은 [Node.js 트레이서 문서][1]를 참고하세요.
+
+
+
+[1]: https://datadoghq.dev/dd-trace-js/#set-user
+{{< /programming-lang >}}
+
+{{< programming-lang lang="python" >}}
+
+Python 트레이서 패키지가 제공하는 `set_user` 함수를 사용하여 트레이스에 사용자 정보를 추가하고 인증된 요청을 모니터링합니다.
+
+이 예제에서는 사용자 모니터링 태그를 설정하고 사용자 차단 기능을 활성화하는 방법을 보여줍니다.
+
+```python
+from ddtrace.contrib.trace_utils import set_user
+from ddtrace import tracer
+# 현재 인증된 사용자 ID를 추적하려면 set_user()를 호출합니다.
+user_id = "some_user_id"
+set_user(tracer, user_id, name="John", email="test@test.com", scope="some_scope",
+ role="manager", session_id="session_id", propagate=True)
+```
+
+{{< /programming-lang >}}
+
+{{< /programming-lang-wrapper >}}
+
+## 트레이스에 비즈니스 로직 정보(로그인 성공, 로그인 실패, 모든 비즈니스 로직) 추가
+
+
+usr.id 및 usr.login에 대한 참고 사항: 로그인 악용 조사는 비슷하지만 서로 다른 두 가지 개념에 기반합니다. usr.id는 데이터베이스에 저장된 사용자 계정의 고유 식별자를 포함합니다. 이 값은 고유하며 변경되지 않습니다. 존재하지 않는 계정에 로그인을 시도할 경우 usr.id를 얻을 수 없습니다. 사용자 차단은 usr.id를 대상으로 수행됩니다.
+
+사용자는 일반적으로 자신의 사용자 ID를 알지 못합니다. 대신 변경 가능한 식별자(전화번호, 사용자 이름, 이메일 주소 등)를 사용합니다. 사용자가 계정에 로그인하는 데 사용하는 문자열은 로그인 이벤트에서 usr.login으로 보고되어야 합니다.
+usr.login를 제공하지 않으면 usr.id가 대신 사용됩니다.
+
+
+{{< programming-lang-wrapper langs="java,dotnet,go,ruby,php,nodejs,python" >}}
+{{< programming-lang lang="java" >}}
+
+dd-trace-java v1.8.0부터 Java 트레이서 API를 사용하여 사용자 이벤트를 추적할 수 있습니다.
+
+다음 예제는 로그인 이벤트나 사용자 정의 이벤트(가입을 예로 들어)를 추적하는 방법을 보여줍니다.
+
+{{% collapse-content title="로그인 성공" level="h4" expanded="true" %}}
+```java
+import datadog.trace.api.EventTracker;
+import datadog.trace.api.GlobalTracer;
+
+public class LoginController {
+
+ private User doLogin(String userName, String password) {
+ // 여기서 userName과 password 크리덴셜을 기반으로 사용자를 가져옵니다.
+ User user = checkLogin(userName, password);
+
+ Map metadata = new HashMap<>();
+ metadata.put("email", user.getEmail());
+ metadata.put("usr.login", userName);
+
+ // 시스템에 여러 "테넌트"가 있는 경우 해당 테넌트를 입력해 주세요. 테넌트는 사용자 환경/그룹입니다
+ metadata.put("usr.org", usr.getTenant());
+
+ // 사용자 인증 성공 이벤트를 추적합니다.
+ GlobalTracer
+ .getEventTracker()
+ .trackLoginSuccessEvent(user.getId(), metadata);
+
+ }
+}
+
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="로그인 실패" level="h4" expanded="false" id="java-login-failure" %}}
+```java
+import datadog.trace.api.EventTracker;
+import datadog.trace.api.GlobalTracer;
+
+public class LoginController {
+
+ private User doLogin(String userName, String password) {
+ // 여기서 userName/password 크리덴셜을 기반으로 사용자를 가져옵니다
+ User user = checkLogin(userName, password);
+
+ // 함수가 null을 반환하는 경우 - 사용자가 존재하지 않습니다
+ boolean userExists = (user != null);
+ String userId = null;
+ Map metadata = new HashMap<>();
+ metadata.put("usr.login", userName);
+ if (userExists != null) {
+ userId = getUserId(userName)
+ metadata.put("email", user.getEmail());
+ } else {
+ userId = userName;
+ }
+
+ // 사용자 인증 오류 이벤트를 추적합니다
+ GlobalTracer
+ .getEventTracker()
+ .trackLoginFailureEvent(userId, userExists, metadata);
+ }
+}
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="사용자 정의 비즈니스 로직" level="h4" expanded="false" id="java-custom-business" %}}
+```java
+import datadog.trace.api.EventTracker;
+import datadog.trace.api.GlobalTracer;
+
+public class LoginController {
+
+ private User doSignup(String userId, String email) {
+ // 여기서 사용자 계정을 생성합니다
+ User user = createUser(userId, email);
+
+ Map metadata = new HashMap<>();
+ metadata.put("usr.id", user.getId());
+
+ // 사용자 가입 이벤트를 추적합니다
+ GlobalTracer
+ .getEventTracker()
+ .trackCustomEvent("users.signup", metadata);
+ }
+}
+
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="dotnet" >}}
+
+dd-trace-dotnet v2.23.0부터 .NET 트레이서 API를 사용하여 사용자 이벤트를 추적할 수 있습니다.
+
+다음 예제는 로그인 이벤트나 사용자 정의 이벤트(가입을 예로 들어)를 추적하는 방법을 보여줍니다.
+
+{{% collapse-content title="로그인 성공" level="h4" expanded="true" %}}
+```csharp
+using Datadog.Trace.AppSec;
+
+void OnLogonSuccess(string userId, string login...)
+{
+ // 메타데이터는 선택사항입니다.
+ var metadata = new Dictionary()
+ {
+ { "usr.login", login }
+ };
+ EventTrackingSdk.TrackUserLoginSuccessEvent(userId, metadata);
+
+ // ...
+}
+
+```
+{{% /collapse-content %}}
+{{% collapse-content title="로그인 실패" level="h4" expanded="false" id="dotnet-login-failure" %}}
+```csharp
+using Datadog.Trace.AppSec;
+
+void OnLogonFailure(string userId, string login, bool userExists, ...)
+{
+ // 사용자 ID를 제공할 수 없는 경우 고유한 사용자 식별자(사용자 이름, 이메일 등)를 사용할 수 있습니다
+ // 메타데이터는 선택사항입니다
+ var metadata = new Dictionary()
+ {
+ { "usr.login", login }
+ };
+ EventTrackingSdk.TrackUserLoginFailureEvent(userId, userExists, metadata);
+
+ // ...
+}
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="사용자 정의 비즈니스 로직" level="h4" expanded="false" id="dotnet-custom-business" %}}
+```csharp
+void OnUserSignupComplete(string userId, ...)
+{
+ // 메타데이터 파라미터는 선택 사항이지만 "usr.id"를 추가합니다
+ var metadata = new Dictionary()
+ {
+ { "usr.id", userId }
+ };
+ // 사용자 가입을 추적하기 위해 사용자 정의 비즈니스 로직 추적을 활용합니다
+ EventTrackingSdk.TrackCustomEvent("users.signup", metadata);
+
+ // ...
+}
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+{{< programming-lang lang="go" >}}
+
+dd-trace-go v1.47.0부터 Go 트레이서 API를 사용하여 사용자 이벤트를 추적할 수 있습니다.
+
+다음 예제는 로그인 이벤트나 사용자 정의 이벤트(가입을 예로 들어)를 추적하는 방법을 보여줍니다.
+
+{{% collapse-content title="로그인 성공" level="h4" expanded="true" %}}
+```go
+import (
+ "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x
+ // "github.com/DataDog/dd-trace-go/v2/appsec" // 2.x
+)
+
+func handler(w http.ResponseWriter, r *http.Request) {
+ metadata := make(map[string]string) /* 선택적 추가 이벤트 메타데이터*/
+ userdata := /* 선택적 추가 사용자 데이터 */
+
+ metadata["usr.login"] = "user-email"
+
+ // 로그인 성공 여부를 추적하고 `my-uid`를 사용자의 고유 식별자(숫자, 사용자 이름, 이메일 등)로 바꿉니다
+ if appsec.TrackUserLoginSuccessEvent(r.Context(), "my-uid", metadata, userdata) != nil {
+ // 해당 사용자 ID가 차단되었으며 핸들러는 최대한 빨리 중단되어야 합니다
+ // 차단 응답은 AppSec 미들웨어에 의해 전송됩니다
+ return
+ }
+}
+```
+{{% /collapse-content %}}
+{{% collapse-content title="로그인 실패" level="h4" expanded="false" id="go-login-failure" %}}
+```go
+import (
+ "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x
+ // "github.com/DataDog/dd-trace-go/v2/appsec" // 2.x
+)
+
+func handler(w http.ResponseWriter, r *http.Request) {
+ exists := /* 주어진 사용자 ID가 존재하는지 여부 */
+ metadata := make(map[string]string) /* 선택적 추가 이벤트 메타데이터 */
+ metadata["usr.login"] = "user-email"
+
+ // `my-uid`를 사용자의 고유 식별자(숫자, 사용자 이름, 이메일...)로 바꿉니다
+ appsec.TrackUserLoginFailureEvent(r.Context(), "my-uid", exists, metadata)
+}
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="사용자 정의 비즈니스 로직" level="h4" expanded="false" id="go-custom-business" %}}
+```go
+import (
+ "gopkg.in/DataDog/dd-trace-go.v1/appsec" // 1.x
+ // "github.com/DataDog/dd-trace-go/v2/appsec" // 2.x
+)
+
+func handler(w http.ResponseWriter, r *http.Request) {
+ metadata := map[string]string{"usr.id": "my-uid"}
+
+ // 사용자 가입을 추적하기 위해 사용자 정의 비즈니스 로직 추적을 활용합니다
+ appsec.TrackCustomEvent(r.Context(), "users.signup", metadata)
+}
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+{{< programming-lang lang="ruby" >}}
+
+dd-trace-rb v1.9.0부터 Ruby 트레이서 API를 사용하여 사용자 이벤트를 추적할 수 있습니다.
+
+다음 예제는 로그인 이벤트나 사용자 정의 이벤트(가입을 예로 들어)를 추적하는 방법을 보여줍니다.
+
+로그인 성공/실패 이벤트가 포함된 트레이스는 `@appsec.security_activity:business_logic.users.login.success` 또는 `@appsec.security_activity:business_logic.users.login.failure` 쿼리를 사용하여 조회할 수 있습니다.
+
+{{% collapse-content title="Login success" level="h4" expanded="true" %}}
+```ruby
+require 'datadog/kit/appsec/events'
+
+trace = Datadog::Tracing.active_trace
+# `my_user_id`를 사용자의 고유 식별자(숫자, 사용자 이름, 이메일...)로 바꾸세요
+Datadog::Kit::AppSec::Events.track_login_success(trace, user: { id: 'my_user_id' }, { 'usr.login': 'my_user_email' })
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="로그인 실패" level="h4" expanded="false" id="ruby-login-failure" %}}
+```ruby
+require 'datadog/kit/appsec/events'
+trace = Datadog::Tracing.active_trace
+
+# `my_user_id`를 사용자의 고유 식별자(숫자, 사용자 이름, 이메일...)로 바꾸세요
+
+# 사용자가 존재하는 경우
+Datadog::Kit::AppSec::Events.track_login_failure(trace, user_id: 'my_user_id', user_exists: true, { 'usr.login': 'my_user_email' })
+
+# 사용자가 존재하지 않는 경우
+Datadog::Kit::AppSec::Events.track_login_failure(trace, user_id: 'my_user_id', user_exists: false, { 'usr.login': 'my_user_email' })
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="사용자 정의 비즈니스 로직" level="h4" expanded="false" id="ruby-custom-business" %}}
+```ruby
+require 'datadog/kit/appsec/events'
+trace = Datadog::Tracing.active_trace
+
+# `my_user_id`를 사용자의 고유 식별자(숫자, 사용자 이름, 이메일...)로 바꾸세요
+
+# 사용자 가입을 추적하기 위해 사용자 정의 비즈니스 로직 추적을 활용합니다
+Datadog::Kit::AppSec::Events.track('users.signup', trace, nil, { 'usr.id': 'my_user_id'})
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="php" >}}
+dd-trace-php v0.84.0부터 PHP 트레이서 API를 사용하여 사용자 이벤트를 추적할 수 있습니다.
+
+다음 예제는 로그인 이벤트나 사용자 정의 이벤트(가입을 예로 들어)를 추적하는 방법을 보여줍니다.
+
+{{% collapse-content title="Login success" level="h4" expanded="true" %}}
+```php
+ $email])
+?>
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="로그인 실패" level="h4" expanded="false" id="php-login-failure" %}}
+```php
+ $email])
+?>
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="사용자 정의 비즈니스 로직" level="h4" expanded="false" id="php-custom-business" %}}
+```php
+ $id]);
+?>
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="nodejs" >}}
+
+dd-trace-js v3.13.1부터 Node.js 트레이서 API를 사용하여 사용자 이벤트를 추적할 수 있습니다. dd-trace-js v5.48.0 버전에서는 `eventTrackingV2` 네임스페이스에 새로운 메서드가 추가되었습니다. 기존 이벤트 추적 메서드는 호환성을 위해 그대로 유지됩니다.
+
+
+다음 예제는 로그인 이벤트나 사용자 정의 이벤트(가입을 예로 들어)를 추적하는 방법을 보여줍니다.
+
+{{% collapse-content title="Login success" level="h4" expanded="true" %}}
+```javascript
+const tracer = require('dd-trace')
+
+// 컨트롤러에서:
+const user = {
+id: 'user-id', // ID는 필수입니다. ID가 없는 경우, 사용자 이름, 이메일 등 어떤 고유 식별자라도 사용 가능합니다.
+ email: 'user@email.com' // 다른 필드는 선택사항입니다
+}
+const user = 'user-id' // 사용자를 ID 로만 나타낼 수도 있습니다
+const login = 'user@email.com'
+const metadata = { 'key': 'value' } // 임의의 필드를 추가할 수 있습니다
+
+// 성공적인 사용자 인증 이벤트를 기록합니다
+// 사용자 및 메타데이터는 선택 사항입니다
+tracer.appsec.eventTrackingV2.trackUserLoginSuccess(login, user, metadata)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="로그인 실패" level="h4" expanded="false" id="nodejs-login-failure" %}}
+```javascript
+const tracer = require('dd-trace')
+
+// 컨트롤러에서:
+const login = 'user-id' // 사용자가 로그인하는 데 사용하는 문자열
+const userExists = true // 예를 들어 사용자 로그인이 데이터베이스에 있는 경우
+const metadata = { 'key': 'value' } // 임의의 필드를 추가할 수 있습니다
+
+// 실패한 사용자 인증 이벤트를 기록합니다
+// userExists는 선택 사항이며, 기본값은 false입니다
+// 메타데이터는 선택 사항입니다.
+tracer.appsec.eventTrackingV2.trackUserLoginFailure(login, userExists, metadata)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="사용자 정의 비즈니스 로직" level="h4" expanded="false" id="nodejs-custom-business" %}}
+```javascript
+const tracer = require('dd-trace')
+
+// 컨트롤러에서:
+const eventName = 'users.signup'
+const metadata = { 'usr.id': 'user-id' }
+
+tracer.appsec.trackCustomEvent(eventName, metadata)
+```
+{{% /collapse-content %}}
+
+#### 새로운 로그인 성공 및 실패 메서드로 마이그레이션
+
+`eventTrackingV2`에 새롭게 도입된 메서드는 더욱 직관적인 파라미터 순서와 더욱 명확한 책임 분리를 제공합니다. 주요 변경 사항은 다음과 같습니다.
+
+1. 로그인 식별자(이메일, 사용자 이름)는 첫 번째 파라미터이며 필수입니다.
+2. 성공 이벤트에서는 사용자 개체/ID가 선택 사항이며 실패 이벤트에서는 제거되었습니다.
+3. 메타데이터가 간소화되어 더 이상 `usr.login` 필드가 필요하지 않습니다.
+
+**참고**: 기존 메서드인 `trackUserLoginSuccessEvent` 및 `trackUserLoginFailureEvent`는 더 이상 사용되지 않으며, 새로운 메서드인`eventTrackingV2.trackUserLoginSuccess` 및 `eventTrackingV2.trackUserLoginFailure`가 사용됩니다.
+
+다음 예에서는 주석이 달린 코드가 더 이상 필요하지 않습니다.
+
+{{% collapse-content title="Login success" level="h4" expanded="true" %}}
+```javascript
+const tracer = require('dd-trace')
+
+// 컨트롤러에서:
+const user = {
+ id: 'user-id',
+ email: 'user@email.com'
+} // 이전과 동일하지만 이제 객체는 선택 사항입니다. 그래도 사용자 ID를 제공하면 침해 이후 활동 연관성 파악에 도움이 됩니다
+
+const login = 'user@email.com' // 새로운 필수 인수
+
+const metadata = {
+// 'usr.login': 'user@email.com', 더 이상 메타데이터에 포함할 필요가 없습니다. 반드시 메인 인수로 전달되어야 합니다
+ 'key': 'value'
+}
+
+// tracer.appsec.trackUserLoginSuccessEvent(user, metadata) // 더 이상 사용되지 않음
+tracer.appsec.eventTrackingV2.trackUserLoginSuccess(login, user, metadata)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="로그인 실패" level="h4" expanded="false" id="nodejs-migration-login-failure" %}}
+```javascript
+const tracer = require('dd-trace')
+
+// 더 이상 사용되지 않는 메서드가 있는 컨트롤러에서:
+const userId = 'user-id' // 더 이상 필수는 아니지만 사용 가능한 경우 도움이 됩니다.
+const login = 'user@email.com' // 새로운 필수 인수
+const userExists = true
+const metadata = {
+// 'usr.login': 'user@email.com', 더 이상 메타데이터에 포함할 필요가 없습니다. 반드시 메인 인수로 전달되어야 합니다
+ 'usr.id': userId, // 로그인 실패를 나머지 사용자 활동과 연관시키는 데 도움이 됩니다.
+ 'key': 'value'
+}
+
+// tracer.appsec.trackUserLoginFailureEvent(userId, userExists, metadata) // 더 이상 사용되지 않음
+tracer.appsec.eventTrackingV2.trackUserLoginFailure(login, userExists, metadata)
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< programming-lang lang="python" >}}
+
+dd-trace-py v1.9.0부터 Python 트레이서 API를 사용하여 사용자 이벤트를 추적할 수 있습니다.
+
+다음 예제는 로그인 이벤트나 사용자 정의 이벤트(가입을 예로 들어)를 추적하는 방법을 보여줍니다.
+
+{{% collapse-content title="Login success" level="h4" expanded="true" %}}
+```python
+from ddtrace.appsec.trace_utils import track_user_login_success_event
+from ddtrace import tracer
+metadata = {"usr.login": "user@email.com"}
+# name, email, scope, role, session_id, propagate는 선택 인수이며
+# 기본값은 None입니다(단, propagate 기본값은 True).
+# 이 인수들은 set_user() 함수에 전달됩니다.
+track_user_login_success_event(tracer, "userid", metadata)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="로그인 실패" level="h4" expanded="false" id="python-login-failure" %}}
+```python
+from ddtrace.appsec.trace_utils import track_user_login_failure_event
+from ddtrace import tracer
+metadata = {"usr.login": "user@email.com"}
+# exists는 실패한 로그인 사용자가 시스템에 존재하는지 여부를 나타냅니다.
+exists = False
+# 숫자로 된 사용자 ID를 사용할 수 없는 경우, 고유 식별자(사용자 이름, 이메일 등)를 사용하면 됩니다
+track_user_login_failure_event(tracer, "userid", exists, metadata)
+```
+{{% /collapse-content %}}
+
+{{% collapse-content title="사용자 정의 비즈니스 로직" level="h4" expanded="false" id="python-custom-business" %}}
+```python
+from ddtrace.appsec.trace_utils import track_custom_event
+from ddtrace import tracer
+metadata = {"usr.id": "userid"}
+event_name = "users.signup"
+track_custom_event(tracer, event_name, metadata)
+```
+{{% /collapse-content %}}
+
+{{< /programming-lang >}}
+
+{{< /programming-lang-wrapper >}}
+
+### 코드를 수정하지 않고 비즈니스 로직 정보 추적
+
+서비스에 AAP와 [Remote Configuration][1]이 활성화되어 있는 경우, 사용자 지정 WAF 규칙을 생성하여 일치하는 모든 요청에 사용자 지정 비즈니스 로직 태그를 지정할 수 있습니다. 이 작업은 애플리케이션을 수정할 필요 없이 Datadog에서 모두 수행할 수 있습니다.
+
+시작하려면 [Custom WAF Rule 페이지][2]로 이동하여 "Create New Rule"을 클릭하세요.
+
+{{< img src="security/application_security/threats/custom-waf-rule-menu.png" alt="AAP 홈페이지에서 Protection을 클릭한 다음 In-App WAF 및 Custom Rules를 클릭하여 Custom WAF Rule 메뉴에 액세스합니다." style="width:100%;" >}}
+
+사용자 지정 WAF 규칙을 정의할 수 있는 메뉴가 열립니다. "Business Logic" 카테고리를 선택하면 이벤트 유형(예: `users.password_reset`)을 구성할 수 있습니다. 그런 다음 추적할 서비스와 특정 엔드포인트를 선택합니다. 규칙 조건을 사용하여 _계측할_ 코드 흐름을 식별하는 특정 파라미터를 타게팅할 수도 있습니다. 조건이 일치하면 라이브러리는 트레이스에 태그를 지정하고 AAP로 전달하도록 플래그를 지정합니다. 조건이 필요하지 않은 경우 모든 조건을 일치시키는 광범위한 조건을 설정할 수 있습니다.
+
+{{< img src="security/application_security/threats/custom-waf-rule-form.png" alt="Create New Rule 버튼을 클릭하면 나타나는 양식의 스크린샷" style="width:50%;" >}}
+
+저장된 규칙은 Remote Configuration이 활성화된 서비스 인스턴스에 배포됩니다.
+
+
+[1]: /ko/agent/remote_config?tab=configurationyamlfile#application-security-management-asm
+[2]: https://app.datadoghq.com/security/appsec/in-app-waf?config_by=custom-rules
+
+## 자동 사용자 활동 이벤트 추적
+
+AAP가 활성화되면 Datadog Tracing Libraries는 사용자 활동 이벤트를 자동으로 감지하려고 시도합니다.
+
+자동으로 감지할 수 있는 이벤트는 다음과 같습니다.
+
+- `users.login.success`
+- `users.login.failure`
+- `users.signup`
+
+### 자동 사용자 활동 이벤트 추적 모드
+
+자동 사용자 활동 추적은 다음과 같은 모드를 제공합니다.
+
+- `identification` 모드 (약어: `ident`):
+ - 이 모드는 기본 모드이며, 항상 사용자 ID를 수집하거나 가능한 최대한으로 수집합니다.
+ - 사용자 ID는 로그인 성공 및 실패 시 수집됩니다. 실패 시에는 사용자 존재 여부와 관계없이 사용자 ID가 수집됩니다.
+ - 계측된 프레임워크가 사용자 ID를 명확하게 제공하지 않고 구조화된 사용자 객체를 제공하는 경우, 객체 필드 이름을 기반으로 가능한 최적의 사용자 ID를 결정합니다. 다음 필드 이름 목록은 우선순위에 따라 정렬되고 고려됩니다.
+ - `id`
+ - `email`
+ - `username`
+ - `login`
+ - `user`
+ - 사용자 ID를 사용할 수 없거나 찾을 수 없는 경우 사용자 이벤트가 발생하지 않습니다.
+- `anonymization` 모드(약어: `anon`):
+ - 이 모드는 `identification`와 동일하지만 사용자 ID를 해싱(SHA256)하고 결과 해시를 잘라내어 익명화합니다.
+- `disabled` 모드:
+ - AAP 라이브러리는 자동화된 계측을 통해 사용자 ID를 수집하지 *않습니다*.
+ - 사용자 로그인 이벤트가 발생하지 않습니다.
+
+모든 모드는 자동 계측에만 영향을 미치며, 수동 수집에는 적용되지 않습니다. 수동 수집은 SDK를 사용하여 구성되며, 해당 설정은 자동 계측에 의해 재정의되지 않습니다.
+
+### 수동 설정
+
+Datadog 라이브러리를 사용하면 모드 약어인 `ident`|`anon`|`disabled`와 함께 `DD_APPSEC_AUTO_USER_INSTRUMENTATION_MODE` 환경 변수를 사용하여 자동 계측을 구성할 수 있습니다.
+
+기본 모드는 `identification`(약어: `ident`)입니다.
+
+예를 들면, `DD_APPSEC_AUTO_USER_INSTRUMENTATION_MODE=anon`입니다.
+
+### 더 이상 사용되지 않는 모드
+
+이전 모드는 더 이상 지원되지 않지만, 다음 주요 릴리스까지는 호환성이 유지됩니다.
+
+다음 모드는 더 이상 사용되지 않습니다.
+
+- `safe` 모드: 추적 라이브러리는 이벤트 메타데이터에 개인 식별 정보(PII) 정보를 포함하지 않습니다. 추적 라이브러리는 사용자 ID를 수집하려고 시도하며, 해당 사용자 ID가 유효한 [GUID][10]인 경우에만 수집합니다.
+- `extended` 모드: 추적 라이브러리는 사용자 ID와 사용자 이메일을 수집하려고 시도합니다. 이 모드에서 Datadog은 사용자 ID가 GUID인지 유형을 확인하지 않습니다. 추적 라이브러리는 이벤트에서 추출할 수 있는 모든 값을 보고합니다.
+
+**참고**: 추적 라이브러리가 사용자 이벤트에서 정보를 추출하지 못할 수도 있습니다. 이러한 경우 이벤트는 빈 메타데이터로 보고됩니다. 해결하려면 [SDK](#adding-business-logic-information-login-success-login-failure-any-business-logic-to-traces)를 사용하여 사용자 이벤트를 수동으로 계측하세요.
+
+## 사용자 활동 이벤트 추적 비활성화
+
+[AAP Software Catalog][14]를 통해 자동 사용자 활동 감지를 비활성화하려면 비활성화하려는 서비스의 자동 추적 모드 환경 변수 `DD_APPSEC_AUTO_USER_INSTRUMENTATION_MODE`를 `disabled`로 변경하세요. 모든 모드는 자동 계측에만 영향을 미치며, [Remote Configuration][15]을 활성화해야 합니다.
+
+수동 구성에서는 서비스에서 환경 변수 `DD_APPSEC_AUTOMATED_USER_EVENTS_TRACKING_ENABLED`를 `false`로 설정하고 다시 시작할 수 있습니다. 이 설정은 Datadog Agent가 아닌 Datadog Tracing Library를 호스팅하는 애플리케이션에서 설정해야 합니다.
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[3]: /ko/tracing/trace_collection/custom_instrumentation/
+[4]: /ko/security/default_rules/bl-rate-limiting/
+[5]: /ko/security/default_rules/bl-privilege-violation-user/
+[6]: /ko/security/default_rules/appsec-ato-groupby-ip/
+[7]: /ko/security/default_rules/bl-signup-ratelimit/
+[8]: /ko/security/default_rules/bl-account-deletion-ratelimit/
+[9]: /ko/security/default_rules/bl-password-reset/
+[10]: /ko/security/default_rules/bl-payment-failures/
+[11]: https://guid.one/guid
+[12]: /ko/security/default_rules/appsec-ato-bf/
+[13]: /ko/security/default_rules/distributed-ato-ua-asn/
+[14]: https://app.datadoghq.com/security/appsec/inventory/services?tab=capabilities
+[15]: /ko/agent/remote_config/
\ No newline at end of file
diff --git a/content/ko/tracing/guide/ingestion_sampling_use_cases.md b/content/ko/tracing/guide/ingestion_sampling_use_cases.md
new file mode 100644
index 0000000000000..ada71f5ce6361
--- /dev/null
+++ b/content/ko/tracing/guide/ingestion_sampling_use_cases.md
@@ -0,0 +1,161 @@
+---
+further_reading:
+- link: /tracing/guide/trace_ingestion_volume_control/
+ tag: 지침
+ text: 수집된 볼륨을 제어하는 방법
+title: 트레이스 샘플링 사용 사례
+---
+
+## 개요
+
+트레이스 데이터는 반복적인 경향이 있습니다. 애플리케이션의 문제가 트레이스 한 곳에서만 확인되고 다른 곳에서는 확인되지 않는 경우는 거의 없습니다. 처리량이 많은 서비스, 특히 주의가 필요한 인시던트의 경우, 한 문제가 여러 추적에서 반복적으로 증상을 보이는 경우가 많습니다. 따라서 일반적으로 서비스나 엔드포인트의 모든 트레이스 내의 모든 스팬을 수집할 필요가 없습니다. Datadog APM의 [수집 제어 메커니즘][1]은 문제 해결에 필요한 가시성을 유지하면서 소음을 줄이고 비용을 관리할 수 있도록 도와줍니다.
+
+수집 메커니즘은 추적 라이브러리의 Datadog Agent 및 Datadog 추적 라이브러리 내에서 구성됩니다. 애플리케이션을 계측하기 위해 OpenTelemetry SDK를 사용하는 경우 [OpenTelemetry를 사용한 수집 샘플링][2]을 참조하세요.
+
+이 가이드는 주요 사용 사례에 따른 수집 제어 설정 사용 시점과 방법을 이해할 수 있도록 지원합니다. 가이드에서는 다음을 다룹니다.
+
+- 특정 서비스에 [어떤 수집 메커니즘이 사용되는지 결정하기](#determining-which-ingestion-mechanisms-are-used)
+- [특정 유형의 트레이스 유지에 중점을 둔 사용 사례](#keeping-certain-types-of-traces)
+- [수집된 트레이스를 줄이는 데 중점을 둔 사용 사례](#reducing-ingestion-for-high-volume-services)
+
+
+## 사용할 수집 메커니즘 결정하기
+
+Datadog 환경에서 현재 어떤 수집 메커니즘이 사용되고 있는지 확인하려면 [수집 제어 페이지][3]로 이동하세요.
+
+{{< img src="/tracing/guide/ingestion_sampling_use_cases/ingestion_control_page.png" alt="Ingestion Control Page" style="width:90%;" >}}
+
+이 표는 수집된 볼륨에 대한 *서비스별* 인사이트를 제공합니다. 설정 열은 현재 설정에 일차적인 표시를 제공합니다. 다음이 표시됩니다.
+- `AUTOMATIC` Datadog Agent에서 계산된 샘플링 속도가 서비스에서 시작되는 추적에 적용되는 경우. 자세한 내용은 [Datadog Agent 수집 로직][5]을 참조하세요.
+- `CONFIGURED` 트레이스 라이브러리에서 설정된 사용자 지정 트레이스 샘플링 속도가 서비스에서 시작하는 추적에 적용되는 경우입니다.
+
+서비스를 클릭하면 각 서비스에 사용되는 샘플링 의사 결정자(예: Agent 또는 트레이스 라이브러리, 규칙 또는 샘플 속도)와 수집된 범위의 서비스에 어떤 [수집 샘플링 메커니즘][1]이 활용되는지에 대한 세부 정보를 확인할 수 있습니다.
+
+{{< img src="/tracing/guide/ingestion_sampling_use_cases/service-ingestion-summary.png" alt="서비스 수집 요약" style="width:90%;" >}}
+
+위의 서비스 수집 요약 예시에서 **수집 이유 분석** 표를 보면 이 서비스의 수집 이유 대부분이 `rule`([사용자 정의 샘플링 규칙][6])에서 비롯된 것임을 알 수 있습니다.
+
+이 서비스의 상위 샘플링 의사 결정권자는 `web-store` 서비스가 `web-store`, `shopist-web-ui`, `shipping-worker`, `synthetics-browser`, `product-recommendation`에서 샘플링 결정을 내리는 것으로 나타났습니다. 이 다섯 가지 서비스는 모두 `web-store` 서비스 범위에 영향을 미치는 전체 샘플링 결정에 기여합니다. 웹 스토어에 수집을 미세 조정하는 방법을 결정할 때는 다섯 가지 서비스를 모두 고려해야 합니다.
+
+## 특정 유형의 트레이스 유지
+
+### 전체 거래 트레이스 유지
+
+전체 트랜잭션 추적을 수집하면 특정 개별 요청에 **엔드투엔드 서비스 요청 흐름**에 관한 가시성을 확보할 수 있습니다.
+
+#### 솔루션: 헤드 기반 샘플링
+
+[헤드 기반 샘플링][4] 메커니즘으로 완전한 트레이스를 수집할 수 있습니다. 트레이스를 유지할지 삭제할지 여부는 트레이스가 생성될 때 트레이스 첫 번째 스팬인 *헤드*에서 결정됩니다. 이 결정은 요청 컨텍스트를 통해 다운스트림 서비스로 전파됩니다.
+
+{{< img src="/tracing/guide/ingestion_sampling_use_cases/head-based-sampling.png" alt="헤드 기반 샘플링" style="width:100%;" >}}
+
+유지 및 삭제할 트레이스를 결정하기 위해 Datadog Agent에서는 애플리케이션 트래픽을 기반으로 트레이스 생성 시 적용할 각 서비스의 [기본 샘플링 속도][5]를 계산합니다.
+- 트래픽이 적은 애플리케이션의 경우 샘플링 속도 100%가 적용됩니다.
+- 트래픽이 많은 애플리케이션의 경우, 더 낮은 샘플링 속도가 적용되는데, 각 Agent에서 초당 10개의 완전한 트레이스를 목표로 합니다.
+
+서비스별 샘플링 속도를 구성하여 기본값 Agent 샘플링 속도를 재정의할 수도 있습니다. 자세한 내용은 [특정 서비스에 더 많은 추적 유지](#keeping-more-traces-for-specific-services-or-resources) 도움말을 참조하세요.
+
+#### 헤드 기반 샘플링 구성
+
+기본 샘플링 속도는 Agent에 따라 초당 10개의 완전한 트레이스를 목표로 계산됩니다. 이는 *목표* 트레이스 수이며 일정 기간의 트레이스를 평균한 결과입니다. 이는 하드 제한이 *아닙니다*. 트래픽이 급증하면 단기간에 Datadog로 훨씬 더 많은 트레이스가 전송될 수 있습니다.
+
+Datadog Agent 파라미터 `max_traces_per_second` 또는 환경 변수 `DD_APM_MAX_TPS`를 구성하여 이 목표를 늘리거나 줄일 수 있습니다. [헤드 기반 샘플링 수집 메커니즘][5]에서 자세히 알아보세요.
+
+**참고:** Agent 설정을 변경하면 Datadog Agent에 트레이스를 보고하는 *모든 서비스*의 샘플링 비율에 영향을 미칩니다.
+
+대부분의 시나리오에서 이 Agent 수준 설정은 할당된 할당량 내에서 애플리케이션 성능에 충분한 가시성을 제공하고 비즈니스에 적합한 의사 결정을 내리는 데 도움이 됩니다.
+
+### 특정 서비스 또는 리소스에 더 많은 트레이스 유지
+
+일부 서비스 및 요청이 비즈니스에 중요한 경우, 이에 관한 가시성을 높이고 싶어 합니다. 모든 관련 추적을 Datadog 으로 보내 개별 트랜잭션을 살펴볼 수 있도록 하세요.
+
+#### 솔루션: 샘플링 규칙
+
+기본적으로 샘플링 속도는 Datadog Agent당 초당 10개의 트레이스를 목표로 계산됩니다. 추적 라이브러리에서 [샘플링 규칙][6]을 구성하여 기본 계산된 샘플링 속도를 재정의할 수 있습니다.
+
+서비스별로 샘플링 규칙을 설정할 수 있습니다. 규칙의 특정 서비스에서 시작하는 트레이스의 경우 Agent의 기본 샘플링 속도 대신 정의된 백분율 샘플링 속도가 적용됩니다.
+
+#### 샘플링 규칙 설정하기
+
+환경 변수 `DD_TRACE_SAMPLING_RULES`를 설정하여 샘플링 규칙을 구성할 수 있습니다.
+
+예를 들어 서비스 `my-service` 에 관해 트레이스의 20%를 보내는 방법:
+
+```
+DD_TRACE_SAMPLING_RULES='[{"service": "my-service", "sample_rate": 0.2}]'
+```
+
+[샘플링 규칙 수집 메커니즘][6]에 관해 자세히 알아보세요.
+
+### 오류 관련 트레이스 더 많이 유지
+
+오류 스팬이 있는 트레이스는 시스템 장애 증상인 경우가 많습니다. 오류가 있는 트랜잭션의 비율을 높게 유지하면 항상 관련 개별 요청에 액세스할 수 있습니다.
+
+#### 솔루션: 오류 샘플링 속도
+
+헤드 기반 샘플링된 트레이스 외에도 오류 샘플링 속도를 높여 각 Agent가 관련 트레이스가 헤드 기반 샘플링으로 유지되지 않더라도 추가 오류 스팬을 유지할 수 있도록 합니다.
+
+{{< img src="/tracing/guide/ingestion_sampling_use_cases/error-spans-sampling.png" alt="Error Sampling" style="width:100%;" >}}
+
+**참조**:
+- 샘플링이 Datadog Agent 수준에서 로컬로 이루어지므로 분산된 트레이스 조각은 수집되지 않을 수 있습니다.
+- **Datadog Agent 6/7.41.0 이상**부터 `DD_APM_FEATURES=error_rare_sample_tracer_drop`은 트레이스 라이브러리 규칙 또는 `manual.drop`에 의해 삭제된 스팬을 포함하도록 설정할 수 있습니다. 자세한 내용은 [수집 메커니즘 설명서의 오류 추적 섹션][9]에서 확인할 수 있습니다.
+
+#### 오류 샘플링 구성
+
+환경 변수 `DD_APM_ERROR_TPS`를 구성하여 캡처할 Agent당 초당 오류 조각 수를 구성할 수 있습니다. 기본값은 초당 `10` 오류 수입니다. **모든 오류**를 수집하려면 임의의 높은 값으로 설정하세요. 오류 샘플링을 사용하지 않으려면 `DD_APM_ERROR_TPS`를 `0`로 설정합니다.
+
+## 대용량 서비스의 수집량 줄이기
+
+### 데이터베이스 또는 캐시 서비스에서 볼륨 줄이기
+
+추적되는 데이터베이스 호출의 경우 수집 데이터 양이 대량일 수 있습니다. 그러나 애플리케이션 성능 메트릭(예: 오류 수, 요청 히트 수, 지연 시간)은 데이터베이스 상태를 확인할 수 있는 정도입니다.
+
+#### 솔루션: 데이터베이스 호출을 사용한 트레이스 샘플링 규칙
+
+데이터베이스 호출을 추적하여 생성된 스팬 볼륨을 줄이려면 트레이스의 헤드에서 샘플링을 설정합니다.
+
+데이터베이스 서비스는 트레이스를 시작하는 일이 거의 없습니다. 일반적으로 클라이언트 데이터베이스 범위는 계측된 백엔드 서비스 스팬의 하위 서비스입니다.
+
+**데이터베이스 트레이스를 시작하는 서비스**를 파악하려면, 수집 제어 페이지 [서비스 수집 요약][7]의 `Top Sampling Decision Makers` 상위 목록 그래프를 사용하세요. 이러한 특정 서비스에 헤드 기반 샘플링을 설정하면 수집되는 데이터베이스 스팬의 양을 줄이면서 불완전한 트레이스가 수집되지 않도록 할 수 있습니다. 분산된 트레이스는 유지되거나 모두 삭제됩니다.
+
+{{< img src="/tracing/guide/ingestion_sampling_use_cases/service-ingestion-summary-database.png" alt="상위 샘플링 의사 결정자" style="width:90%;" >}}
+
+예를 들어, 추적 중인 `web-store-mongo` 데이터베이스 호출의 경우, 트레이스의 99%가 `web-store` 및 `shipping-worker` 서비스에서 시작됩니다. 따라서 `web-store-mongo`의 볼륨을 줄이려면 `web-store` 및 `shipping-worker` 서비스의 샘플링을 설정합니다.
+
+#### 데이터베이스 스팬을 삭제하도록 샘플링 설정
+
+샘플링 규칙 구문에 관한 자세한 내용은 [샘플링 규칙 설정 섹션](#configuring-a-sampling-rule)을 참조하세요.
+
+백엔드 서비스 `web-store`는 트레이스당 여러 번 Mongo 데이터베이스를 호출하며, 원치 않는 스팬 볼륨을 많이 생성하고 있습니다.
+
+- 백엔드 서비스 `web-store`에 **트레이스 샘플링 규칙**을 설정하여 Mongo 스팬을 포함하여 전체 트레이스의 10%가 유지되도록 합니다.
+
+ ```
+ DD_TRACE_SAMPLING_RULES='[{"service": "web-store", "sample_rate": 0.1}]'
+ ```
+
+- 선택적으로 모든 `web-store` 스팬을 유지하려면 백엔드 서비스 `web-store`에 스팬의 100%를 유지하도록 **단일 스팬 샘플링 규칙**을 설정합니다. 이 샘플링은 위에서 파악한 10% 이외의 데이터베이스 호출 스팬을 수집하지 않습니다.
+
+ ```
+ DD_SPAN_SAMPLING_RULES='[{"service": "web-store", "sample_rate": 1}]'
+ ```
+
+ **참고**: 단일 스팬 샘플링 규칙을 설정하는 것은 수집된 스팬에서 파생된 [스팬 기반 메트릭][8]을 사용하는 경우에 특히 유용합니다.
+
+{{< img src="/tracing/guide/ingestion_sampling_use_cases/single-span-sampling3.png" alt="데이터베이스 스팬 샘플링" style="width:100%;" >}}
+
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /ko/tracing/trace_pipeline/ingestion_mechanisms/
+[2]: /ko/opentelemetry/guide/ingestion_sampling_with_opentelemetry/
+[3]: https://app.datadoghq.com/apm/traces/ingestion-control
+[4]: /ko/tracing/trace_pipeline/ingestion_mechanisms/#head-based-sampling
+[5]: /ko/tracing/trace_pipeline/ingestion_mechanisms/#in-the-agent
+[6]: /ko/tracing/trace_pipeline/ingestion_mechanisms/#in-tracing-libraries-user-defined-rules
+[7]: /ko/tracing/trace_pipeline/ingestion_controls/#service-ingestion-summary
+[8]: /ko/tracing/trace_pipeline/generate_metrics/
+[9]: /ko/tracing/trace_pipeline/ingestion_mechanisms/?tab=java#error-and-rare-traces
\ No newline at end of file
diff --git a/layouts/shortcodes/observability_pipelines/prerequisites/logstash.ja.md b/layouts/shortcodes/observability_pipelines/prerequisites/logstash.ja.md
new file mode 100644
index 0000000000000..02ea05d19bd7d
--- /dev/null
+++ b/layouts/shortcodes/observability_pipelines/prerequisites/logstash.ja.md
@@ -0,0 +1,4 @@
+Observability Pipelines の Logstash ソースを使用するには、次の情報が必要です。
+
+- `0.0.0.0:8088` などの Logstash アドレス。Observability Pipelines Worker は、このバインドアドレスでアプリケーションからのログを受信します。後で、アプリケーションを設定してログをこのアドレスに送信します。
+- フォワーダーがグローバル設定で SSL を有効にしている場合は、適切な TLS 証明書と、秘密鍵を作成する際に使用したパスワード。
\ No newline at end of file
From 4f9e37dca7f04ae1f0306db234061565c7cb75d7 Mon Sep 17 00:00:00 2001
From: "webops-guacbot[bot]"
<214537265+webops-guacbot[bot]@users.noreply.github.com>
Date: Fri, 8 Aug 2025 22:24:15 +0000
Subject: [PATCH 03/43] Translated file updates
---
content/fr/metrics/custom_metrics/_index.md | 145 ++++++
.../guide/autodiscovery-with-jmx.md | 28 +-
content/ja/dashboards/widgets/list.md | 40 +-
content/ja/database_monitoring/_index.md | 3 +
content/ja/integrations/traffic_server.md | 6 +-
.../legacy/architecture/_index.md | 40 ++
content/ko/integrations/rapdev_zoom.md | 6 +-
.../standalone/gcp-service-extensions.md | 489 ++++++++++++++++++
8 files changed, 738 insertions(+), 19 deletions(-)
create mode 100644 content/fr/metrics/custom_metrics/_index.md
create mode 100644 content/ja/observability_pipelines/legacy/architecture/_index.md
create mode 100644 content/ko/security/application_security/threats/setup/standalone/gcp-service-extensions.md
diff --git a/content/fr/metrics/custom_metrics/_index.md b/content/fr/metrics/custom_metrics/_index.md
new file mode 100644
index 0000000000000..c529146c7751d
--- /dev/null
+++ b/content/fr/metrics/custom_metrics/_index.md
@@ -0,0 +1,145 @@
+---
+algolia:
+ tags:
+ - custom metrics
+aliases:
+- /fr/guides/metrics/
+- /fr/metrictypes/
+- /fr/units/
+- /fr/developers/metrics/datagram_shell
+- /fr/developers/metrics/custom_metrics/
+- /fr/getting_started/custom_metrics
+- /fr/developers/metrics/
+- /fr/metrics/guide/tag-configuration-cardinality-estimation-tool/
+further_reading:
+- link: /developers/dogstatsd/
+ tag: Documentation
+ text: En savoir plus sur DogStatsD
+- link: /developers/community/libraries/
+ tag: Documentation
+ text: Bibliothèques client de Datadog et sa communauté pour DogStatsD et les API
+- link: /account_management/billing/custom_metrics/?tab=countrate
+ tag: Documentation
+ text: Facturation des métriques custom
+- link: /metrics/guide/custom_metrics_governance/
+ tag: Guide
+ text: Bonne pratique pour la gouvernance des métriques custom
+- link: https://www.datadoghq.com/blog/metrics-without-limits/
+ tag: Blog
+ text: Contrôler de façon dynamique le volume de vos métriques custom grâce à Metrics
+ without Limits™
+title: Métriques custom
+---
+
+{{< learning-center-callout header="Participez un webinar de formation" hide_image="true" btn_title="Inscription" btn_url="https://www.datadoghq.com/technical-enablement/sessions/?tags.topics-0=Metrics">}}
+ Explorez et inscrivez-vous aux sessions Foundation Enablement sur les métriques personnalisées. Découvrez comment ces métriques vous aident à suivre les KPI de vos applications, comme le nombre de visiteurs, la taille moyenne des paniers, la latence des requêtes ou la répartition des performances d'un algorithme personnalisé.
+{{< /learning-center-callout >}}
+
+## Section Overview
+
+Les métriques custom vous permettent de suivre les KPI de votre application : nombre de visiteurs, taille moyenne du panier client, latence des requêtes ou répartition des performances pour un algorithme personnalisé. Une métrique custom est identifiée par **une combinaison unique du nom de la métrique et des valeurs de tags (y compris le tag de host)**. Dans l'exemple ci-dessous, la métrique `request.Latency` comporte quatre combinaisons uniques de valeurs de tags issues de ses deux clés de tag :
+
+- `endpoint`, qui a pour valeur `endpoint:X` ou `endpoint:Y` ;
+- `status`, qui a pour valeur `status:200` ou `status:400`.
+
+{{< img src="account_management/billing/custom_metrics/request_latency.png" alt="Latence des requêtes" style="width:80%;">}}
+
+Les éléments suivants sont également considérés comme des métriques custom :
+- Globalement, toute métrique soumise par l'intermédiaire de [DogStatsD][3] ou d'un [check custom d'Agent][4]
+- Les métriques envoyées par les intégrations [Marketplace][29]
+- Certaines [intégrations standard](#integrations-standard) peuvent potentiellement émettre des métriques custom
+- Les métriques envoyées depuis une intégration qui ne fait pas partie des [plus de {{< translate key="integration_count" >}} intégrations Datadog][1].
+
+**Remarque** : les utilisateurs ayant le rôle Admin Datadog ou la permission `usage_read` peuvent consulter le nombre mensuel moyen de métriques custom par heure, ainsi que les 5 000 métriques custom les plus utilisées pour leur compte sur la [page des détails sur l'utilisation][5]. Pour en savoir plus, consultez la page [sur le mode de comptabilisation des métriques custom][6].
+
+## Propriétés des métriques custom
+
+Les métriques custom Datadog possèdent les propriétés ci-dessous. Consultez la [présentation des métriques][7] pour découvrir comment représenter graphiquement des métriques au sein de Datadog.
+
+| Propriété | Rôle |
+|------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------|
+| `` | Le [nom de votre métrique](#nom-des-metriques-custom). |
+| `` | La valeur de votre métrique. **Remarque** : les valeurs des métriques respecter un format 32 bits. Elles ne doivent pas représenter des dates ou des timestamps. |
+| `` | Le timestamp associé à la valeur de la métrique. **Remarque** : les timestamps des métriques ne peuvent pas correspondre à une date plus d'une heure avant l'événement et plus de 10 minutes après celui-ci. |
+| `` | L'ensemble des tags associés à votre métrique. |
+| `` | Le type de votre métrique. En savoir plus sur les [types de métriques][8]. |
+| `` | Si le `` de la métrique est [RATE][9] ou [COUNT][10], cette propriété définit l'[intervalle][11] correspondant. |
+
+### Nom des métriques custom
+
+La convention de nommage suivante s'applique aux métriques custom :
+
+* Les noms des métriques doivent commencer par une lettre.
+* Les noms de métriques doivent contenir uniquement des caractères alphanumériques ASCII, des underscores et des points.
+ * Les autres caractères, y compris les espaces, sont remplacés par des underscores.
+ * Le format Unicode n'est _pas_ pris en charge.
+* Les noms de métriques ne doivent pas dépasser 200 caractères. Nous vous recommandons d'utiliser moins de 100 caractères pour une meilleure lisibilité sur l'interface.
+
+**Remarque** : les noms de métrique sont sensibles à la casse dans Datadog.
+
+### Unités des métriques
+
+Définissez les unités des métriques via le [Résumé des métriques][12] ou définissez des unités personnalisées pour les métriques à l'aide de la fonctionnalité [Remplacement des unités][13] dans l'éditeur de graphiques de vos visualisations. Pour plus d'informations, consultez la documentation relative aux [unités de métriques][14].
+
+## Envoi de métriques custom
+
+{{< whatsnext desc="Il existe plusieurs façons d'envoyer des métriques à Datadog :">}}
+ {{< nextlink href="/metrics/custom_metrics/agent_metrics_submission" >}}Check d'Agent custom{{{< /nextlink >}}
+ {{< nextlink href="/metrics/custom_metrics/dogstatsd_metrics_submission" >}}DogStatsD{{< /nextlink >}}
+ {{< nextlink href="/metrics/custom_metrics/powershell_metrics_submission" >}}PowerShell{{< /nextlink >}}
+ {{< nextlink href="/serverless/custom_metrics" >}}AWS Lambda{{< /nextlink >}}
+ {{< nextlink href="/api/v1/metrics/#submit-metrics" >}}API HTTP Datadog{{{< /nextlink >}}
+ {{< nextlink href="/logs/log_configuration/logs_to_metrics/#generate-a-log-based-metric" >}}Générer des métriques basées sur des logs{{< /nextlink >}}
+ {{< nextlink href="/tracing/generate_metrics/" >}}Générer des métriques basées sur des spans APM{{< /nextlink >}}
+ {{< nextlink href="/real_user_monitoring/platform/generate_metrics/" >}}Générer des métriques basées sur les événements du RUM{{< /nextlink >}}
+ {{< nextlink href="/infrastructure/process/increase_process_retention/#generate-a-process-based-metric" >}}Générer des mesures basées sur les live processes{{< /nextlink >}}
+{{< /whatsnext >}}
+
+Vous pouvez également utiliser l'une des [bibliothèques client de Datadog et sa communauté pour DogStatsD et les API][15] afin d'envoyer vos métriques custom.
+
+**Remarque** : aucune limite de débit fixe n'est appliquée lors de l'envoi des métriques custom. Si vous dépassez votre nombre de métriques par défaut, vous serez facturé conformément à la [politique de facturation de Datadog pour les métriques custom][6].
+
+## Intégrations standard
+
+Les intégrations standard suivantes peuvent potentiellement générer des métriques custom.
+
+| Types d'intégrations | Intégrations |
+|------------------------------------------------|------------------------------------------------------------------------------------|
+| Limitées à 350 métriques custom par défaut. | [ActiveMQ XML][16] / [Go-Expvar][17] / [Java-JMX][18] |
+| Aucune limite appliquée à la collecte de métriques custom par défaut. | [Nagios][19] / [PDH Check][20] / [OpenMetrics][21] / [Compteurs de performances Windows][22] / [WMI][23] / [Prometheus][21] |
+| Peuvent être configurées pour collecter des métriques custom. | [MySQL][24] /[Oracle][25] /[Postgres][26] /[SQL Server][27] |
+| Métriques custom envoyées depuis des intégrations cloud | [AWS][28] |
+
+## Pour aller plus loin
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /fr/integrations/
+[2]: /fr/account_management/billing/custom_metrics/#standard-integrations
+[3]: /fr/metrics/custom_metrics/dogstatsd_metrics_submission/
+[4]: /fr/metrics/custom_metrics/agent_metrics_submission/
+[5]: https://app.datadoghq.com/account/usage/hourly
+[6]: /fr/account_management/billing/custom_metrics/#counting-custom-metrics
+[7]: /fr/metrics
+[8]: /fr/metrics/types/
+[9]: /fr/metrics/types/?tab=rate#metric-types
+[10]: /fr/metrics/types/?tab=count#metric-types
+[11]: /fr/developers/dogstatsd/data_aggregation/#how-is-aggregation-performed-with-the-dogstatsd-server
+[12]: /fr/metrics/summary/#metric-unit
+[13]: /fr/dashboards/guide/unit-override/
+[14]: /fr/metrics/units/
+[15]: /fr/developers/community/libraries/
+[16]: /fr/integrations/activemq/#activemq-xml-integration
+[17]: /fr/integrations/go_expvar/
+[18]: /fr/integrations/java/
+[19]: /fr/integrations/nagios
+[20]: /fr/integrations/pdh_check/
+[21]: /fr/integrations/openmetrics/
+[22]: /fr/integrations/windows_performance_counters/
+[23]: /fr/integrations/wmi_check/
+[24]: /fr/integrations/mysql/
+[25]: /fr/integrations/oracle/
+[26]: /fr/integrations/postgres/
+[27]: /fr/integrations/sqlserver/
+[28]: /fr/integrations/amazon_web_services/
+[29]: /fr/integrations/#cat-marketplace
\ No newline at end of file
diff --git a/content/ja/containers/guide/autodiscovery-with-jmx.md b/content/ja/containers/guide/autodiscovery-with-jmx.md
index ef8bd500f556b..27944b5d1455b 100644
--- a/content/ja/containers/guide/autodiscovery-with-jmx.md
+++ b/content/ja/containers/guide/autodiscovery-with-jmx.md
@@ -1,4 +1,14 @@
---
+algolia:
+ tags:
+ - JMX
+ - JMX メトリクス
+ - Web ロジックの欠落
+ - JMX 制限
+ - Cassandra
+ - Kafka
+ - Tomcat
+ - Weblogic
aliases:
- /ja/agent/guide/autodiscovery-with-jmx
further_reading:
@@ -73,7 +83,7 @@ kind: Pod
metadata:
name:
annotations:
- ad.datadoghq.com/.checks: |
+ ad.datadoghq.com/.checks: |
{
"": {
"init_config": {
@@ -89,7 +99,7 @@ metadata:
# (...)
spec:
containers:
- - name: ''
+ - name: ''
# (...)
env:
- name: POD_IP
@@ -109,7 +119,7 @@ spec:
この例では
- `` はポッドの名前です。
-- `` はポッド内の希望するコンテナにマッチします。
+- `` はポッド内の希望するコンテナにマッチします。
- `` は希望する JMX インテグレーションの名前です。利用可能な JMX インテグレーション](#available-jmx-integrations)のリストを参照してください。
- `` は、アノテーションと `JAVA_OPTS` 間で一致する限り、任意に設定します。
@@ -168,7 +178,7 @@ spec:
これらのインテグレーションから追加のメトリクスを収集する必要がある場合は、`init_config` セクションに追加します。
```yaml
-ad.datadoghq.com/.checks: |
+ad.datadoghq.com/.checks: |
{
"": {
"init_config": {
@@ -217,7 +227,7 @@ Datadog-JMX インテグレーションのより複雑なカスタム構成を
```yaml
ad_identifiers:
- - ""
+ -
init_config:
is_jmx: true
@@ -229,7 +239,7 @@ instances:
port: ""
```
-`` は、希望するコンテナのショートイメージ名に置き換えてください。例えば、コンテナイメージ `gcr.io/CompanyName/my-app:latest` のショートイメージ名は `my-app` です。Datadog Agent がこのコンテナを検出すると、このファイルに記述されているように JMX 構成を設定します。
+`` は、希望するコンテナのショートイメージ名に置き換えてください。例えば、コンテナイメージ `gcr.io/CompanyName/my-app:latest` のショートイメージ名は `my-app` です。Datadog Agent がこのコンテナを検出すると、このファイルに記述されているように JMX 構成を設定します。
ショートイメージ名を基にしたくない場合は、[コンテナへのカスタム識別子][4]を参照して指定することもできます。
@@ -258,7 +268,7 @@ spec:
configDataMap:
.yaml: |-
ad_identifiers:
- - ""
+ -
init_config:
is_jmx: true
@@ -278,7 +288,7 @@ datadog:
confd:
.yaml: |
ad_identifiers:
- - ""
+ -
init_config:
is_jmx: true
@@ -290,7 +300,7 @@ datadog:
{{% /tab %}}
{{% tab "Custom image" %}}
-If you cannot mount these files in the Agent container (for example, on Amazon ECS) you can build an Agent Docker image containing the desired configuration files.
+これらのファイルを Agent コンテナにマウントできない場合 (Amazon ECS など)、希望するコンフィギュレーションファイルを含む Agent Docker イメージを構築できます。
例:
diff --git a/content/ja/dashboards/widgets/list.md b/content/ja/dashboards/widgets/list.md
index c50801d465089..2ec14b0f742cc 100644
--- a/content/ja/dashboards/widgets/list.md
+++ b/content/ja/dashboards/widgets/list.md
@@ -14,7 +14,7 @@ title: リストウィジェット
widget_type: list_stream
---
-The list widget displays a list of events and issues, which can come from a variety of sources such as Logs, RUM, or Events. Search and query across sources to narrow down the events you want the widget to highlight and display.
+このリストウィジェットは、Logs、RUM、Events など、さまざまなソースから取得したイベントやインシデントを一覧表示します。ソースを検索およびクエリを実行して、ウィジェットでハイライト表示したいイベントを絞り込めます。
_エラー追跡問題を表示するリストウィジェット_
@@ -26,7 +26,7 @@ _エラー追跡問題を表示するリストウィジェット_
### 構成
-1. Choose the type of data to graph. You can create a list widget from Issues, Logs, Audit Trail, Watchdog Alerts, or Events depending on which products are available for your organization.
+1. グラフ化するデータの種類を選択してください。組織で利用可能な製品に応じて、Issues、Logs、Audit Trail、Watchdog Alerts、Events からリストウィジェットを作成できます。
2. ディスプレイの環境設定を行います。スクリーンボードとノートブックの場合にのみ、ウィジェットがカスタムタイムフレームを持つか、グローバルタイムフレームを使用するかを選択します。
@@ -87,14 +87,46 @@ RUM については、以下でソートすることができます。
#### ソート方法
-For incidents, you can sort by:
+インシデントの場合、以下の項目でソートが可能です。
-* Created time
+* 作成時間
* 重大度
* ステータス
昇順または降順
+### CD デプロイ
+
+#### ソート方法
+
+CD デプロイの場合、以下の項目でソートが可能です。
+
+* デプロイステータス
+* サービス
+* デプロイ名
+* 環境
+* Duration
+* リビジョン値
+* Repository URL
+* タイムスタンプ
+
+昇順または降順
+
+### CI パイプライン
+
+#### ソート方法
+
+CI パイプラインの場合、以下の項目でソートが可能です。
+
+* CI Status
+* Pipeline Name
+* Duration
+* Pipeline ID
+* Branch
+* タイムスタンプ
+
+昇順または降順
+
## API
このウィジェットは **[Dashboards API][1]** で使用できます。[ウィジェット JSON スキーマ定義][2]については、以下の表を参照してください。
diff --git a/content/ja/database_monitoring/_index.md b/content/ja/database_monitoring/_index.md
index 2b04cd4a7d672..7ebd47dc09d0f 100644
--- a/content/ja/database_monitoring/_index.md
+++ b/content/ja/database_monitoring/_index.md
@@ -8,6 +8,9 @@ cascade:
rank: 70
description: Database Monitoring について学び、始めましょう
further_reading:
+- link: https://www.datadoghq.com/blog/database-monitoring-recommendations/
+ tag: ブログ
+ text: Database Monitoring 推奨事項でデータベース ホストとクエリ パフォーマンスを改善する
- link: https://www.datadoghq.com/blog/database-performance-monitoring-datadog
tag: ブログ
text: データベースのパフォーマンスを監視、視覚化する
diff --git a/content/ja/integrations/traffic_server.md b/content/ja/integrations/traffic_server.md
index 0e005b6fa4931..3bd79173d8b88 100644
--- a/content/ja/integrations/traffic_server.md
+++ b/content/ja/integrations/traffic_server.md
@@ -46,7 +46,7 @@ draft: false
git_integration_title: traffic_server
integration_id: traffic-server
integration_title: Traffic Server
-integration_version: 3.1.0
+integration_version: 3.2.0
is_public: true
manifest_version: 2.0.0
name: traffic_server
@@ -132,7 +132,7 @@ stats_over_http.so
## 収集データ
### メトリクス
-{{< get-metrics-from-git "traffic-server" >}}
+{{< get-metrics-from-git "traffic_server" >}}
### ログ収集
@@ -167,7 +167,7 @@ _Agent バージョン 6.0 以降で利用可能_
Traffic Server インテグレーションには、イベントは含まれません。
### サービスチェック
-{{< get-service-checks-from-git "traffic-server" >}}
+{{< get-service-checks-from-git "traffic_server" >}}
## トラブルシューティング
diff --git a/content/ja/observability_pipelines/legacy/architecture/_index.md b/content/ja/observability_pipelines/legacy/architecture/_index.md
new file mode 100644
index 0000000000000..8c2b6a99b2a33
--- /dev/null
+++ b/content/ja/observability_pipelines/legacy/architecture/_index.md
@@ -0,0 +1,40 @@
+---
+aliases:
+- /ja/observability_pipelines/production_deployment_overview/aggregator_architecture
+- /ja/observability_pipelines/aggregator_architecture/
+- /ja/observability_pipelines/architecture/
+title: (レガシー) OPW アグリゲーターアーキテクチャのベストプラクティス
+---
+
+{{< site-region region="gov" >}}
+Observability Pipelines は、US1-FED Datadog サイトでは利用できません。
+{{< /site-region >}}
+
+{{% observability_pipelines/legacy_warning %}}
+
+
+このガイドは、大規模な本番環境レベルのデプロイメント向けです。
+
+## 概要
+
+観測可能性パイプラインワーカー (OPW) のアグリゲーターアーキテクチャは、データの集中処理とルーティングのためのスタンドアローンサービスとして観測可能性パイプラインワーカーをデプロイします。
+
+{{< img src="observability_pipelines/production_deployment_overview/aggregator_role2.png" alt="ネットワークロードバランサーが様々なソースからデータを受け取り、観測可能性パイプラインワーカーアグリゲーターにデータを送る様子を示した図。このアグリゲーターは、異なるアベイラビリティゾーンに複数のワーカーを持ち、様々なシンクにデータを送る" style="width:100%;" >}}
+
+観測可能性パイプラインワーカーを他のサービスのようにインフラストラクチャーにデプロイし、データをインターセプトして操作し、宛先に転送することができます。観測可能性パイプラインワーカーインスタンスはそれぞれ独立して動作するため、シンプルなロードバランサーでアーキテクチャを拡張することができます。
+
+このガイドでは、新規の観測可能性パイプラインワーカーユーザーのために、推奨されるアグリゲーターアーキテクチャを説明します。具体的には、以下のトピックが含まれています。
+
+- [インスタンスの最適化][3]により、観測可能性パイプラインワーカーのアグリゲーターを水平方向にスケールさせることができるようになります。
+- [キャパシティプランニングと観測可能性パイプラインワーカーをスケーリングする][4]ためのリソース容量を見積もるための出発点。
+- 観測可能性パイプラインワーカー用の[ネットワークトポロジと構成][5]の決定。
+- [高耐久性][6]と[高可用性](#high-availability)の実現。
+- 観測可能性パイプラインワーカーを[災害復旧][7]の一環として活用する。
+- 複数のアグリゲーター、パブリッシュサブスクライブシステム、およびグローバル集計をデプロイするための、その他の[高度な構成][8]。
+
+[3]: /ja/observability_pipelines/legacy/architecture/optimize
+[4]: /ja/observability_pipelines/legacy/architecture/capacity_planning_scaling
+[5]: /ja/observability_pipelines/legacy/architecture/networking
+[6]: /ja/observability_pipelines/legacy/architecture/preventing_data_loss
+[7]: /ja/observability_pipelines/legacy/architecture/availability_disaster_recovery
+[8]: /ja/observability_pipelines/legacy/architecture/advanced_configurations
\ No newline at end of file
diff --git a/content/ko/integrations/rapdev_zoom.md b/content/ko/integrations/rapdev_zoom.md
index 6662ef1442835..ba1c900135fba 100644
--- a/content/ko/integrations/rapdev_zoom.md
+++ b/content/ko/integrations/rapdev_zoom.md
@@ -67,7 +67,7 @@ short_description: Zoom 계정 모니터링 및 라이선스 최적화
supported_os:
- linux
- macos
-- windows
+- 윈도우즈(Windows)
tile:
changelog: CHANGELOG.md
classifier_tags:
@@ -125,9 +125,9 @@ Zoom 통합은 미팅, 룸, 사용자, 네트워크 통계 및 지리적 위치
6. RapDev Zoom Phones 개요
## 지원
-지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의하세요.
+지원 또는 기능 요청은 다음 채널을 통해 RapDev.io에 문의해 주세요.
-- 지원: support@rapdev.io
+- 지원 팀: support@rapdev.io
- 영업 팀: sales@rapdev.io
- 채팅: [rapdev.io](https://www.rapdev.io/#Get-in-touch)
- 전화: 855-857-0222
diff --git a/content/ko/security/application_security/threats/setup/standalone/gcp-service-extensions.md b/content/ko/security/application_security/threats/setup/standalone/gcp-service-extensions.md
new file mode 100644
index 0000000000000..9f9b07d265309
--- /dev/null
+++ b/content/ko/security/application_security/threats/setup/standalone/gcp-service-extensions.md
@@ -0,0 +1,489 @@
+---
+code_lang: gcp-service-extensions
+code_lang_weight: 50
+further_reading:
+- link: https://github.com/DataDog/dd-trace-go/tree/main/contrib/envoyproxy/go-control-plane/cmd/serviceextensions
+ tag: 소스 코드
+ text: App and API Protection Service Extension 소스 코드
+- link: https://cloud.google.com/service-extensions/docs/overview
+ tag: 설명서
+ text: Google Cloud Service Extensions 개요
+- link: /security/default_rules/?category=cat-application-security
+ tag: 설명서
+ text: OOTB App and API Protection 규칙
+- link: /security/application_security/troubleshooting
+ tag: 설명서
+ text: App and API Protection 트러블슈팅
+title: GCP Service Extensions를 위한 App and API Protection 활성화
+type: multi-code-lang
+---
+
+{{< callout url="#" btn_hidden="true" header="App and API Protection Service Extensions is in Preview" >}}
+GCP App and API Protection Service Extensions 미리 보기를 사용해 보려면 하단의 설정 지침을 따릅니다.
+{{< /callout >}}
+
+GCP Cloud Load Balancing 내에서 GCP Service Extensions를 통해 App and API Protection(AAP)를 활성화할 수 있습니다. Datadog App and API Protection Service Extensions 통합은 GCP 환경에서 직접 위협 탐지 및 차단 기능을 제공합니다.
+
+## 사전 필수 조건
+
+- [Datadog Agent][1]는 애플리케이션의 운영 체제나 컨테이너, 클라우드 또는 가상 환경에 맞게 설치 및 설정됩니다.
+- [원격 설정][2]으로 Datadog UI를 통해 공격자를 차단할 수 있게 설정합니다.
+- GCP 프로젝트에는 `owner` 역할이나 `editor` 역할, 또는 관련 Compute Engine IAM 역할 `compute.instanceAdmin.v1`(인스턴스 생성) 및 `compute.networkAdmin`(로드 밸런싱 설정)이 있습니다.
+- 서비스에 Cloud Load Balancer가 포함된 GCP 프로젝트가 설정됩니다. Cloud Load Balancer는 [Traffic Callouts를 지원하는 Application Load Balancers][3] 중 하나여야 합니다.
+- Compute Engine API 및 Network Services API가 활성화됩니다.
+
+ ```bash
+ gcloud services enable compute.googleapis.com networkservices.googleapis.com
+ ```
+
+## 위협 탐지 활성화
+
+GCP 환경에서 App and API Protection Service Extension을 설정하려면 Google Cloud Console 또는 Terraform 스크립트로 다음 단계를 완료합니다.
+
+**참고:** Google Cloud는 [콜아웃 백엔드 서비스 생성][4] 및 [Service Extension을 트래픽 확장으로 설정][5]하는 지침을 제공합니다. 다음 단계는 동일한 일반 설정을 사용하지만 Datadog App and API Protection에 특화된 커스텀 설정을 포함합니다.
+
+{{< tabs >}}
+{{% tab "Google Cloud Console" %}}
+
+1. [Datadog App and API Protection Service Extensions Docker 이미지][1]로 VM Compute 인스턴스를 생성합니다.
+
+ VM 인스턴스를 설정할 때 사용 가능한 환경 변수는 [설정](#configuration)을 참조하세요.
+
+
+ Note: Be sure to update your Firewall rules to allow the Load Balancer and Datadog agent to communicate with the Callout VM instance.
+
+
+2. 비관리형 인스턴스 그룹에 VM을 추가합니다.
+
+ 인스턴스 그룹의 포트 매핑에 `http:80` 및 `grpc:443` (또는 사용자가 설정한 값)을 지정합니다.
+
+3. 다음 설정으로 백엔드 서비스를 생성합니다.
+ - 프로토콜: `HTTP2`
+ - 포트 이름: `grpc`
+ - 리전: 리전 선택
+ - 서비스 상태 확인 포트 번호: `80`(또는 사용자가 설정한 값)
+
+4. 해당 백엔드 서비스에 서비스 확장 VM이 포함된 인스턴스 그룹을 백엔드로 추가합니다.
+
+5. Traffic Service Extension 콜아웃을 설정합니다.
+ 1. Google Cloud Console에서 **Service Extensions**으로 이동하여 새 Service Extension을 만듭니다.
+ 2. 로드 밸런서 유형을 선택합니다.
+ 3. 유형으로 `Traffic extensions`를 선택합니다.
+ 4. 포워딩 규칙을 선택합니다.
+
+
+6. Extension Chain 생성하기
+
+ 1. 모든 트래픽을 확장으로 전송하려면 **Match condition**에 `true`를 입력합니다.
+ 2. **Programability type**의 경우 `Callouts`를 선택합니다.
+ 3. 이전 단계에서 생성한 백엔드 서비스를 선택합니다.
+ 4. 목록에서 App and API Protection가 탐지를 실행할 모든 **이벤트**를 선택합니다(요청 헤더 및 응답 헤더는 **필수**입니다).
+
+
+
+{{% appsec-getstarted-2-plusrisk %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="Signals Explorer 및 세부 정보와 Vulnerabilities Explorer 및 세부 정보를 보여주는 영상" video="true" >}}
+
+[1]: https://github.com/DataDog/dd-trace-go/pkgs/container/dd-trace-go%2Fservice-extensions-callout
+{{% /tab %}}
+
+{{% tab "Terraform" %}}
+
+Terraform으로 App and API Protection GCP Service Extension의 배포를 자동화할 수 있습니다. 이렇게 하면 기존 로드 밸런서와 함께 작동하도록 서비스 확장을 설정하는 프로세스가 간소화됩니다.
+
+### Terraform 배포 사전 필수 조건
+
+- 로컬 머신에 설치된 [Terraform][1](버전 1.0.0 이상).
+- 적절한 권한이 있는 GCP 자격 증명
+- Datadog API 키(Datadog Agent 설정에 사용)
+- 애플리케이션용 기존 GCP Cloud Load Balancer
+
+### 인프라스트럭처 개요
+
+Terraform 배포는 다음 컴포넌트를 생성합니다.
+- 보안 이벤트가 포함된 트레이스를 수집하는 Datadog Agent VM
+- 컨테이너에서 Datadog Service Extension Callout을 실행하는 VM
+- 확장 프로그램과 Agent 간의 통신을 허용하는 방화벽 규칙
+- Service Extension VM을 포함하는 비관리형 인스턴스 그룹
+- 서비스 상태 점검이 있는 HTTP/2용으로 설정된 백엔드 서비스
+- 기존 로드 밸런서에 연결된 서비스 확장
+
+### 배포 단계
+
+App and API Protection Service Extension 배포에는 함께 동작하는 여러 컴포넌트가 필요합니다. 이러한 모든 컴포넌트를 모두 포함하여 배포 프로세스를 반복 가능하고 유지 관리하기 쉽도록 도와주는 Terraform 모듈을 만들어봅니다.
+
+1. 새 디렉터리와 필요한 Terraform 파일을 생성합니다.
+
+ ```bash
+ mkdir gcp-aap-service-extension && cd gcp-aap-service-extension
+ touch main.tf variables.tf
+ ```
+
+2. `main.tf` 파일에 다음 코드를 추가합니다. 이 파일은 네트워크 규칙, VM 인스턴스, 로드 밸런서 설정을 포함하여 App and API Protection Service Extension에 필요한 모든 인프라스트럭처 컴포넌트를 정의합니다.
+
+ ```hcl
+ # main.tf
+
+ #----------------------------------------------------------
+ # Network Configuration
+ #----------------------------------------------------------
+
+ # Firewall rule to allow the Service Extension to communicate with the Datadog Agent
+ resource "google_compute_firewall" "aap_se_firewall" {
+ name = "${var.project_prefix}-dd-agent-firewall"
+ network = "default"
+
+ allow {
+ protocol = "tcp"
+ ports = ["8126"]
+ }
+
+ source_tags = ["http-server"]
+ target_tags = ["datadog-agent"]
+ }
+
+ #----------------------------------------------------------
+ # Datadog Agent Configuration
+ #----------------------------------------------------------
+
+ # Datadog Agent container configuration
+ module "gce-container-datadog-agent" {
+ source = "terraform-google-modules/container-vm/google"
+
+ container = {
+ image = "public.ecr.aws/datadog/agent:latest"
+ env = [
+ {
+ name = "DD_API_KEY",
+ value = var.datadog_agent_api_key,
+ },
+ {
+ name = "DD_ENV",
+ value = "dev",
+ },
+ ]
+ }
+ }
+
+ # Datadog Agent VM instance that collects traces from the Service Extension
+ resource "google_compute_instance" "datadog_agent" {
+ name = "${var.project_prefix}-datadog-agent"
+ machine_type = "e2-medium"
+ zone = var.zone
+
+ boot_disk {
+ auto_delete = true
+
+ initialize_params {
+ image = module.gce-container-datadog-agent.source_image
+ }
+
+ }
+
+ network_interface {
+ network = "default"
+ subnetwork = var.application_vpc_subnetwork
+ }
+
+ metadata = {
+ gce-container-declaration = module.gce-container-datadog-agent.metadata_value
+ google-logging-enabled = "true"
+ }
+
+ lifecycle {
+ create_before_destroy = true
+ }
+
+ tags = ["datadog-agent"]
+ }
+
+ #----------------------------------------------------------
+ # Service Extension Callout Container Configuration
+ #----------------------------------------------------------
+
+ # Datadog App and API Protection GCP Service Extension container configuration
+ module "gce-container-aap-service-extension" {
+ source = "terraform-google-modules/container-vm/google"
+
+ container = {
+ image = "ghcr.io/datadog/dd-trace-go/service-extensions-callout:v1.72.1" # Replace with the latest version
+ env = [
+ {
+ name = "DD_AGENT_HOST",
+ value = google_compute_instance.datadog_agent.network_interface.0.network_ip,
+ }
+ ]
+ }
+ }
+
+ # Service Extension VM instance (callout instance)
+ resource "google_compute_instance" "default" {
+ name = "${var.project_prefix}-instance"
+ machine_type = "e2-medium"
+ zone = var.zone
+
+ boot_disk {
+ auto_delete = true
+
+ initialize_params {
+ image = module.gce-container-aap-service-extension.source_image
+ }
+
+ }
+
+ network_interface {
+ network = var.application_vpc_network
+ subnetwork = var.application_vpc_subnetwork
+ }
+
+ metadata = {
+ gce-container-declaration = module.gce-container-aap-service-extension.metadata_value
+ google-logging-enabled = "true"
+ }
+
+ lifecycle {
+ create_before_destroy = true
+ }
+
+ # http-server: Allow access on the http server for health checks
+ # https-server: Allow access on the 443 port for the AAP Service Extension
+ tags = ["http-server", "https-server", "lb-health-check"]
+ }
+
+ #----------------------------------------------------------
+ # Load Balancer Integration
+ #----------------------------------------------------------
+
+ # Unmanaged Instance Group including the App and API Protection Service Extension instance
+ resource "google_compute_instance_group" "aap_se_instance_group" {
+ name = "${var.project_prefix}-instance-group"
+ description = "Unmanaged instance group for the App and API Protection Service Extension"
+ zone = var.zone
+
+ named_port {
+ name = "http"
+ port = 80
+ }
+
+ named_port {
+ name = "grpc"
+ port = "443"
+ }
+
+ instances = [
+ google_compute_instance.default.self_link
+ ]
+ }
+
+ # Health Check for the Backend Service
+ resource "google_compute_health_check" "aap_se_health_check" {
+ name = "${var.project_prefix}-health-check"
+ check_interval_sec = 5
+ timeout_sec = 5
+ healthy_threshold = 2
+ unhealthy_threshold = 2
+
+ http_health_check {
+ port = 80
+ request_path = "/"
+ }
+ }
+
+ # Backend Service that points to the Service Extension instance group
+ resource "google_compute_backend_service" "se_backend_service" {
+ name = "${var.project_prefix}-backend-service"
+ port_name = "grpc"
+ protocol = "HTTP2"
+ timeout_sec = 10
+ health_checks = [google_compute_health_check.aap_se_health_check.self_link]
+ load_balancing_scheme = "EXTERNAL_MANAGED"
+
+ backend {
+ group = google_compute_instance_group.aap_se_instance_group.self_link
+ }
+ }
+
+ #----------------------------------------------------------
+ # GCP Service Extension
+ #----------------------------------------------------------
+
+ # GCP Service Extension configuration for traffic interception
+ resource "google_network_services_lb_traffic_extension" "default" {
+ name = "${var.project_prefix}-service-extension"
+ description = "Datadog App and API Protection Service Extension"
+ location = "global"
+
+ load_balancing_scheme = "EXTERNAL_MANAGED"
+ forwarding_rules = [var.load_balancer_forwarding_rule]
+
+ extension_chains {
+ name = "${var.project_prefix}-service-extension-chain"
+
+ match_condition {
+ cel_expression = "true" # Match all traffic
+ }
+
+ extensions {
+ name = "${var.project_prefix}-service-extension-chain-ext"
+ authority = "datadoghq.com"
+ service = google_compute_backend_service.se_backend_service.self_link
+ timeout = "0.5s"
+ fail_open = false # If the extension fails, the request is dropped
+
+ # Supported events for the App and API Protection Service Extension
+ supported_events = ["REQUEST_HEADERS", "REQUEST_BODY", "RESPONSE_HEADERS", "RESPONSE_BODY"]
+ }
+ }
+ }
+ ```
+
+
+3. `variables.tf` 파일에 다음 콘텐츠를 추가합니다. 이 파일은 Terraform 설정에 필요한 모든 입력 변수를 정의합니다.
+
+ ```hcl
+ # variables.tf
+
+ variable "region" {
+ description = "The GCP region where resources will be created (e.g., us-central1)"
+ type = string
+ validation {
+ condition = length(var.region) > 0
+ error_message = "Region cannot be empty."
+ }
+ }
+
+ variable "zone" {
+ description = "The GCP zone where zonal resources will be created (e.g., us-central1-a)"
+ type = string
+ validation {
+ condition = length(var.zone) > 0
+ error_message = "Zone cannot be empty."
+ }
+ }
+
+ # Project configuration
+ variable "project_prefix" {
+ description = "Prefix for the project. All resource names will be prefixed with this value"
+ type = string
+ validation {
+ condition = length(var.project_prefix) > 0
+ error_message = "Project prefix cannot be empty."
+ }
+ }
+
+ # Network configuration
+ variable "application_vpc_network" {
+
+ description = "Name of the VPC network for the application"
+ type = string
+ validation {
+ condition = length(var.application_vpc_network) > 0
+ error_message = "VPC network name cannot be empty."
+ }
+ }
+
+ variable "application_vpc_subnetwork" {
+
+ description = "Name of the VPC subnetwork for the application"
+ type = string
+ validation {
+ condition = length(var.application_vpc_subnetwork) > 0
+ error_message = "VPC subnetwork name cannot be empty."
+ }
+ }
+
+ # Authentication and API keys
+ variable "datadog_agent_api_key" {
+ description = "Datadog API key"
+ type = string
+ sensitive = true
+ validation {
+ condition = length(var.datadog_agent_api_key) > 0
+ error_message = "Datadog API key cannot be empty."
+ }
+ }
+
+ # Load balancer configuration
+ variable "load_balancer_forwarding_rule" {
+ description = "Self link to the forwarding rule for the load balancer"
+ }
+ ```
+
+4. 메인 Terraform 프로젝트에 모듈을 포함합니다. 본 예시는 위에서 생성한 모듈을 참조하는 방법을 보여줍니다.
+
+ ```hcl
+ # main.tf
+
+ module "service_extension" {
+ source = "./gcp-aap-service-extension"
+ zone = "us-central1-a"
+ region = "us-central1"
+ project_prefix = "datadog-aap"
+ application_vpc_subnetwork = "your-subnet-name"
+ datadog_agent_api_key = "your-datadog-api-key"
+ load_balancer_forwarding_rule = "projects/your-project/regions/us-central1/forwardingRules/your-lb-rule" # or with a self link on your resource
+ }
+ ```
+
+5. Terraform 파일이 있는 디렉토리에서 다음 명령을 실행하여 인프라스트럭처를 배포합니다.
+
+ ```bash
+ terraform init
+ terraform plan
+ terraform apply
+ ```
+
+### 배포 후 유효성 검사
+
+서비스 확장은 로드 밸런서를 통과하는 모든 트래픽을 자동 검사하여 보안 위협을 탐지합니다.
+
+{{% appsec-getstarted-2-plusrisk %}}
+
+{{< img src="/security/application_security/appsec-getstarted-threat-and-vuln_2.mp4" alt="신호 탐색기 및 세부 정보와 취약점 탐색기 및 세부 정보를 보여주는 영상" video="true" >}}
+
+[1]: https://www.terraform.io/
+{{% /tab %}}
+{{< /tabs >}}
+
+## 설정
+
+Datadog App and API Protection Service Extension Docker 이미지는 다음 구성 설정을 지원합니다.
+
+| 환경 변수 | 기본값 | 설명 |
+|----------------------------------------|-----------------|-------------------------------------------------------------------|
+| `DD_SERVICE_EXTENSION_HOST` | `0.0.0.0` | gRPC 서버 수신 주소입니다. |
+| `DD_SERVICE_EXTENSION_PORT` | `443` | gRPC 서버 포트입니다. |
+| `DD_SERVICE_EXTENSION_HEALTHCHECK_PORT`| `80` | 서비스 상태 점검을 위한 HTTP 서버 포트입니다. |
+
+다음 환경 변수를 사용하여 Datadog Agent로 트레이스를 전송하도록 컨테이너를 설정합니다.
+
+| 환경 변수 | 기본값 | 설명 |
+|----------------------------------------|---------------|-----------------------------------------------------------------------|
+| `DD_AGENT_HOST` | `localhost` | Datadog Agent가 실행되는 호스트 이름입니다. |
+| `DD_TRACE_AGENT_PORT` | `8126` | 트레이스 수집용 Datadog Agent 포트입니다. |
+
+
+ 참고: GCP Service Extensions 통합은 Datadog Go Tracer에 기반하여 만들어졌습니다. 트레이서와 동일한 릴리스 프로세스를 따르며, Docker 이미지에 해당 트레이스 버전 태그가 지정됩니다.
+
+
+GCP Service Extensions 통합은 [Datadog Go Tracer][6]를 사용하며 트레이서로부터 모든 환경 변수를 상속받습니다. 자세한 설정 옵션은 [Go 추적 라이브러리 설정하기][7] 및 [App and API Protection 라이브러리 설정하기][8]에서 확인할 수 있습니다.
+
+## 한계
+
+GCP Service Extensions에는 다음과 같은 제한 사항이 있습니다.
+
+* 요청 본문은 콘텐츠 유형에 관계없이 검사하지 않습니다.
+
+## 참고 자료
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/account/settings#agent
+[2]: https://docs.datadoghq.com/ko/agent/remote_config/?tab=configurationyamlfile#enabling-remote-configuration
+[3]: https://cloud.google.com/service-extensions/docs/lb-extensions-overview#supported-lbs
+[4]: https://cloud.google.com/service-extensions/docs/configure-callout-backend-service
+[5]: https://cloud.google.com/service-extensions/docs/configure-traffic-extensions
+[6]: https://github.com/DataDog/dd-trace-go
+[7]: https://docs.datadoghq.com/ko/tracing/trace_collection/library_config/go/
+[8]: https://docs.datadoghq.com/ko/security/application_security/threats/library_configuration/
\ No newline at end of file
From 6c57944dc2711d32ad3edee6fe77839641540487 Mon Sep 17 00:00:00 2001
From: "webops-guacbot[bot]"
<214537265+webops-guacbot[bot]@users.noreply.github.com>
Date: Fri, 8 Aug 2025 22:54:05 +0000
Subject: [PATCH 04/43] Translated file updates
---
content/ja/containers/guide/ad_identifiers.md | 36 ++---
.../cluster_agent_autoscaling_metrics.md | 7 +
.../guides/pipeline_data_model.md | 2 +-
.../ja/continuous_testing/settings/_index.md | 6 +-
content/ja/dashboards/sharing/_index.md | 39 +++++
content/ja/dashboards/widgets/geomap.md | 14 +-
.../frontend/collecting_browser_errors.md | 5 +
...g-file-with-heightened-read-permissions.md | 10 +-
...for-when-a-specific-tag-stops-reporting.md | 4 +-
content/ko/cloudcraft/components-aws/sqs.md | 65 ++++++++
.../guide/changing_container_registry.md | 139 ++++++++++------
content/ko/integrations/zenduty.md | 149 ++++++++++++++++++
.../integrations/collector_health_metrics.md | 133 ++++++++++++++++
.../connect_s3_to_datadog_log_archives.ja.md | 19 +++
14 files changed, 544 insertions(+), 84 deletions(-)
create mode 100644 content/ja/dashboards/sharing/_index.md
create mode 100644 content/ja/error_tracking/frontend/collecting_browser_errors.md
create mode 100644 content/ko/cloudcraft/components-aws/sqs.md
create mode 100644 content/ko/integrations/zenduty.md
create mode 100644 content/ko/opentelemetry/integrations/collector_health_metrics.md
create mode 100644 layouts/shortcodes/observability_pipelines/configure_log_archive/amazon_s3/connect_s3_to_datadog_log_archives.ja.md
diff --git a/content/ja/containers/guide/ad_identifiers.md b/content/ja/containers/guide/ad_identifiers.md
index ada76c9dc9a12..9e023c014d227 100644
--- a/content/ja/containers/guide/ad_identifiers.md
+++ b/content/ja/containers/guide/ad_identifiers.md
@@ -15,11 +15,11 @@ further_reading:
title: オートディスカバリーコンテナ識別子
---
-This document explains how to apply an [Autodiscovery][1] configuration template to a specific container. The `ad_identifiers` parameter can match a container image name or a custom identifier.
+このドキュメントでは、特定のコンテナに [オートディスカバリー][1] 構成テンプレートを適用する方法を説明します。`ad_identifiers` パラメーターは、コンテナ イメージ名またはカスタム識別子と一致させることができます。
-## Container image name
+## コンテナ イメージ名
-To apply the following Autodiscovery configuration template to a given container, replace `` with the [short][2] container image name:
+次のオートディスカバリー構成テンプレートを特定のコンテナに適用するには、`` を [短い][2] コンテナ イメージ名に置き換えてください:
```yaml
ad_identifiers:
@@ -32,7 +32,7 @@ instances:
```
-**Example**: The following Apache Autodiscovery configuration template applies to a container image named `httpd`:
+**例**: 次の Apache オートディスカバリー構成テンプレートは、`httpd` という名前のコンテナ イメージに適用されます:
```yaml
ad_identifiers:
@@ -45,9 +45,9 @@ logs:
service: webapp
```
-This matches **any** `httpd` container image on your host. If you have one container running `foo/httpd:latest` and another running `bar/httpd:v2`, the Agent applies the above template to both containers.
+これは、ホスト上の **すべての** `httpd` コンテナ イメージに一致します。`foo/httpd:latest` を実行しているコンテナと `bar/httpd:v2` を実行しているコンテナがある場合でも、Agent は上記のテンプレートを両方のコンテナに適用します。
-When using short image names as Autodiscovery container identifiers, the Agent cannot distinguish between identically named images from different sources or with different tags.
+短いイメージ名をオートディスカバリーのコンテナ識別子として使用する場合、Agent は異なるソースやタグで同じ名前のイメージを区別できません。
### 複数の識別子
@@ -59,16 +59,16 @@ ad_identifiers:
- my-custom-httpd-image
```
-This matches **any** container images on your host that match `httpd` **or** `my-custom-httpd-image`.
+これは、ホスト上で `httpd` **または** `my-custom-httpd-image` に一致する **すべての** コンテナ イメージに適用されます。
## カスタムなオートディスカバリーコンテナ識別子
-If you want to apply different configuration templates to containers running the same image, use custom container identifiers.
+同じイメージを実行するコンテナに別々の構成テンプレートを適用したい場合は、カスタム コンテナ識別子を使用してください。
-1. Supply a custom container identifier to your container using a Docker label or Kubernetes annotation.
+1. Docker ラベルまたは Kubernetes アノテーションを使用して、コンテナにカスタム コンテナ識別子を付与します。
- **Example**:
- Apply a Docker label or Kubernetes annotation to identify your container as `foo`:
+ **例**:
+ `foo` としてコンテナを識別する Docker ラベルまたは Kubernetes アノテーションを適用します:
{{< tabs >}}
{{% tab "Docker label" %}}
@@ -77,25 +77,25 @@ If you want to apply different configuration templates to containers running the
LABEL com.datadoghq.ad.check.id="foo"
```
- **Note**: The `com.datadoghq.ad.check.id` label takes precedence over the image name.
+ **注**: `com.datadoghq.ad.check.id` ラベルはイメージ名より優先されます。
{{% /tab %}}
{{% tab "Kubernetes annotation" %}}
```text
- ad.datadoghq.com/.check.id: 'foo'
+ ad.datadoghq.com/.check.id: 'foo'
```
- Replace `` with the container name within the pod.
+ `` をポッド内のコンテナ名に置き換えてください。
- **Note**: Supported in Datadog Agent v6.25+ and v7.25. The `ad.datadoghq.com/.check.id` label takes precedence over the image name.
+ **注**: Datadog Agent v6.25+ および v7.25 でサポートされています。`ad.datadoghq.com/.check.id` ラベルはイメージ名より優先されます。
{{% /tab %}}
{{< /tabs >}}
-2. Reference this custom value in your Autodiscovery configuration template.
+2. このカスタム値をオートディスカバリー構成テンプレート内で参照します。
- **Example**:
- The following Apache Autodiscovery configuration template designates a container image with the custom name `foo`:
+ **例**:
+ 次の Apache オートディスカバリー構成テンプレートは、`foo` というカスタム名のコンテナ イメージを指定します:
```yaml
ad_identifiers:
diff --git a/content/ja/containers/guide/cluster_agent_autoscaling_metrics.md b/content/ja/containers/guide/cluster_agent_autoscaling_metrics.md
index 9fba7effd55fc..9534a83151104 100644
--- a/content/ja/containers/guide/cluster_agent_autoscaling_metrics.md
+++ b/content/ja/containers/guide/cluster_agent_autoscaling_metrics.md
@@ -368,6 +368,13 @@ Datadog Cluster Agent は、自動的にそのネームスペース (`dcaautogen
後で HPA を移行して `DatadogMetric` を参照するようにした場合、自動生成されたリソースは数時間後に Datadog Cluster Agent によりクリーンアップされます。
+オプションで、この動作を無効にするには、`DD_EXTERNAL_METRICS_PROVIDER_ENABLE_DATADOGMETRIC_AUTOGEN` を `false` に設定します。
+
+```yaml
+- name: DD_EXTERNAL_METRICS_PROVIDER_ENABLE_DATADOGMETRIC_AUTOGEN
+ value: "false"
+```
+
## Cluster Agent によるクエリの実行
Cluster Agent は `DatadogMetric` オブジェクト用に 30 秒ごとにクエリを実行します。また、Cluster Agent は、実行されたメトリクスクエリを 35 件ずつグループ化します。したがって、Datadog メトリクス API に対する 1 つのリクエストには 35 件の`DatadogMetric` クエリが含まれます。
diff --git a/content/ja/continuous_integration/guides/pipeline_data_model.md b/content/ja/continuous_integration/guides/pipeline_data_model.md
index be834cc928ac1..423efd8698143 100644
--- a/content/ja/continuous_integration/guides/pipeline_data_model.md
+++ b/content/ja/continuous_integration/guides/pipeline_data_model.md
@@ -17,7 +17,7 @@ title: パイプラインのデータモデルと実行タイプ
パイプラインの実行は、[APM の分散トレース][1]と同様にトレースとしてモデル化され、スパンがパイプラインの各部分の実行を表します。CI Visibility でパイプライン実行を表すデータモデルは、4 つのレベルで構成されます。
-| レベル名 | 説明 |
+| レベル名 | 説明 |
| ---------- | ----------- |
| パイプライン (必須) | 他のすべてのレベルを子として含む、最上位のルートスパン。パイプラインの開始から終了までの全体的な実行を表します。CI プロバイダーによっては、このレベルを `build` や `workflow` と呼ぶこともあります。 |
| ステージ | ユーザーが定義した名前でジョブをグループ化するレベルです。一部の CI プロバイダーでは、このレベルが存在しない場合があります。 |
diff --git a/content/ja/continuous_testing/settings/_index.md b/content/ja/continuous_testing/settings/_index.md
index 442b7049e8e7c..e2695e95f47b1 100644
--- a/content/ja/continuous_testing/settings/_index.md
+++ b/content/ja/continuous_testing/settings/_index.md
@@ -24,9 +24,9 @@ title: Continuous Testing 設定
## 概要
-You can access Continuous Testing settings on the [Synthetic Monitoring & Testing Settings page][1].
+Continuous Testing の設定には、[Synthetic Monitoring & Testing Settings ページ][1]からアクセスできます。
-{{< img src="continuous_testing/settings/parallelization.png" alt="Set parallelization for your Continuous Testing tests on the Settings page" style="width:100%;">}}
+{{< img src="continuous_testing/settings/parallelization.png" alt="Settings ページで Continuous Testing テストの並列実行を設定する" style="width:100%;">}}
デフォルトでは、CI/CD パイプラインで実行されるすべてのテストは、順次実行されます (1 つずつ実行されます)。この動作を変更するには、[並列化値](#set-parallelization)を設定し、選択を保存してください。
@@ -59,7 +59,7 @@ $$\text"estimated parallelization" = {\text"CI バッチあたりの平均テス
3. **Save Selection** をクリックします。
4. 選択内容を確認します。
-{{< img src="continuous_testing/settings/parallelization.png" alt="Parallelization settings for 25 parallel Continuous Testing test runs" style="width:100%;">}}
+{{< img src="continuous_testing/settings/parallelization.png" alt="25 並列で Continuous Testing テストを実行するための並列化設定" style="width:100%;">}}
## 権限
diff --git a/content/ja/dashboards/sharing/_index.md b/content/ja/dashboards/sharing/_index.md
new file mode 100644
index 0000000000000..435644e644e73
--- /dev/null
+++ b/content/ja/dashboards/sharing/_index.md
@@ -0,0 +1,39 @@
+---
+aliases:
+- /ja/graphing/faq/is-there-a-way-to-share-graphs
+- /ja/graphing/faq/is-there-a-way-to-share-or-revoke-previously-shared-graphs
+- /ja/graphing/dashboards/shared_graph/
+further_reading:
+- link: https://www.datadoghq.com/blog/dashboard-sharing/
+ tag: ブログ
+ text: ダッシュボードを組織外の人と安全に共有する
+- link: /dashboards/
+ tag: ドキュメント
+ text: Datadog でダッシュボードを作成
+- link: /dashboards/widgets/
+ tag: ドキュメント
+ text: ダッシュボードのウィジェットについて
+title: 共有
+---
+
+## 概要
+
+共有ビジュアライゼーションを使用すると、Datadog 以外でもメトリクス、トレース、ログのビジュアライゼーションを表示できます。ビジュアライゼーションを共有して、チーム メンバーとの意思決定および問題解決プロセスを強化しましょう。
+
+{{< whatsnext desc="ビジュアライゼーションを共有する方法:" >}}
+ {{< nextlink href="dashboards/sharing/shared_dashboards" >}}共有ダッシュボード: ユーザーがアクセスできるパブリック リンクを生成する{{< /nextlink >}}
+ {{< nextlink href="dashboards/sharing/graphs" >}}グラフの共有: 埋め込みコードを生成する{{< /nextlink >}}
+ {{< nextlink href="dashboards/sharing/scheduled_reports" >}}スケジュール済みレポート: メール レポートを送信するスケジュールを設定する{{< /nextlink >}}
+{{< /whatsnext >}}
+
+## 公開ダッシュボードおよびグラフをすべて表示
+
+公開共有されているダッシュボードの一覧を確認するには、[**Organization Settings > Public Sharing > Shared Dashboards**][1] に移動します。組織で公開共有されているグラフを確認するには、**Shared Graphs** タブをクリックします。アクセスを取り消す方法については、[ダッシュボード][2] および [グラフ][3] のドキュメントを参照してください。
+
+## 参考資料
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: https://app.datadoghq.com/organization-settings/public-sharing/shared-dashboards
+[2]: /ja/dashboards/sharing/shared_dashboards/
+[3]: /ja/dashboards/sharing/graphs/#revoke
\ No newline at end of file
diff --git a/content/ja/dashboards/widgets/geomap.md b/content/ja/dashboards/widgets/geomap.md
index 827ee1b18c866..4be2b1e633c1e 100644
--- a/content/ja/dashboards/widgets/geomap.md
+++ b/content/ja/dashboards/widgets/geomap.md
@@ -22,11 +22,11 @@ widget_type: ジオマップ
## セットアップ
-{{< img src="dashboards/widgets/geomap/geomap_setup2.png" alt="ウィジェット構成の Geomap Graph your data セクション">}}
+{{< img src="dashboards/widgets/geomap/geomap_setup3.png" alt="ウィジェット構成の Geomap Graph your data セクション">}}
### 構成
1. 視覚化レイヤーを選択します。
- * **Regions**: 国レベルでメジャーを集計します。
+ * **Regions**: 国レベルまたは国の下位区分レベルで集計した指標。
* **Points**: イベントをマップ上でポイントとしてオーバーレイし、地理的なイベントデータを表示します。
2. グラフ化するデータを選択します。
@@ -35,11 +35,11 @@ widget_type: ジオマップ
{{% tab "Regions" %}}
| データソース | 備考 |
| -------------- | -------- |
- |ログイベント | group by タグには、alpha-2 の ISO フォーマットに従った国の ISO コードを含める必要があります。これを行うには、[GeoIP Processor][1] を使用するか、手動で[取り込み時にタグ][2]を含めます。ログイベントクエリを構成するには、[ログ検索ドキュメント][3]を参照してください。|
- |メトリクス | group by タグには、alpha-2 の ISO フォーマットに従った国の ISO コードを含める必要があります。[取り込んだログからメトリクスを生成する][4]か、手動で[取り込み時にタグ][2]を含めます。メトリクスクエリを構成するには、[クエリのドキュメント][5]を参照してください。|
+ |ログイベント | グループ化用タグには、国の ISO コード (alpha-2 の ISO フォーマット) または国の下位区分 ISO コード (ISO-3166-2 フォーマット) を含める必要があります。これを行うには、[GeoIP Processor][1] を使用するか、手動で[取り込み時にタグ][2]を含めます。ログイベントクエリを構成するには、[ログ検索ドキュメント][3]を参照してください。|
+ |メトリクス | グループ化用タグには、国の ISO コード (alpha-2 の ISO フォーマット) または国の下位区分 ISO コード (ISO-3166-2 フォーマット) を含める必要があります。[取り込んだログからメトリクスを生成する][4]か、手動で[取り込み時にタグ][2]を含めます。メトリクスクエリを構成するには、[クエリのドキュメント][5]を参照してください。|
|RUM | RUM クエリを構成するには、[RUM ドキュメント][6]を参照してください。|
|SLO | SLO クエリを構成するには、[SLO 検索ドキュメント][7]を参照してください。 |
- |セキュリティシグナル
アプリケーションセキュリティ
監査証跡 | クエリを構成するには、[ログ検索ドキュメント][3]を参照してください。 |
+ |セキュリティシグナル
App and API Protection
監査証跡 | クエリを構成するには、[ログ検索ドキュメント][3]を参照してください。 |
[1]: /logs/log_configuration/processors/#geoip-parser
[2]: /getting_started/tagging/#define-tags
@@ -71,6 +71,10 @@ widget_type: ジオマップ
[コンテキストリンク][7]はデフォルトで有効になっていますが、有効/無効を切り替えることができます。コンテキストリンクは、ダッシュボードウィジェットと他のページ (Datadog 内またはサードパーティ) を接続します。
+#### ビジュアルフォーマットルール
+
+条件付きルールを使用して、Geomap ウィジェットのリージョンレイヤーの色をカスタマイズします。
+
## API
このウィジェットは **[Dashboards API][8]** で使用できます。[ウィジェット JSON スキーマ定義][9]については、以下の表を参照してください。
diff --git a/content/ja/error_tracking/frontend/collecting_browser_errors.md b/content/ja/error_tracking/frontend/collecting_browser_errors.md
new file mode 100644
index 0000000000000..a733fcd8c02a4
--- /dev/null
+++ b/content/ja/error_tracking/frontend/collecting_browser_errors.md
@@ -0,0 +1,5 @@
+---
+title: ブラウザエラーの収集
+---
+
+{{< include-markdown "real_user_monitoring/browser/collecting_browser_errors" >}}
\ No newline at end of file
diff --git a/content/ja/logs/guide/custom-log-file-with-heightened-read-permissions.md b/content/ja/logs/guide/custom-log-file-with-heightened-read-permissions.md
index b6ec9a845b091..31520e059c9db 100644
--- a/content/ja/logs/guide/custom-log-file-with-heightened-read-permissions.md
+++ b/content/ja/logs/guide/custom-log-file-with-heightened-read-permissions.md
@@ -14,15 +14,15 @@ further_reading:
title: 高度な読み取り権限を持つカスタムログファイルからのログ送信
---
-Often, log files, especially system logs such as *syslog* or *journald*, have heightened read-permissions blocking the Datadog Agent log collection as it does not have *sudo* or *admin* access.
+多くの場合、*syslog* や *journald* などのシステムログを含むログファイルは読み取り権限が厳しく設定されているため、*sudo* や *admin* アクセス権を持たない Datadog Agent がログを収集できないことがあります。
-There are three potential solutions to get around this:
+この問題を回避する方法は 3 つあります。
-* (Not Recommended) Give the Agent root access so it can tail those files. Datadog strongly recommends against going this route.
-* Change the file permission to let the Agent access it. The Agent needs execute and read permissions on the directories and also read permission on the file. Run the following commands to provide those permissions (for any user, not just the Agent):
+* (非推奨) Agent に root アクセス権を付与してファイルを tail できるようにする。Datadog ではこの方法を強く非推奨としています。
+* ファイルの権限を変更して Agent がアクセスできるようにする。Agent にはディレクトリに対する実行権限と読み取り権限、ファイルに対する読み取り権限が必要です。以下のコマンドを実行して (Agent だけでなく任意のユーザーに) これらの権限を付与します。
* chmod 755 ``
* chmod 644 ``
-* Configure an open source log shipper (such as Rsyslog, NXLog, ...) that has root access to send those logs either directly to your Datadog platform or locally to a running Datadog Agent. For instructions, read the dedicated documentation for [Rsyslog][1], [Syslog-ng][2], [NXlog][3], [FluentD][4], or [Logstash][5].
+* root アクセス権を持つオープンソースのログシッパー (Rsyslog、NXLog など) を構成し、これらのログを直接 Datadog プラットフォームに送信するか、ローカルで稼働している Datadog Agent に送信する。設定手順については [Rsyslog][1]、[Syslog-ng][2]、[NXLog][3]、[FluentD][4]、[Logstash][5] の各ドキュメントを参照してください。
{{< partial name="whats-next/whats-next.html" >}}
diff --git a/content/ja/monitors/guide/set-up-an-alert-for-when-a-specific-tag-stops-reporting.md b/content/ja/monitors/guide/set-up-an-alert-for-when-a-specific-tag-stops-reporting.md
index 8fe4ee691c7af..1d609a4972fc1 100644
--- a/content/ja/monitors/guide/set-up-an-alert-for-when-a-specific-tag-stops-reporting.md
+++ b/content/ja/monitors/guide/set-up-an-alert-for-when-a-specific-tag-stops-reporting.md
@@ -17,10 +17,12 @@ title: 特定のタグがレポートを停止した場合のアラート設定
1. 決してトリガーされることのないアラート条件を選択します。例えば、`system.cpu.user` のような正のメトリクスには、`a < -1` を指定します。
1. この例で見られるように、_Notify if data is missing_ オプションを有効にします。
-{{< img src="monitors/guide/tag_stop_reporting.png" alt="Tag stop reporting" >}}
+{{< img src="monitors/guide/tag_stop_reporting.png" alt="タグがレポートを停止" >}}
タグがレポートを停止した場合、アラートがトリガーします。
+## 参考資料
+
{{< partial name="whats-next/whats-next.html" >}}
[1]: /ja/monitors/
diff --git a/content/ko/cloudcraft/components-aws/sqs.md b/content/ko/cloudcraft/components-aws/sqs.md
new file mode 100644
index 0000000000000..3d1672c6a9b67
--- /dev/null
+++ b/content/ko/cloudcraft/components-aws/sqs.md
@@ -0,0 +1,65 @@
+---
+title: SQS 구성 요소
+---
+## 개요
+
+SQS 구성 요소를 사용하여 Amazon Web Services 아키텍처의 메시지 대기열을 나타냅니다.
+
+{{< img src="cloudcraft/components-aws/sqs/component-sqs-diagram.png" alt="'SQS' AWS 구성 요소를 보여주는 아이소메트릭 Cloudcraft 다이어그램의 스크린샷." responsive="true" style="width:60%;">}}
+
+## 도구 모음
+
+도구 모음을 사용해 구성 요소를 구성하고 사용자 지정할 수 있습니다. 다음 옵션을 사용할 수 있습니다.
+
+- **Color**: 구성 요소와 강조 항목에 적용할 사전 정의된 색상을 선택하거나 16진수 값을 입력할 수 있습니다. 구성 요소에서는 2D와 3D 모두에 같은 색상을 사용하거나 각각에 다른 색상을 적용할 수 있습니다.
+- **Rotate item**: 컴포넌트를 회전하여 방향을 바꿉니다.
+- **Type**: SQS 인스턴스에 대한 메시지 대기열 유형을 선택합니다.
+- **Req./month (M)**: 매달 전송되는 요청 수를 백만 단위로 입력합니다.
+
+## API
+
+[Cloudcraft API][1]를 사용해 프로그래밍을 통해 액세스하여 JSON 개체의 아키텍처 다이어그램을 렌더링할 수 있습니다.
+
+### 스키마
+
+다음은 SQS 구성 요소의 JSON 예입니다.
+
+```json
+{
+ "type": "sqs",
+ "id": "c671ec0c-3103-4312-9c85-286a58dbc457",
+ "region": "us-east-1",
+ "mapPos": [0,10],
+ "direction": "down",
+ "queueType": "standard",
+ "requests": 1,
+ "color": {
+ "isometric": "#ececed",
+ "2d": "#cc2264"
+ },
+ "accentColor": {
+ "isometric": "#f4b934",
+ "2d": "#ffffff"
+ },
+ "link": "https://aws.amazon.com/sqs/",
+ "locked": true
+}
+```
+
+- **type: sqs**: 구성 요소 유형
+- **id: string**: `uuid` 형식의 구성 요소 고유 식별자
+- **region: string**: SQS가 배포된 AWS 지역. `cn-` 지역을 제외한 모든 글로벌 지역이 지원됩니다.
+- **mapPos: [number, number]**: 청사진에 있는 구성 요소의 포지션. X와 Y 좌표 쌍을 이용해 표현됩니다.
+- **direction: string**: 컴포넌트의 회전 또는 방향을 지정합니다. `down`, `up`, `right`, 또는 `left` 값을 허용합니다. 기본값은 `down`
+- **queueType: string**: SQS 인스턴스의 메시지 대기열 유형입니다. 허용값은 `standard` 또는 `fifo`
+- **requests: number**: 월간 전송된 요청 수(백만 단위). 기본값은 `1`.
+- **color: object**: 구성 요소에 적용할 색
+ - **isometric: string**: 3D 보기에서 구성 요소에 적용할 색. 16진수 색이어야 합니다.
+ - **2d: string**: 2D 보기에서 구성 요소에 적용할 색. 16진수 색이어야 합니다.
+- **accentColor: object**: 블록에 있는 구성 요소 로고의 강조색
+ - **isometric: string**: 3D 보기의 구성 요소 강조색. 16진수 색이어야 합니다.
+ - **2d: string**: 2D 보기의 구성 요소 강조색. 16진수 색이어야 합니다.
+- **link: uri**: `blueprint://ID` 형식을 사용해 구성 요소를 다른 다이어그램으로 연결하거나 `https://LINK` 형식을 사용해 외부 웹사이트로 연결합니다.
+- **locked: boolean**: `true`로 설정하면 애플리케이션을 사용해 변경한 항목은 잠금 해제될 때까지 비활성화 상태입니다.
+
+[1]: https://developers.cloudcraft.co/
\ No newline at end of file
diff --git a/content/ko/containers/guide/changing_container_registry.md b/content/ko/containers/guide/changing_container_registry.md
index 9d1a190e53505..50b7e352ac662 100644
--- a/content/ko/containers/guide/changing_container_registry.md
+++ b/content/ko/containers/guide/changing_container_registry.md
@@ -4,48 +4,45 @@ aliases:
title: 컨테이너 레지스트리 변경하기
---
-Datadog은 Google의 gcr.io, Azure의 ACR, AWS의 ECR 및 Docker Hub에 컨테이너 이미지를 게시합니다.
+Datadog은 컨테이너 이미지를 Google gcr.io, Azure ACR, AWS ECR, Docker Hub에 게시합니다.
-| dockerhub.io | gcr.io | public.ecr.aws | datadoghq.azurecr.io |
-| ------------------------------------------ | --------------------------------------------------- | --------------------------------------------------------- | ------------------------------------------------------- |
-| datadog/agent | gcr.io/datadoghq/agent | public.ecr.aws/datadog/agent | datadoghq.azurecr.io/agent |
-| datadog/cluster-agent | gcr.io/datadoghq/cluster-agent | public.ecr.aws/datadog/cluster-agent | datadoghq.azurecr.io/cluster-agent |
-| datadog/dogstatsd | gcr.io/datadoghq/dogstatsd | public.ecr.aws/datadog/dogstatsd | datadoghq.azurecr.io/dogstatsd |
-| datadog/synthetics-private-location-worker | gcr.io/datadoghq/synthetics-private-location-worker | public.ecr.aws/datadog/synthetics-private-location-worker | datadoghq.azurecr.io/synthetics-private-location-worker |
+{{% container-images-table %}}
+ACR, GCR 또는 ECR 레지스트리에서 불러오면 Docker 허브에서 불러오는 것과 동일하게 동작합니다(Notary 제외). 동일한 명령(다른 매개변수 포함)을 사용하여 동일한 이미지를 얻을 수 있습니다.
-GCR 또는 ECR 레지스트리에서 가져오는 것은 Docker Hub에서 가져오는 것과 동일하게 작동합니다(Notary 제외). 동일한 명령(다른 파라미터 포함)을 사용하여 동일한 이미지를 얻을 수 있습니다.
+**참고**: ACR, ECR 및 GCR은 Notary를 지원하지 않습니다. Docker에서 가져온 이미지의 서명을 확인하는 경우 이 기능은 GCR 또는 ECR에서 작동하지 않습니다.
-**참고**: ECR 및 GCR은 Notary를 지원하지 않습니다. Docker에서 가져온 이미지의 서명을 확인하는 경우 이 기능은 GCR 또는 ECR에서 작동하지 않습니다.
+레지스트리를 업데이트하려면 배포 중인 컨테이너 환경 유형에 따라 레지스트리 값을 업데이트합니다.
-레지스트리를 업데이트하려면 배포 중인 컨테이너 환경 유형에 따라 레지스트리 값을 업데이트해야 합니다.
+**참고**: 비공개 레지스트리도 사용할 수 있지만 이미지를 비공개 레지스트리에서 가져오려면 풀 시크릿(Pull Secret)을 생성해야 합니다.
+풀 시크릿을 생성하는 방법에 대한 자세한 내용은 [Kubernetes 설명서][1]를 참조하세요.
## Docker
-### 레지스트리 업데이트하기
+### 레지스트리 업데이트
-컨테이너 레지스트리를 업데이트하려면 새 레지스트리에 대해 pull 명령을 실행합니다. 다양한 컨테이너 레지스트리에 대한 Docker 풀 명령을 보려면 [Docker 문서 페이지 개요][1]의 예를 참조하세요.
+컨테이너 레지스트리를 업데이트하려면 새 레지스트리에 대해 Pull 명령을 실행하세요. 다른 컨테이너 레지스트리에 대한 Docker Pull 명령어를 보려면 [Docker 문서 페이지 개요][2]의 예시를 참조하세요.
-## Helm 차트를 사용하는 Kubernetes
+## Kubernetes에서 Helm Chart 활용
-Kubernetes(GKE, EKS, AKS 및 OpenShift 포함)에서 Datadog helm 차트를 사용하여 Datadog Agent(또는 Datadog Cluster Agent)를 배포하는 동안 컨테이너 레지스트리를 업데이트하려면 다른 레지스트리를 지정하도록 `values.yaml`을 업데이트하세요.
+Datadog Helm Chart로 Kubernetes(GKE, EKS, AKS, OpenShift 포함)에 Datadog Agent(또는 Datadog Cluster Agent)를 배포하면서 컨테이너 레지스트리를 업데이트하려면 `values.yaml` 값을 업데이트하여 다른 레지스트리를 지정하세요.
-### Datadog Helm 차트 >= v2.7.0
+### Datadog Helm Chart >= v2.7.0
1. `values.yaml`을 업데이트하세요.
```yaml
registry: gcr.io/datadoghq
```
-2. `values.yaml`에서 `agents.image.repository`, `clusterAgent.image.repository`, `clusterChecksRunner.image.repository`에 대한 오버라이드를 제거하세요.
+2. `values.yaml`에서 `agents.image.repository`, `clusterAgent.image.repository`, `clusterChecksRunner.image.repository`에 대한 재정의를 모두 삭제합니다.
-### Datadog Helm 차트 < v2.7.0
+### Datadog Helm Chart < v2.7.0
-리포지토리를 `gcr.io`로 변경하세요.
+리포지토리를 `gcr.io`로 변경합니다.
```yaml
agents:
image:
- repository: gcr.io/datadoghq/agent
+ repository: gcr.io/datadoghq/agent
clusterAgent:
image:
@@ -56,14 +53,31 @@ clusterChecksRunner:
repository: gcr.io/datadoghq/agent
```
-Datadog Helm 차트 사용에 대한 자세한 내용은 [Datadog Kubernetes 문서][2] 및 예시 [`values.yaml`][3] 파일을 참조하세요.
+Datadog Helm Chart 사용에 대한 자세한 내용은 [Datadog Kubernetes 문서][3] 및 예제 [`values.yaml`][4] 파일을 참조하세요.
+
+비공개 레지스트리를 사용하는 경우 각 이미지의 `[key].image.pullSecrets` 필드에 풀 시크릿(Pull secret)을 추가해야 합니다.
+```yaml
+agents:
+ image:
+ pullSecrets:
+ - name: PrivateRegistrySecret
-## Datadog Operator를 사용하는 Kubernetes
+clusterAgent:
+ image:
+ pullSecrets:
+ - name: PrivateRegistrySecret
+
+clusterChecksRunner:
+ image:
+ pullSecrets:
+ - name: PrivateRegistrySecret
+```
-Datadog Operator를 사용하여 Datadog Agent (또는 Datadog Cluster Agent)를 배포하는 동안 레지스트리를 업데이트하려면:
+## Kubernetes에서 Datadog Operator 활용
-1. Datadog Agent 매니페스트 파일을 업데이트하여 기본 레지스트리(`gcr.io/datadoghq`)를 재정의합니다. 예를 들어 `public.ecr.aws/datadog`을 사용하는 경우는 다음과 같습니다.
+Datadog Operator로 Datadog Agent(또는 Datadog Cluster Agent)를 배포하는 동안 레지스트리를 업데이트합니다.
+1. Datadog Agent 매니페스트 파일을 업데이트하여 기본 레지스트리(`gcr.io/datadoghq`)를 재정의합니다. 예를 들어 `public.ecr.aws/datadog`의 경우는 다음과 같습니다.
```yaml
apiVersion: datadoghq.com/v2alpha1
kind: DatadogAgent
@@ -74,69 +88,92 @@ spec:
registry: gcr.io/datadoghq
// ..
```
-2. `spec.override.nodeAgent.image.name`, `spec.override.clusterAgent.image.name`, `spec.override.clusterChecksRunner.image.name` 필드에 대한 오버라이드를 제거하세요.
-Datadog Operator에 대한 자세한 내용은 [Operator를 사용하여 Agent 배포][4]를 참조하세요.
+2. `spec.override.nodeAgent.image.name`, `spec.override.clusterAgent.image.name`, `spec.override.clusterChecksRunner.image.name` 필드에 대한 재정의를 모두 삭제합니다.
+3. 비공개 레지스트리를 사용하는 경우 각 이미지의 `[key].image.pullSecrets` 필드에 풀 시크릿(Pull secret)을 추가해야 합니다.
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ override:
+ nodeAgent:
+ image:
+ pullSecrets:
+ - name: PrivateRegistrySecret
+ clusterAgent:
+ image:
+ pullSecrets:
+ - name: PrivateRegistrySecret
+ clusterChecksRunner:
+ image:
+ pullSecrets:
+ - name: PrivateRegistrySecret
+ // ..
+```
+Datadog Operator에 대한 자세한 내용은 [Operator로 Agent 배포하기][5]를 참조하세요.
-### Helm과 함께 public.ecr.aws/datadog 레지스트리 사용하기
-Helm 차트를 사용하여 Operator를 설치할 때 기본 `gcr.io/datadoghq` 레지스트리에서 `public.ecr.aws/datadog`레지스트리로 전환할 수도 있습니다. `public.ecr.aws/datadog` 레지스트리로 전환하려면:
+### Helm으로 다른 컨테이너 레지스트리 사용하기
-[`values.yaml`][5]를 새 이미지로 업데이트합니다.
+Helm Chart로 Operator를 설치할 때 기본 `gcr.io/datadoghq` 레지스트리에서 `datadoghq.azurecr.io`와 같은 다른 레지스트리로 전환할 수 있습니다.
+
+[`values.yaml`][6]을 새 이미지로 업데이트합니다.
```yaml
image:
- repository: public.ecr.aws/datadog
+ repository: datadoghq.azurecr.io
```
## ECS
-ECS에 배포하는 동안 레지스트리를 업데이트하려면 `datadog-agent-ecs.json` 파일에서 `"image"` 키 값을 `containerDefinitions`에서 `"public.ecr.aws/datadog/agent:latest"`로 변경합니다.
+ECS에 배포하는 동안 레지스트리를 업데이트하려면 `datadog-agent-ecs.json` 파일에서 `containerDefinitions`의 `"image"` 키 값을 `"public.ecr.aws/datadog/agent:latest"`로 변경합니다.
```json
"image": "public.ecr.aws/datadog/agent:latest",
```
-ECS에 Datadog을 배포하는 방법에 대한 자세한 내용은 [Datadog ECS 설명서][6] 및 예시 [`datadog-agent-ecs.json`파일][6]을 참조하세요.
+ECS에 Datadog 배포하기에 대한 자세한 내용은 [Datadog ECS 문서][7] 및 예제 [`datadog-agent-ecs.json`][7] 파일을 참조하세요.
## Fargate
-Fargate에 배포하는 동안 레지스트리를 업데이트하려면 `public.ecr.aws`를 사용하여 Fargate 작업 정의에서 이미지를 업데이트합니다.
+Fargate에 배포하는 동안 레지스트리를 업데이트하려면 Fargate 작업 정의에서 이미지를 업데이트하여 `public.ecr.aws`을 사용합니다.
```json
"image": "public.ecr.aws/datadog/agent:latest"
```
-다음에 작업이 시작되면 Docker Hub 대신 `public.ecr.aws`에서 가져옵니다. Fargate 배포에 대한 자세한 내용은 [ECS에 Agent 배포][7] 및 [EKS에 Agent 배포][8]를 참조하세요.
-
+다음에 작업이 시작되면 Docker Hub 대신 `public.ecr.aws`에서 가져옵니다. Fargate에 배포하는 방법에 대한 자세한 내용은 [ECS에 Agent 배포하기][8] 및 [EKS에 Agent 배포하기][9]를 참조하세요.
-## 클러스터 에이전트
+## Cluster Agent
-Helm 차트를 사용하여 Datadog Agent 및 Datadog Cluster Agent를 배포하는 경우 [Helm 차트를 사용하는 Kubernetes](#kubernetes-with-helm-chart)의 지침을 따르세요. 다른 업데이트는 필요하지 않습니다. 위에서 설명한 Helm `values.yaml`에 대한 변경 사항은 Cluster Agent와 Datadog Agent를 모두 가져오는 리포지토리를 변경합니다.
+Helm chart로 Datadog Agent 및 Datadog Cluster Agent를 배포하는 경우, [Kubernetes에서 Helm 차트 활용](#kubernetes-with-helm-chart) 지침을 따르세요. 다른 업데이트는 필요하지 않습니다. 위에서 설명한 Helm `values.yaml`을 변경하면 Cluster Agent 및 Datadog Agent가 이미지를 가져오는 리포지토리가 변경됩니다.
-Datadog Operator를 사용하여 Datadog Cluster Agent를 배포하는 경우 [Datadog Operator를 사용하는 Kubernetes](#kubernetes-with-the-datadog-operator)의 지침을 따르세요. 그러면 다른 업데이트가 필요하지 않습니다. Operator 설정 업데이트 지침은 Cluster Agent와 Datadog Agent를 모두 가져오는 리포지토리를 업데이트합니다.
+Datadog Operator로 Datadog Cluster Agent를 배포하는 경우, [Kubernetes에서 Datadog Operator 활용](#kubernetes-with-the-datadog-operator) 지침을 따르세요. 다른 업데이트는 필요하지 않습니다. Operator 구성 업데이트 지침에 따르면 Cluster Agent 및 Datadog Agent가 이미지를 가져오는 리포지토리가 업데이트됩니다.
-Datadog Cluster Agent에 대한 자세한 내용은 [Cluster Agent 문서][9] 및 [설정 문서][10]를 참조하세요.
+Datadog Cluster Agent에 대한 자세한 내용은 [Cluster Agent 문서][10] 및 [설정 문서][11]를 참조하세요.
-## Datadog Private Location 작업자를 위한 Kubernetes Helm
+## Datadog Private Location 워커용 Kubernetes Helm
-Private Location 작업자를 위한 레지스트리를 업데이트하려면 `datadog/synthetics-private-location-worker` 이미지를 `public.ecr.aws/datadog/synthetics-private-location-worker` 또는 `gcr.io/datadoghq/synthetics-private-location-worker` 이미지로 변경하세요.
+Private Location 워커의 레지스트리를 업데이트하려면 `datadog/synthetics-private-location-worker` 이미지를 `public.ecr.aws/datadog/synthetics-private-location-worker` 또는 `gcr.io/datadoghq/synthetics-private-location-worker` 이미지로 업데이트하세요.
-기본 리포지토리(`gcr.io/datadoghq`)를 변경하려면 `values.yaml`을 새 이미지로 업데이트하세요.
+기본 리포지토리(`gcr.io/datadoghq`)를 변경하려면 `values.yaml`를 새 이미지로 업데이트합니다.
```yaml
image:
repository: gcr.io/datadoghq/synthetics-private-location-worker
```
-[1]: https://docs.datadoghq.com/ko/agent/docker/?tab=standard
-[2]: https://docs.datadoghq.com/ko/agent/kubernetes/?tab=helm
-[3]: https://github.com/DataDog/helm-charts/blob/dae884481c5b3c9b67fc8dbd69c944bf3ec955e9/charts/datadog/values.yaml#L19
-[4]: https://docs.datadoghq.com/ko/agent/kubernetes/?tab=operator#deploy-an-agent-with-the-operator
-[5]: https://github.com/DataDog/helm-charts/blob/main/charts/datadog-operator/values.yaml#L28
-[6]: https://docs.datadoghq.com/ko/agent/amazon_ecs/?tab=awscli
-[7]: https://www.datadoghq.com/blog/aws-fargate-monitoring-with-datadog/#deploy-the-agent-on-ecs
-[8]: https://www.datadoghq.com/blog/aws-fargate-monitoring-with-datadog/#deploy-the-agent-on-eks
-[9]: https://docs.datadoghq.com/ko/agent/cluster_agent/
-[10]: https://docs.datadoghq.com/ko/agent/cluster_agent/setup/?tab=helm
\ No newline at end of file
+[1]: https://kubernetes.io/docs/tasks/configure-pod-container/pull-image-private-registry/#registry-secret-existing-credentials
+[2]: https://docs.datadoghq.com/ko/agent/docker/?tab=standard
+[3]: https://docs.datadoghq.com/ko/agent/kubernetes/?tab=helm
+[4]: https://github.com/DataDog/helm-charts/blob/dae884481c5b3c9b67fc8dbd69c944bf3ec955e9/charts/datadog/values.yaml#L19
+[5]: https://docs.datadoghq.com/ko/agent/kubernetes/?tab=operator#deploy-an-agent-with-the-operator
+[6]: https://github.com/DataDog/helm-charts/blob/main/charts/datadog-operator/values.yaml#L28
+[7]: https://docs.datadoghq.com/ko/agent/amazon_ecs/?tab=awscli
+[8]: https://www.datadoghq.com/blog/aws-fargate-monitoring-with-datadog/#deploy-the-agent-on-ecs
+[9]: https://www.datadoghq.com/blog/aws-fargate-monitoring-with-datadog/#deploy-the-agent-on-eks
+[10]: https://docs.datadoghq.com/ko/agent/cluster_agent/
+[11]: https://docs.datadoghq.com/ko/agent/cluster_agent/setup/?tab=helm
\ No newline at end of file
diff --git a/content/ko/integrations/zenduty.md b/content/ko/integrations/zenduty.md
new file mode 100644
index 0000000000000..107305ee0040b
--- /dev/null
+++ b/content/ko/integrations/zenduty.md
@@ -0,0 +1,149 @@
+---
+app_id: zenduty
+app_uuid: 0f2dea25-5757-477c-ad92-d459133d8b05
+assets:
+ integration:
+ auto_install: true
+ configuration: {}
+ events:
+ creates_events: false
+ metrics:
+ check: []
+ metadata_path: metadata.csv
+ prefix: zenduty.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 10305
+ source_type_name: Zenduty
+author:
+ homepage: https://www.zenduty.com
+ name: Zenduty
+ sales_email: vishwa@zenduty.com
+ support_email: shubham@zenduty.com
+categories:
+- 경고
+- 협업
+- 인시던트
+- 문제 추적
+- 알림
+custom_kind: 통합
+dependencies:
+- https://github.com/DataDog/integrations-extras/blob/master/zenduty/README.md
+display_on_public_website: true
+draft: false
+git_integration_title: zenduty
+integration_id: zenduty
+integration_title: Zenduty
+integration_version: ''
+is_public: true
+manifest_version: 2.0.0
+name: zenduty
+public_title: Zenduty
+short_description: Datadog 경고의 인시던트 대응 및 알림 파트너로 Zenduty를 사용하세요
+supported_os:
+- linux
+- windows
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Category::Alerting
+ - Category::Collaboration
+ - Category::Incidents
+ - Category::Issue Tracking
+ - Category::Notifications
+ - Offering::Integration
+ - Supported OS::Linux
+ - Supported OS::Windows
+ - Supported OS::macOS
+ configuration: README.md#Setup
+ description: Datadog 경고의 인시던트 대응 및 알림 파트너로 Zenduty를 사용하세요
+ media:
+ - caption: 상세하면서도 보기 쉬운 인시던트 대시보드
+ image_url: images/incident_dashboard.png
+ media_type: image
+ - caption: Slack 또는 Teams에서 인시던트를 직접 처리하세요
+ image_url: images/slack_controls.png
+ media_type: image
+ - caption: 경고 규칙을 정교하게 다듬어 팀의 인시던트 대응 수준을 끌어올리세요
+ image_url: images/alert_rules.png
+ media_type: image
+ - caption: 인시던트 관리 사이클 전반에 걸쳐 안정적이고 노이즈가 없는 경고 시스템
+ image_url: images/incident_timeline.png
+ media_type: image
+ - caption: 인시던트에 플레이북을 자동으로 적용하고 단계별 가이드를 받으세요
+ image_url: images/task_playbooks.png
+ media_type: image
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Zenduty
+---
+
+
+## 개요
+
+Zenduty 통합을 사용해 Datadog 경고를 적절한 팀에 전송하고, 대기 일정에 따라 알림을 전달하며, 신속하게 사고를 해결하도록 지원하세요. 이메일, Slack, Microsoft Teams, SMS, 전화 통화, Android 및 iOS 푸시 메시지를 통해 알림을 전송할 수 있습니다.
+
+Zenduty를 Datadog에 연결하면 다음과 같은 이점이 있습니다.
+- Zenduty 인시던트를 트리거하여 해결하고, 생성된 인시던트에 대한 경고를 받고, Datadog에서 문제를 추적합니다.
+- 온콜 일정, 에스컬레이션 정책, 인시던트 플레이북, 사후 분석 및 상세 분석을 배포합니다.
+- 경고 규칙을 사용해 특정 사용자 또는 팀과 관련한 Datadog 알림 라우팅을 맞춤 설정하고, 억제 규칙을 작성하며, 메모, 응답자 및 인시던트 작업을 자동으로 추가합니다.
+
+## 설정
+
+### Zenduty
+[Zenduty][1]에서 아래 단계를 따르세요.
+
+1. **Teams**로 이동한 후 통합을 추가할 팀을 클릭합니다.
+
+2. **Services**로 이동한 후 새로운 서비스를 만들거나 기존 서비스를 선택합니다.
+
+3. **Integrations**에서 **Add New Integration**으로 이동합니다. 통합에 이름을 지정하고 드롭다운 메뉴에서 **Datadog** 애플리케이션을 선택합니다.
+
+4. 해당 통합에서 **Configure**로 이동한 후 생성된 Datadog 웹훅 URL을 복사합니다.
+
+### Datadog에서 아래 단계를 따르세요.
+
+5. 사이드바에서 **Integrations**로 이동합니다. [이 페이지][2]에서 **Webhooks**를 검색하고 추가 버튼을 클릭합니다.
+
+6. 아래로 스크롤하여 Webhooks 섹션에서 **+New** 버튼을 클릭합니다. 이름과 Zenduty에서 복사한 웹훅 URL을 입력하고 다음 JSON을 페이로드 상자에 붙여넣습니다.
+```json
+{
+ "alert_id": "$ALERT_ID",
+ "hostname": "$HOSTNAME",
+ "date_posix": "$DATE_POSIX",
+ "aggreg_key": "$AGGREG_KEY",
+ "title": "$EVENT_TITLE",
+ "alert_status": "$ALERT_STATUS",
+ "alert_transition": "$ALERT_TRANSITION",
+ "link": "$LINK",
+ "event_msg": "$TEXT_ONLY_MSG"
+}
+```
+
+7. **Save**를 클릭합니다. Datadog Zenduty 통합 설정이 완료되었습니다.
+
+자세한 내용 및 통합 활용법은 [Zenduty 설명서][3]를 참조하세요.
+
+**참고**: Datadog 인시던트가 생성되거나 해결될 때 Zenduty를 통해 알림을 받으려면 Datadog 모니터 설정의 **Notify your team**에서 채널로 `@zenduty`를 멘션합니다.
+
+## 수집한 데이터
+### 메트릭
+
+Zenduty 통합은 메트릭을 포함하지 않습니다.
+
+### 이벤트
+
+트리거된 이벤트, 확인된 이벤트, 해결된 이벤트는 Zenduty 대시보드에 표시됩니다.
+
+### 서비스 점검
+
+Zenduty 통합은 서비스 점검을 포함하지 않습니다.
+
+## 트러블슈팅
+도움이 필요하신가요? [Datadog 지원팀][4]에 문의하세요.
+
+[1]: https://www.zenduty.com
+[2]: https://app.datadoghq.com/integrations/webhooks?search=webhook
+[3]: https://docs.zenduty.com/docs/datadog
+[4]: https://docs.datadoghq.com/ko/help/
\ No newline at end of file
diff --git a/content/ko/opentelemetry/integrations/collector_health_metrics.md b/content/ko/opentelemetry/integrations/collector_health_metrics.md
new file mode 100644
index 0000000000000..b69a992e646da
--- /dev/null
+++ b/content/ko/opentelemetry/integrations/collector_health_metrics.md
@@ -0,0 +1,133 @@
+---
+aliases:
+- /ko/opentelemetry/collector_exporter/collector_health_metrics
+further_reading:
+- link: /opentelemetry/collector_exporter/
+ tag: 설명서
+ text: OpenTelemetry 설정 컬렉터(Collector)
+title: 서비스 상태 메트릭
+---
+
+## 개요
+
+{{< img src="/opentelemetry/collector_exporter/collector_health_metrics.png" alt="OpenTelemetry 컬렉터 서비스 상태 메트릭 대시보드" style="width:100%;" >}}
+
+OpenTelemetry 컬렉터 자체에서 서비스 상태 메트릭을 수집하려면, Datadog 탐색기에서 [Prometheus 리시버][1]를 설정합니다.
+
+자세한 내용을 확인하려면 [Prometheus 리시버][1]용 OpenTelemetry 프로젝트 설명서를 참조하세요.
+
+## 설정
+
+컬렉터(Collector) 설정에 다음 줄을 추가합니다.
+
+```yaml
+receivers:
+ prometheus:
+ config:
+ scrape_configs:
+ - job_name: 'otelcol'
+ scrape_interval: 10s
+ static_configs:
+ - targets: ['0.0.0.0:8888']
+```
+
+## 수집한 데이터
+
+| OpenTelemetry 메트릭 | 설명 |
+|---|---|
+| `otelcol_process_uptime` | 프로세스 업타임 |
+| `otelcol_process_memory_rss` | 물리적 메모리 총량(레지던트 세트 크기) |
+| `otelcol_exporter_queue_size` | 재시도 대기열의 현재 크기(일괄 처리) |
+| `otelcol_exporter_sent_spans` | 대상에게 전송 완료된 스팬(span) 개수 |
+| `otelcol_exporter_send_failed_metric_points` | 대상에게 전송 실패한 메트릭 포인트 개수 |
+| `otelcol_exporter_send_failed_spans` | 대상에게 전송 실패한 스팬(span) 개수 |
+| `otelcol_process_cpu_seconds` | CPU 사용자 및 시스템 시간 총계(초) |
+| `otelcol_receiver_refused_spans` | 파이프라인으로 푸시할 수 없는 스팬(span)의 개수 |
+| `otelcol_exporter_queue_capacity` | 재시도 대기열의 고정 수용량(일괄 처리) |
+| `otelcol_receiver_accepted_spans` | 파이프라인으로 푸시한 스팬(span)의 개수 |
+| `otelcol_exporter_sent_metric_points` | 대상에게 전송 완료된 메트릭 포인트 개수 |
+| `otelcol_exporter_enqueue_failed_spans` | 전송 대기열에 추가 실패한 스팬(span)의 개수 |
+| `otelcol_scraper_errored_metric_points` | 스크랩에 실패한 메트릭 포인트 개수 |
+| `otelcol_scraper_scraped_metric_points` | 스크랩 완료한 메트릭 포인트 개수 |
+| `otelcol_receiver_refused_metric_points` | 파이프라인으로 푸시할 수 없는 메트릭 포인트 개수 |
+| `otelcol_receiver_accepted_metric_points` | 파이프라인으로 푸시한 메트릭 포인트 개수 |
+| `otelcol_process_runtime_heap_alloc_bytes` | 할당된 힙(heap) 오브젝트 바이트('go doc runtime.MemStats.HeapAlloc' 참조) |
+| `otelcol_process_runtime_total_alloc_bytes` | 힙 객체에 할당된 누적 바이트('go doc runtime.MemStats.TotalAlloc' 참조) |
+| `otelcol_exporter_enqueue_failed_log_records` | 전송 대기열에 추가 실패한 로그 레코드 개수 |
+| `otelcol_processor_batch_timeout_trigger_send` | 시간 초과 트리거로 인해 배치가 전송된 횟수 |
+| `otelcol_exporter_enqueue_failed_metric_points` | 전송 대기열에 추가 실패한 메트릭 포인트 개수 |
+| `otelcol_process_runtime_total_sys_memory_bytes` | OS에서 확보한 메모리 바이트 총계([ `runtime.MemStats.Sys`][3]의 Go 문서 참조) |
+| `otelcol_processor_batch_batch_size_trigger_send` | 사이즈 트리거로 인해 배치가 전송된 횟수 |
+| `otelcol_exporter_sent_log_records` | 대상에게 전송 완료된 로그 레코드 개수 |
+| `otelcol_receiver_refused_log_records` | 파이프라인으로 푸시할 수 없는 로그 레코드 개수 |
+| `otelcol_receiver_accepted_log_records` | 파이프라인으로 푸시한 로그 레코드 개수 |
+
+
+## 전체 예제 설정
+
+Datadog 내보내기를 사용한 전체 작업 예제 설정을 확인하려면 [`collector-metrics.yaml`][2]을 참조하세요.
+
+## 로깅 출력 예시
+
+```
+ResourceMetrics #0
+Resource SchemaURL: https://opentelemetry.io/schemas/1.6.1
+Resource attributes:
+ -> service.name: Str(opentelemetry-collector)
+ -> net.host.name: Str(192.168.55.78)
+ -> service.instance.id: Str(192.168.55.78:8888)
+ -> net.host.port: Str(8888)
+ -> http.scheme: Str(http)
+ -> k8s.pod.ip: Str(192.168.55.78)
+ -> cloud.provider: Str(aws)
+ -> cloud.platform: Str(aws_ec2)
+ -> cloud.region: Str(us-east-1)
+ -> cloud.account.id: Str(XXXXXXXXX)
+ -> cloud.availability_zone: Str(us-east-1c)
+ -> host.id: Str(i-0368add8e328c28f7)
+ -> host.image.id: Str(ami-08a2e6a8e82737230)
+ -> host.type: Str(m5.large)
+ -> host.name: Str(ip-192-168-53-115.ec2.internal)
+ -> os.type: Str(linux)
+ -> k8s.pod.name: Str(opentelemetry-collector-agent-gqwm8)
+ -> k8s.daemonset.name: Str(opentelemetry-collector-agent)
+ -> k8s.daemonset.uid: Str(6d6fef61-d4c7-4226-9b7b-7d6b893cb31d)
+ -> k8s.node.name: Str(ip-192-168-53-115.ec2.internal)
+ -> kube_app_name: Str(opentelemetry-collector)
+ -> kube_app_instance: Str(opentelemetry-collector)
+ -> k8s.namespace.name: Str(otel-staging)
+ -> k8s.pod.start_time: Str(2023-11-20T12:53:23Z)
+ -> k8s.pod.uid: Str(988d1bdc-5baf-4e98-942f-ab026a371daf)
+ScopeMetrics #0
+ScopeMetrics SchemaURL:
+InstrumentationScope otelcol/prometheusreceiver 0.88.0-dev
+Metric #0
+Descriptor:
+ -> Name: otelcol_otelsvc_k8s_namespace_added
+ -> Description: Number of namespace add events received
+ -> Unit:
+ -> DataType: Sum
+ -> IsMonotonic: true
+ -> AggregationTemporality: Cumulative
+NumberDataPoints #0
+Data point attributes:
+ -> service_instance_id: Str(d80d11f9-aa84-4e16-818d-3e7d868c0cfe)
+ -> service_name: Str(otelcontribcol)
+ -> service_version: Str(0.88.0-dev)
+StartTimestamp: 1970-01-01 00:00:00 +0000 UTC
+Timestamp: 2023-11-20 13:17:36.881 +0000 UTC
+Value: 194151496.000000
+Metric #9
+Descriptor:
+ -> Name: otelcol_receiver_accepted_spans
+ -> Description: Number of spans successfully pushed into the pipeline.
+ -> Unit:
+ -> DataType: Sum
+ -> IsMonotonic: true
+ -> AggregationTemporality: Cumulative
+```
+
+
+[1]: https://github.com/open-telemetry/opentelemetry-collector-contrib/tree/main/receiver/prometheusreceiver
+[2]: https://github.com/open-telemetry/opentelemetry-collector-contrib/blob/main/exporter/datadogexporter/examples/collector-metrics.yaml
+[3]: https://pkg.go.dev/runtime#MemStats.Sys
\ No newline at end of file
diff --git a/layouts/shortcodes/observability_pipelines/configure_log_archive/amazon_s3/connect_s3_to_datadog_log_archives.ja.md b/layouts/shortcodes/observability_pipelines/configure_log_archive/amazon_s3/connect_s3_to_datadog_log_archives.ja.md
new file mode 100644
index 0000000000000..eef3986a39744
--- /dev/null
+++ b/layouts/shortcodes/observability_pipelines/configure_log_archive/amazon_s3/connect_s3_to_datadog_log_archives.ja.md
@@ -0,0 +1,19 @@
+#### S3 バケットを Datadog Log Archives に接続する
+
+1. Datadog の [Log Forwarding][201] に移動します。
+1. Click **New archive**.
+1. わかりやすいアーカイブ名を入力します。
+1. ログパイプラインを通過するすべてのログをフィルタリングして、それらのログがこのアーカイブに入らないようにするクエリを追加します。例えば、クエリ `observability_pipelines_read_only_archive` を追加します。これは、パイプラインを通過するログにそのタグが追加されていないと仮定しています。
+1. **AWS S3** を選択します。
+1. バケットが存在する AWS アカウントを選択します。
+1. S3 バケットの名前を入力します。
+1. オプションでパスを入力します。
+1. 確認文をチェックします。
+1. オプションで、タグを追加し、再ハイドレートのための最大スキャンサイズを定義します。詳細については、[高度な設定][202]を参照してください。
+1. **Save** をクリックします。
+
+詳細については [Log Archives のドキュメント][203]を参照してください。
+
+[201]: https://app.datadoghq.com/logs/pipelines/log-forwarding
+[202]: /ja/logs/log_configuration/archives/?tab=awss3#advanced-settings
+[203]: /ja/logs/log_configuration/archives
\ No newline at end of file
From 6c4e44f747672d0a3a37de291ac691dbd2ad7ed0 Mon Sep 17 00:00:00 2001
From: "webops-guacbot[bot]"
<214537265+webops-guacbot[bot]@users.noreply.github.com>
Date: Fri, 8 Aug 2025 23:23:56 +0000
Subject: [PATCH 05/43] Translated file updates
---
content/fr/containers/kubernetes/log.md | 547 ++++++++++++++++++
.../fr/logs/log_configuration/pipelines.md | 62 +-
.../set_up_pipelines/archive_logs/_index.md | 48 ++
.../rapdev_cisco_class_based_qos.md | 130 +++++
.../tests/test_impact_analysis/setup/java.md | 328 +++++++++++
.../trace_collection/compatibility/php_v0.md | 179 ++++++
content/ko/dashboards/functions/smoothing.md | 10 +-
.../application-monitoring-vmware-tanzu.md | 68 +++
8 files changed, 1354 insertions(+), 18 deletions(-)
create mode 100644 content/fr/containers/kubernetes/log.md
create mode 100644 content/fr/observability_pipelines/set_up_pipelines/archive_logs/_index.md
create mode 100644 content/ja/integrations/rapdev_cisco_class_based_qos.md
create mode 100644 content/ja/tests/test_impact_analysis/setup/java.md
create mode 100644 content/ja/tracing/trace_collection/compatibility/php_v0.md
create mode 100644 content/ko/integrations/guide/application-monitoring-vmware-tanzu.md
diff --git a/content/fr/containers/kubernetes/log.md b/content/fr/containers/kubernetes/log.md
new file mode 100644
index 0000000000000..a995a3a05928b
--- /dev/null
+++ b/content/fr/containers/kubernetes/log.md
@@ -0,0 +1,547 @@
+---
+aliases:
+- /fr/agent/kubernetes/log
+further_reading:
+- link: /agent/kubernetes/apm/
+ tag: Documentation
+ text: Recueillir les traces de vos applications
+- link: /agent/kubernetes/prometheus/
+ tag: Documentation
+ text: Recueillir vos métriques Prometheus
+- link: /agent/kubernetes/integrations/
+ tag: Documentation
+ text: Recueillir automatiquement les métriques et les logs de vos applications
+- link: /agent/guide/autodiscovery-management/
+ tag: Documentation
+ text: Limiter la collecte de données à un sous-ensemble de conteneurs
+- link: /agent/kubernetes/tag/
+ tag: Documentation
+ text: Attribuer des tags à toutes les données envoyées par un conteneur
+title: Collecte de logs Kubernetes
+---
+
+Cette page explique comment collecter des logs à partir des fichiers de logs Kubernetes.
+
+Lorsque vos applications conteneurisées écrivent leurs logs dans les flux standard `stdout`/`stderr`, le runtime de conteneur et Kubernetes gèrent automatiquement ces logs. Par défaut, [Kubernetes enregistre ces flux sous forme de fichiers][13] sur le host, dans le dossier `/var/log/pods` et ses sous-dossiers, un par pod et par conteneur.
+
+L’Agent Datadog peut collecter ces fichiers de logs Kubernetes à l’aide des instructions ci-dessous. Cette méthode est bien adaptée au caractère éphémère des pods créés par Kubernetes et est plus économe en ressources que la collecte via le socket Docker. Datadog recommande cette approche pour la collecte des logs dans Kubernetes.
+
+Par ailleurs, l’Agent Datadog peut aussi collecter les logs en interrogeant l’API Docker via le socket Docker. Cela nécessite que Docker soit le runtime utilisé dans votre cluster Kubernetes. Cette méthode est plus gourmande en ressources que la collecte par fichiers. Pour l’utiliser, consultez la section [collecte des logs via le socket Docker][1]. Si vos applications conteneurisées écrivent dans des fichiers de logs internes aux conteneurs, cela complique la collecte. Consultez la section [collecte de logs à partir d’un fichier](#a-partir-d-un-fichier-log-de-conteneurfile).
+
+## Configuration
+
+### Collecte de logs
+
+Avant de commencer la collecte des logs d’application, assurez-vous que l’Agent Datadog est en cours d’exécution dans votre cluster Kubernetes.
+
+Pour configurer la collecte de logs manuellement dans le DaemonSet, consultez la section [Collecte de logs avec DaemonSet][9]. Sinon, suivez les instructions ci-dessous :
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+Mettez à jour votre manifeste `datadog-agent.yaml` comme suit :
+
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ global:
+ credentials:
+ apiKey:
+
+ features:
+ logCollection:
+ enabled: true
+ containerCollectAll: true
+```
+
+Ensuite, appliquez la nouvelle configuration :
+
+```shell
+kubectl apply -n $DD_NAMESPACE -f datadog-agent.yaml
+```
+
+Consultez l'exemple de [manifeste avec activation des logs, de l'APM et de la collecte des métriques][1] pour plus d'informations. Vous pouvez définir `features.logCollection.containerCollectAll` sur `true` pour collecter les logs de tous les conteneurs détectés par défaut. Lorsque cette valeur est définie sur `false` (valeur par défaut), vous devez spécifier des configurations de collecte de logs avec Autodiscovery pour activer la collecte. Pour en savoir plus, consultez la section [Détection des logs - Filtrage](#filtrage).
+
+[1]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-with-logs-apm.yaml
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+Pour activer la collecte de logs avec Helm, mettez à jour votre fichier [datadog-values.yaml][1] avec la configuration suivante pour la collecte de logs. Ensuite, mettez à jour votre chart Helm Datadog :
+
+```yaml
+datadog:
+ logs:
+ enabled: true
+ containerCollectAll: true
+```
+
+Vous pouvez définir `datadog.logs.containerCollectAll` sur `true` pour collecter les logs de tous les conteneurs détectés par défaut. Lorsque cette valeur est définie sur `false` (valeur par défaut), vous devez spécifier des configurations de collecte de logs avec Autodiscovery pour activer la collecte. Pour en savoir plus, consultez [Détection des logs - Filtrage](#filtrage).
+
+[1]: https://github.com/DataDog/helm-charts/blob/master/charts/datadog/values.yaml
+{{% /tab %}}
+{{< /tabs >}}
+
+### Sans privilèges
+
+{{< tabs >}}
+{{% tab "Datadog Operator" %}}
+(Facultatif) Pour exécuter une installation sans privilèges, ajoutez le bloc suivant à la [ressource personnalisée DatadogAgent][1] :
+
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ global:
+ credentials:
+ apiKey:
+
+ features:
+ logCollection:
+ enabled: true
+ containerCollectAll: true
+
+ override:
+ nodeAgent:
+ securityContext:
+ runAsUser:
+ supplementalGroups:
+ -
+```
+
+- Remplacez par l'identifiant utilisateur (UID) qui exécutera l'Agent.
+- Remplacez par l'identifiant du groupe possédant le socket Docker ou containerd.
+
+[1]: https://github.com/DataDog/datadog-operator/blob/main/docs/configuration.v2alpha1.md#override
+{{% /tab %}}
+{{% tab "Helm" %}}
+
+(Facultatif) Pour exécuter une installation sans privilèges, ajoutez le bloc suivant au fichier `values.yaml` :
+
+```yaml
+datadog:
+ securityContext:
+ runAsUser:
+ supplementalGroups:
+ -
+```
+
+- Remplacez par l'identifiant utilisateur (UID) qui exécutera l'Agent.
+- Remplacez par l'identifiant du groupe possédant le socket Docker ou containerd.
+
+{{% /tab %}}
+{{< /tabs >}}
+
+
+Avertissement pour les installations non privilégiées
+
+Lors d’une installation non privilégiée, l’Agent doit pouvoir lire les fichiers de logs dans /var/log/pods
.
+
+Si vous utilisez le runtime containerd, les fichiers dans /var/log/pods
sont lisibles par les membres du groupe root
. Avec la configuration ci-dessus, l’Agent s’exécute avec le groupe root
. Aucune action supplémentaire n’est nécessaire.
+
+Si vous utilisez le runtime Docker, les fichiers de /var/log/pods
sont des liens symboliques vers /var/lib/docker/containers
, qui n’est accessible qu’à l’utilisateur root
. Par conséquent, avec Docker, un Agent non root
ne peut pas lire les logs de /var/log/pods
. Le socket Docker doit être monté dans le conteneur de l’Agent pour lui permettre d’accéder aux logs via le démon Docker.
+
+Pour collecter les logs de /var/log/pods
lorsque le socket Docker est monté, définissez la variable d’environnement DD_LOGS_CONFIG_K8S_CONTAINER_USE_FILE
(ou logs_config.k8s_container_use_file
dans datadog.yaml
) sur true
. Cela force l’Agent à utiliser le mode de collecte basé sur les fichiers.
+
+
+## Détection de logs
+
+L'Agent Datadog dans Kubernetes est déployé via un DaemonSet (géré par le Datadog Operator ou par Helm). Ce DaemonSet déploie une réplique du pod Agent sur chaque nœud du cluster. Chaque pod Agent est alors responsable de la remontée des logs des autres pods et conteneurs présents sur son nœud. Lorsque la fonctionnalité « Container Collect All » est activée, l’Agent remonte les logs de chaque conteneur détecté avec un ensemble par défaut de tags.
+
+### Filtrage
+
+Lorsque « Container Collect All » est activé, vous pouvez configurer les conteneurs dont vous souhaitez collecter les logs. Cela peut être utile si vous souhaitez éviter, par exemple, de collecter les logs de l’Agent Datadog. Vous pouvez procéder en transmettant une configuration à l’Agent pour contrôler ce qu’il collecte, ou en configurant les pods Kubernetes afin d’exclure explicitement certains logs.
+
+Lorsque vous filtrez des logs à l’aide de méthodes comme `DD_CONTAINER_EXCLUDE_LOGS` ou `ad.datadoghq.com/logs_exclude`, l’Agent ignore la collecte des logs, même si une configuration explicite est définie via les [annotations Autodiscovery][19] ou les [fichiers de configuration Autodiscovery][20].
+
+Lorsque « Container Collect All » est désactivé (valeur par défaut), aucun filtrage n’est nécessaire car tout est exclu par défaut. Pour collecter uniquement certains pods, vous pouvez activer la configuration de collecte via les [annotations Autodiscovery][19] ou les [fichiers de configuration Autodiscovery][20] pour les pods concernés.
+
+Consultez la section [Gestion de la détection des conteneurs][8] (en anglais) pour en savoir plus sur le filtrage.
+
+### Tags
+
+L’Agent Datadog ajoute aux logs des conteneurs Kubernetes les tags Kubernetes par défaut ainsi que tous les tags personnalisés extraits. Lorsque « Container Collect All » est activé, les logs d’un conteneur sont remontés avec des tags `source` et `service` correspondant au nom court de l’image du conteneur. Par exemple, les logs d’un conteneur utilisant l’image `gcr.io/owner/example-image:latest` auront la valeur `example-image` pour les tags `source`, `service` et `short_image`.
+
+Le tag `service` peut également être défini à l’aide du label Pod [Unified Service Tagging][4] `tags.datadoghq.com/service: ""`. Pour en savoir plus sur les attributs `source` et `service`, consultez la page [Attributs réservés][11].
+
+Le tag `source` peut être important pour vos logs, car les [pipelines de logs préconfigurés][15] sont filtrés en fonction de ce tag. Ces pipelines peuvent cependant être personnalisés selon vos besoins. Vous trouverez plus de détails sur la personnalisation des tags dans vos logs dans la section [Logs d’intégration](#logs-d-integration) ci-dessous.
+
+## Logs d'intégration
+
+[Autodiscovery][10] vous permet d’utiliser des modèles pour configurer la collecte des logs (et d’autres fonctionnalités) sur les conteneurs. Cela permet d’activer la collecte, de personnaliser les tags et de définir des règles avancées. Pour configurer la collecte pour une intégration avec Autodiscovery, vous pouvez :
+
+- Définir une configuration de log dans les annotations Autodiscovery d’un pod donné, pour configurer les règles pour un conteneur spécifique *(Recommandé)*
+- Définir une configuration de log dans un fichier de configuration, pour appliquer les règles à chaque conteneur correspondant à une image
+
+Ces configurations doivent au minimum spécifier les tags `source` et `service`. Il est recommandé d’associer le tag `source` à l’un des [pipelines de logs préconfigurés Datadog][15] afin d’enrichir automatiquement vos logs. Vous pouvez également consulter une [bibliothèque de pipelines dans Datadog][16].
+
+### Annotations Autodiscovery
+
+Avec Autodiscovery, l’Agent recherche automatiquement les modèles d’intégration dans les annotations des pods.
+
+Pour appliquer une configuration spécifique à un conteneur, ajoutez l’annotation `ad.datadoghq.com/.logs` à votre pod avec une configuration de log au format JSON.
+
+**Remarque** : les annotations Autodiscovery identifient les conteneurs par leur nom, **et non** par leur image. Elles tentent de faire correspondre `` à `.spec.containers[i].name`, et non à `.spec.containers[i].image`.
+
+
+Si vous définissez vos pods Kubernetes directement (avec kind:Pod
), ajoutez les annotations de chaque Pod dans la section metadata
, comme montré dans la section suivante.
+
+Si vous définissez vos pods Kubernetes indirectement (à l’aide de contrôleurs de réplication, de ReplicaSets ou de déploiements), ajoutez les annotations de pod au modèle de pod sous .spec.template.metadata
.
+
+#### Configurer un seul conteneur
+Pour configurer la collecte des logs pour un conteneur donné dans un pod, ajoutez les annotations suivantes à votre pod :
+
+```yaml
+apiVersion: v1
+kind: Pod
+# (...)
+metadata:
+ name: ''
+ annotations:
+ ad.datadoghq.com/.logs: '[]'
+ # (...)
+spec:
+ containers:
+ - name: ''
+# (...)
+```
+
+#### Exemple d’annotations Autodiscovery pour les logs
+
+L'annotation de pod suivante définit le modèle d'intégration pour un exemple de conteneur. Elle est définie dans les annotations du modèle de pod, et non sur le déploiement lui-même. Cette configuration de logs applique aux logs du conteneur `app` les tags `source:java`, `service:example-app` et un tag supplémentaire `foo:bar`.
+
+```yaml
+apiVersion: apps/v1
+kind: Deployment
+metadata:
+ name: example
+ labels:
+ app: example-app
+spec:
+ selector:
+ matchLabels:
+ app: example-app
+ template:
+ metadata:
+ labels:
+ app: example-app
+ annotations:
+ ad.datadoghq.com/app.logs: '[{"source":"java", "service":"example-app", "tags":["foo:bar"]}]'
+ spec:
+ containers:
+ - name: app
+ image: owner/example-image:latest
+```
+
+#### Configurer deux conteneurs différents
+Pour appliquer deux modèles d'intégration différents à deux conteneurs différents dans votre pod, `` et ``, ajoutez les annotations suivantes à votre pod :
+
+```yaml
+apiVersion: v1
+kind: Pod
+# (...)
+metadata:
+ name: ''
+ annotations:
+ ad.datadoghq.com/.logs: '[]'
+ # (...)
+ ad.datadoghq.com/.logs: '[]'
+spec:
+ containers:
+ - name: ''
+ # (...)
+ - name: ''
+# (...)
+```
+
+### Fichiers de configuration Autodiscovery
+Vous pouvez fournir à l'Agent Datadog des fichiers de configuration afin qu'il exécute une intégration donnée lorsqu'il découvre un conteneur correspondant à un identifiant d'image. Cela vous permet de créer une configuration de logs générique qui s'applique à un ensemble d'images de conteneurs.
+
+{{< tabs >}}
+{{% tab "Datadog Operator" %}}
+Vous pouvez personnaliser la collecte des logs par intégration à l'aide d'un override dans `override.nodeAgent.extraConfd.configDataMap`. Cette méthode crée le ConfigMap et monte le fichier de configuration souhaité dans le conteneur de l'Agent.
+
+```yaml
+apiVersion: datadoghq.com/v2alpha1
+kind: DatadogAgent
+metadata:
+ name: datadog
+spec:
+ #(...)
+ override:
+ nodeAgent:
+ extraConfd:
+ configDataMap:
+ .yaml: |-
+ ad_identifiers:
+ -
+
+ logs:
+ - source: example-source
+ service: example-service
+```
+
+Le champ `` doit correspondre au nom court de l'image de conteneur auquel cette configuration doit s'appliquer. Consultez le manifeste d'exemple [avec mappage ConfigMap][1] pour un exemple supplémentaire.
+
+[1]: https://github.com/DataDog/datadog-operator/blob/main/examples/datadogagent/datadog-agent-with-extraconfd.yaml
+{{% /tab %}}
+
+{{% tab "Helm" %}}
+Vous pouvez personnaliser la collecte des logs par intégration dans `datadog.confd`. Cette méthode crée le ConfigMap et monte le fichier de configuration souhaité dans le conteneur de l'Agent.
+
+```yaml
+datadog:
+ #(...)
+ confd:
+ .yaml: |-
+ ad_identifiers:
+ -
+
+ logs:
+ - source: example-source
+ service: example-service
+```
+
+Le champ `` doit correspondre au nom court de l'image de conteneur auquel cette configuration doit s'appliquer.
+
+{{% /tab %}}
+
+{{% tab "Key-value store" %}}
+Les commandes etcd suivantes créent un modèle d'intégration Redis avec un paramètre `password` personnalisé, et appliquent les bons attributs `source` et `service` aux logs :
+
+```conf
+etcdctl mkdir /datadog/check_configs/redis
+etcdctl set /datadog/check_configs/redis/logs '[{"source": "redis", "service": "redis", "tags": ["env:prod"]}]'
+```
+
+Notez que chacune des trois valeurs est une liste. Autodiscovery assemble les éléments de liste en fonction des index de liste partagée de manière à générer la configuration de l'intégration. Dans le cas présent, il assemble la première (et unique) configuration de check à partir de `check_names[0]`, `init_configs[0]` et `instances[0]`.
+
+Contrairement aux fichiers de configuration automatique, **les stockages key/value peuvent utiliser la version courte OU la version longue du nom d'image comme identificateur de conteneur**. Exemple : `redis` OU `redis:latest`.
+
+Autodiscovery peut utiliser [Consul][1], Etcd et Zookeeper comme sources de modèles d'intégration.
+
+Pour utiliser un key-value store, configurez-le dans le fichier `datadog.yaml` de l'Agent et montez ce fichier dans le conteneur de l'Agent. Vous pouvez aussi passer votre key-value store via des variables d'environnement dans le conteneur de l'Agent.
+
+#### Dans `datadog.yaml`
+
+Dans le fichier `datadog.yaml`, définissez l'adresse `` et le `` de votre stockage clé-valeur :
+
+ ```yaml
+ config_providers:
+ - name: etcd
+ polling: true
+ template_dir: /datadog/check_configs
+ template_url: ':'
+ username:
+ password:
+
+ - name: consul
+ polling: true
+ template_dir: datadog/check_configs
+ template_url: ':'
+ ca_file:
+ ca_path:
+ cert_file:
+ key_file:
+ username:
+ password:
+ token:
+
+ - name: zookeeper
+ polling: true
+ template_dir: /datadog/check_configs
+ template_url: ':'
+ username:
+ password:
+ ```
+
+[Redémarrez ensuite l'Agent][2] pour prendre en compte le changement de configuration.
+
+#### Dans les variables d'environnement
+
+Lorsque le stockage clé-valeur est activé en tant que source de modèle, l'Agent recherche des modèles à partir de la clé `/datadog/check_configs`. Autodiscovery s'attend à une hiérarchie clé-valeur comme suit :
+
+```yaml
+/datadog/
+ check_configs/
+ /
+ - logs: [""]
+ ...
+```
+
+**Remarque** : pour appliquer une configuration spécifique à un conteneur donné, Autodiscovery identifie les conteneurs par **image** en cas d'utilisation de stockages clé-valeur. En d'autres termes, il cherche à faire correspondre `` à `.spec.containers[0].image`.
+
+[1]: /fr/integrations/consul/
+[2]: /fr/agent/configuration/agent-commands/
+{{% /tab %}}
+{{< /tabs >}}
+
+## Collecte de logs avancée
+
+Utilisez des étiquettes de log Autodiscovery afin d'appliquer une logique de traitement avancée pour la collecte de logs. Par exemple :
+
+* [Filtrer les logs avant de les envoyer à Datadog][5].
+* [Nettoyer les données sensibles de vos logs][6].
+* [Effectuer une agrégation multiligne][7].
+
+### Depuis un fichier de logs local au conteneur
+
+Datadog recommande d'utiliser les flux de sortie `stdout` et `stderr` pour les applications conteneurisées afin de configurer automatiquement la collecte des logs.
+
+Cependant, l'Agent peut également collecter directement des logs à partir d'un fichier à l'aide d'une annotation. Pour collecter ces logs, utilisez `ad.datadoghq.com/.logs` avec une configuration `type: file` et `path`. Les logs collectés à partir de fichiers avec une telle annotation sont automatiquement étiquetés avec le même ensemble de tags que ceux provenant du conteneur lui-même. Datadog recommande d'utiliser les flux de sortie `stdout` et `stderr` pour les applications conteneurisées, afin de configurer automatiquement la collecte des logs. Pour plus d'informations, consultez les [configurations recommandées](#configurations-recommandees).
+
+Ces chemins de fichiers sont **relatifs** au conteneur de l'Agent. Le répertoire contenant le fichier de logs doit donc être monté à la fois dans le conteneur applicatif et dans le conteneur de l'Agent afin que celui-ci puisse y accéder.
+
+Par exemple, vous pouvez utiliser un volume partagé `hostPath`. Le pod ci-dessous émet des logs dans le fichier `/var/log/example/app.log`, situé dans le répertoire `/var/log/example`, configuré à l'aide d'un volume et d'un volumeMount de type `hostPath`.
+
+```yaml
+apiVersion: v1
+kind: Pod
+metadata:
+ name: logger
+ annotations:
+ ad.datadoghq.com/busybox.logs: |
+ [{
+ "type": "file",
+ "path": "/var/log/example/app.log",
+ "source": "example-source",
+ "service": "example-service"
+ }]
+spec:
+ containers:
+ - name: busybox
+ image: busybox
+ command: [ "/bin/sh", "-c", "--" ]
+ args: [ "while true; do sleep 1; echo `date` example file log >> /var/log/example/app.log; done;" ]
+ volumeMounts:
+ - name: applogs
+ mountPath: /var/log/example
+ volumes:
+ - name: applogs
+ hostPath:
+ path: /var/log/example
+```
+
+Le même volume et le même chemin `volumeMount` doivent être définis dans le conteneur de l'Agent pour qu'il puisse lire ce fichier de log.
+
+```yaml
+ containers:
+ - name: agent
+ # (...)
+ volumeMounts:
+ - mountPath: /var/log/example
+ name: applogs
+ # (...)
+ volumes:
+ - name: applogs
+ hostPath:
+ path: /var/log/example
+ # (...)
+```
+#### Configurations recommandées
+- Cette stratégie peut fonctionner pour un pod donné, mais elle peut devenir contraignante lorsqu'elle est utilisée par plusieurs applications. Vous pouvez également rencontrer des problèmes si plusieurs réplicas utilisent le même chemin de log. Si possible, Datadog recommande de tirer parti de la [variable de modèle Autodiscovery][17] `%%kube_pod_name%%`. Par exemple, vous pouvez définir le champ `path` en utilisant cette variable : `"path": "/var/log/example/%%kube_pod_name%%/app.log"`. Le pod de votre application doit alors également écrire ses fichiers de log en respectant ce nouveau chemin. Vous pouvez utiliser l'[API Downward][18] pour aider votre application à déterminer son nom de pod.
+
+- Lorsque vous utilisez ce type d'annotation avec un conteneur, les logs `stdout` et `stderr` ne sont pas automatiquement collectés depuis ce conteneur. Si vous avez besoin de collecter à la fois les flux de sortie du conteneur et les fichiers, vous devez l'activer explicitement dans l'annotation. Par exemple :
+ ```yaml
+ ad.datadoghq.com/.logs: |
+ [
+ {"type":"file","path":"/var/log/example/app.log","source":"file","service":"example-service"},
+ {"source":"container","service":"example-service"}
+ ]
+ ```
+
+- Lorsque vous utilisez ce type de combinaison, les paramètres `source` et `service` ne présentent aucune valeur par défaut pour les logs recueillis depuis un fichier. Ils doivent être définis explicitement dans l'annotation.
+
+## Dépannage
+
+#### Conteneurs de courte durée
+
+Par défaut, l'Agent recherche de nouveaux conteneurs toutes les 5 secondes.
+
+Si vous utilisez l'Agent v6.12+, les logs de conteneurs de courte durée (en raison d'une interruption ou d'un crash) sont automatiquement recueillis à partir des fichiers Kubernetes (via `/var/log/pods`). Les logs des conteneurs d'initialisation sont eux aussi recueillis.
+
+#### Tags manquants sur les nouveaux conteneurs ou pods
+
+Lors de l'envoi de logs vers Datadog depuis des conteneurs ou des pods nouvellement créés, le tagger interne de l'Agent Datadog peut ne pas encore avoir les tags associés au conteneur ou au pod. Par conséquent, ces logs peuvent manquer de certains tags.
+
+Pour résoudre ce problème, vous pouvez utiliser la variable d'environnement `DD_LOGS_CONFIG_TAGGER_WARMUP_DURATION` pour configurer une durée (en secondes) pendant laquelle l'Agent Datadog attend avant de commencer à envoyer les logs provenant de conteneurs et de pods nouvellement créés. La valeur par défaut est `0`.
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+
+```yaml
+spec:
+ override:
+ nodeAgent:
+ env:
+ - name: DD_LOGS_CONFIG_TAGGER_WARMUP_DURATION
+ value: "5"
+```
+{{% /tab %}}
+{{% tab "Helm" %}}
+```yaml
+datadog:
+ env:
+ - name: DD_LOGS_CONFIG_TAGGER_WARMUP_DURATION
+ value: "5"
+```
+{{% /tab %}}
+{{< /tabs >}}
+
+#### Tags manquants au niveau du host sur de nouveaux hosts ou nœuds
+
+Les tags au niveau du host sont ceux visibles dans la liste d'infrastructure pour un host donné, et proviennent soit du fournisseur cloud, soit de l'Agent Datadog. Les tags de host courants incluent `kube_cluster_name`, `region`, `instance-type` et `autoscaling-group`.
+
+Lors de l'envoi de logs vers Datadog depuis un host ou un nœud nouvellement créé, il peut s'écouler quelques minutes avant que les tags de host ne soient [hérités][12]. Par conséquent, ces logs peuvent manquer de tags au niveau du host.
+
+Pour résoudre ce problème, vous pouvez utiliser la variable d'environnement `DD_LOGS_CONFIG_EXPECTED_TAGS_DURATION` pour configurer une durée (en minutes). Pendant cette durée, l'Agent Datadog ajoute manuellement les tags de host qu'il connaît à chaque log envoyé. Après cette période, l'Agent revient à l'utilisation de l'héritage des tags à l'ingestion.
+
+{{< tabs >}}
+{{% tab "Operator Datadog" %}}
+```yaml
+spec :
+ override :
+ nodeAgent:
+ env :
+ - name : DD_LOGS_CONFIG_EXPECTED_TAGS_DURATION
+ value : "10m"
+```
+{{% /tab %}}
+{{% tab "Helm" %}}
+```yaml
+datadog :
+ env :
+ - name : DD_LOGS_CONFIG_EXPECTED_TAGS_DURATION
+ value : "10m"
+```
+{{% /tab %}}
+{{< /tabs >}}
+
+## Pour aller plus loin
+
+{{< partial name="whats-next/whats-next.html" >}}
+
+[1]: /fr/agent/faq/log-collection-with-docker-socket/
+[2]: /fr/agent/kubernetes/
+[3]: /fr/integrations/#cat-autodiscovery
+[4]: /fr/getting_started/tagging/unified_service_tagging/?tab=kubernetes
+[5]: /fr/agent/logs/advanced_log_collection/?tab=kubernetes#filter-logs
+[6]: /fr/agent/logs/advanced_log_collection/?tab=kubernetes#scrub-sensitive-data-from-your-logs
+[7]: /fr/agent/logs/advanced_log_collection/?tab=kubernetes#multi-line-aggregation
+[8]: /fr/agent/guide/autodiscovery-management/
+[9]: /fr/containers/guide/kubernetes_daemonset/#log-collection
+[10]: /fr/getting_started/containers/autodiscovery
+[11]: /fr/logs/log_configuration/attributes_naming_convention/
+[12]: /fr/getting_started/tagging/assigning_tags/#integration-inheritance
+[13]: https://kubernetes.io/docs/concepts/cluster-administration/logging/#log-location-node
+[14]: /fr/containers/kubernetes/tag
+[15]: /fr/logs/log_configuration/pipelines/?tab=source#integration-pipelines
+[16]: https://app.datadoghq.com/logs/pipelines/pipeline/library
+[17]: /fr/containers/guide/template_variables/
+[18]: https://kubernetes.io/docs/tasks/inject-data-application/environment-variable-expose-pod-information/
+[19]: /fr/containers/kubernetes/log/?tab=helm#autodiscovery-annotations
+[20]: /fr/containers/kubernetes/log/?tab=helm#autodiscovery-configuration-files
\ No newline at end of file
diff --git a/content/fr/logs/log_configuration/pipelines.md b/content/fr/logs/log_configuration/pipelines.md
index b5b86d1a1e087..35fe46ad10b0c 100644
--- a/content/fr/logs/log_configuration/pipelines.md
+++ b/content/fr/logs/log_configuration/pipelines.md
@@ -12,15 +12,30 @@ further_reading:
- link: /logs/explorer/
tag: Documentation
text: Apprendre à explorer vos logs
+- link: /logs/troubleshooting/
+ tag: Documentation
+ text: Dépannage des logs
- link: https://learn.datadoghq.com/courses/going-deeper-with-logs-processing
tag: Centre d'apprentissage
text: Des analyses plus poussées grâce au traitement des logs
+- link: https://www.datadoghq.com/blog/monitor-cloudflare-zero-trust/
+ tag: Blog
+ text: Surveiller Cloudflare Zero Trust avec la solution Cloud SIEM de Datadog
+- link: https://www.datadoghq.com/blog/monitor-1password-datadog-cloud-siem/
+ tag: Blog
+ text: Surveiller 1Password avec la solution Cloud SIEM de Datadog
+- link: https://www.datadoghq.com/blog/ocsf-common-data-model/
+ tag: Blog
+ text: Normalisez vos données avec le modèle de données commun OCSF dans Datadog
+ Cloud SIEM
title: Pipelines
---
-## Présentation
+## Section Overview
+
+Les pipelines et processeurs décrits dans cette documentation sont spécifiques aux environnements de log cloud. Pour agréger, traiter et router des logs sur site, consultez la page
Observability Pipelines.
-Datadog [parse][1] automatiquement les logs JSON. Lorsque les logs ne sont pas au format JSON, vous pouvez enrichir leurs données brutes en les faisant passer par un pipeline de traitement. Les pipelines traitent la grande majorité des formats de logs et les convertissent en un format commun dans Datadog. La mise en œuvre de pipelines de logs et d'une stratégie de traitement vous permet également de bénéficier d'une [convention de nommage des attributs][2] à l'échelle de votre organisation.
+Datadog analyse automatiquement les logs au format JSON à l'aide du [parsing][1]. Vous pouvez ensuite enrichir tous vos logs (bruts et JSON) en les envoyant dans un pipeline de traitement. Les pipelines prennent en charge des logs de formats variés et les traduisent dans un format commun au sein de Datadog. Mettre en place une stratégie de pipelines et de traitement des logs est avantageux, car cela introduit une [convention de nommage des attributs][2] pour votre organisation.
Avec les pipelines, les logs sont assemblés de façon séquentielle via des [processeurs][3] afin d'être parsés et enrichis. Cette étape permet d'extraire des informations ou des attributs utiles à partir de texte semi-structuré, afin de les réutiliser sous la forme de [facettes][4]. Lorsqu'un log passe par les pipelines, tous les filtres de pipeline lui sont appliqués. S'il répond aux critères d'un filtre, tous les processeurs associés lui sont appliqués de façon séquentielle. Il passe ensuite au prochain pipeline.
@@ -114,7 +129,7 @@ Chaque entrée de log peut spécifier un niveau de statut. Celui-ci peut est dis
* `level`
* `syslog.severity`
-Pour remapper un statut existant dans l'attribut `status`, utilisez le [remappeur de statuts de log][1].
+Vous pouvez préciser des attributs alternatifs à utiliser comme source pour le statut d'un log en définissant un [processeur de remappage de statut de log][1].
[1]: /fr/logs/log_configuration/processors/#log-status-remapper
{{% /tab %}}
@@ -147,6 +162,19 @@ Vous pouvez préciser des attributs alternatifs à utiliser comme source pour l'
[1]: /fr/tracing/other_telemetry/connect_logs_and_traces/
[2]: /fr/logs/log_configuration/processors/#trace-remapper
{{% /tab %}}
+
+{{% tab "Span ID" %}}
+
+#### Attribut Span ID
+
+Par défaut, les traceurs Datadog peuvent [injecter automatiquement les IDs de span dans vos logs][1]. Cependant, si un log au format JSON contient les attributs suivants, Datadog interprète leur valeur comme `span_id` du log :
+
+* `dd.span_id`
+* `contextMap.dd.span_id`
+
+[1]: /fr/tracing/other_telemetry/connect_logs_and_traces/
+{{% /tab %}}
+
{{< /tabs >}}
## Créer un pipeline
@@ -158,9 +186,9 @@ Vous pouvez préciser des attributs alternatifs à utiliser comme source pour l'
**Remarque** : les filtres de pipeline sont appliqués avant tout traitement par les processeurs du pipeline. Par conséquent, vous ne pouvez pas appliquer un filtre basé sur un attribut qui est extrait dans le pipeline.
4. Donnez un nom à votre pipeline.
-5. (Facultatif) Accordez un accès en modification aux processeurs dans le pipeline.
-6. (Facultatif) Ajoutez des tags et une description au pipeline. La description peut être utilisée pour indiquer l'objectif du pipeline et l'équipe qui en est propriétaire.
-7. Sélectionnez **Save**.
+5. (Facultatif) Accorder un accès d'édition aux processeurs dans le pipeline. Si vous assignez un rôle à un pipeline, ce rôle reçoit les [autorisations][12] `logs_write_processor` spécifiquement limitées à ce pipeline. Les rôles disposant des autorisations `logs_write_processor` assignées globalement (via la modification du rôle) ne peuvent pas être sélectionnés, car ils ont accès à tous les pipelines.
+6. (Facultatif) Ajoutez une description et des tags au pipeline pour indiquer son objectif et sa responsabilité. Les tags de pipeline n'affectent pas les logs, mais peuvent être utilisés pour filtrer et effectuer des recherches dans la [page Pipelines][5].
+7. Sélectionnez **Create**.
Voici un exemple de log converti par un pipeline :
@@ -172,16 +200,18 @@ Voici un exemple de log converti par un pipeline :
Consultez la liste des intégrations prises en charge disponibles.
-Les pipelines de traitement d'intégration sont disponibles pour certaines sources lorsqu'elles sont configurées pour recueillir les logs. Ces pipelines disposent d'un accès en **lecture seule** et effectuent le parsing de vos logs en tenant compte de la source en question. Un pipeline d'intégration est automatiquement installé pour les logs d'intégration, afin de prendre en charge leur parsing et d'ajouter la facette correspondante dans Log Explorer.
+Les pipelines de traitement d'intégration sont disponibles pour certaines sources lorsqu'elles sont configurées pour recueillir les logs. Ces pipelines disposent d'un accès en **lecture seule** et effectuent le parsing de vos logs en tenant compte de la source en question. Un pipeline d'intégration est automatiquement installé pour les logs d'intégration, afin de prendre en charge leur parsing et d'ajouter la facette correspondante dans votre Log Explorer.
Pour afficher un pipeline d'intégration, accédez à la page [Pipelines][5]. Pour modifier un pipeline d'intégration, clonez-le, puis modifiez le doublon :
-{{< img src="logs/processing/pipelines/cloning_pipeline.png" alt="cloner un pipeline" style="width:80%;">}}
+{{< img src="logs/processing/pipelines/cloning_pipeline.png" alt="Clonage d'un pipeline" style="width:80%;">}}
Consultez l'exemple de logs ELB ci-dessous :
{{< img src="logs/processing/elb_log_post_processing.png" alt="Post traitement de logs ELB" style="width:70%;">}}
+**Remarque** : les pipelines d'intégration ne peuvent pas être supprimés, seulement désactivés.
+
### Bibliothèque de pipelines d'intégration
Pour afficher la liste complète des pipelines d'intégration proposés par Datadog, consultez la [bibliothèque de pipelines d'intégration][7]. Cette bibliothèque indique également comment Datadog traite les différents formats de log par défaut.
@@ -202,7 +232,9 @@ Il est également possible de copier un pipeline d'intégration à l'aide du bou
### Processeurs
-Un processeur s'exécute dans un pipeline afin d'effectuer une action de structuration de données. Consultez la [documentation relative aux processeurs][3] pour découvrir comment ajouter et configurer chaque type de processeur, que ce soit dans l'application ou avec l'API.
+Un processeur s'exécute dans un pipeline afin d'effectuer une action de structuration de données. Consultez la [documentation relative aux processeurs][3] pour découvrir comment ajouter et configurer chaque type de processeur, que ce soit dans l'application ou avec l'API.
+
+Consultez la page [Parsing des dates][10] pour en savoir plus sur le parsing d'un format de date et d'heure personnalisé et sur le paramètre `timezone`, requis si vos horodatages ne sont pas en UTC.
### Pipelines imbriqués
@@ -212,9 +244,11 @@ Un pipeline peut inclure des pipelines imbriqués et des processeurs, tandis qu'
{{< img src="logs/processing/pipelines/nested_pipeline.png" alt="Pipelines imbriqués" style="width:80%;">}}
-Il est possible de déplacer un pipeline vers un autre pipeline pour le transformer en pipeline imbriqué :
+Déplacez un pipeline dans un autre pipeline pour le transformer en pipeline imbriqué :
-{{< img src="logs/processing/pipelines/move_to_pipeline.mp4" alt="Faire glisser et déposer des pipelines imbriqués" video="true" width="80%" >}}
+1. Survolez le pipeline que vous souhaitez déplacer, puis cliquez sur l'icône **Déplacer vers**.
+1. Sélectionnez le pipeline dans lequel vous souhaitez intégrer le pipeline d'origine. **Remarque** : les pipelines contenant des pipelines imbriqués ne peuvent être déplacés que vers une position de niveau supérieur. Ils ne peuvent pas être déplacés dans un autre pipeline.
+1. Cliquez sur **Move**.
## Gérer vos pipelines
@@ -228,7 +262,7 @@ Réorganisez vos pipelines avec précision à l'aide de l'option `Move to` dans
## Métriques d'estimation d'utilisation
-Les métriques d'estimation d'utilisation fournissent des données propres à un pipeline. Elles indiquent le volume et le nombre de logs ingérés et modifiés par chaque pipeline. Vous disposez également d'un lien vers le [dashboard d'estimation de l'utilisation des logs][10] prêt à l'emploi pour chaque pipeline. Ce dashboard présente les métriques d'utilisation d'un pipeline à l'aide de graphiques détaillés.
+Des métriques d'utilisation estimées sont affichées par pipeline, notamment le volume et le nombre de logs ingérés et modifiés par chaque pipeline. Un lien vers le [tableau de bord d'estimation de l'utilisation des logs][11] prêt à l'emploi est également disponible dans chaque pipeline, vous permettant de consulter ses métriques d'utilisation sous forme de graphiques détaillés.
{{< img src="logs/processing/pipelines/log_pipeline_statistics.png" alt="Comment consulter une vue d'ensemble des métriques d'utilisation de vos pipelines" style="width:50%;">}}
@@ -248,4 +282,6 @@ Les métriques d'estimation d'utilisation fournissent des données propres à un
[7]: https://app.datadoghq.com/logs/pipelines/pipeline/library
[8]: https://app.datadoghq.com/logs/pipelines/remapping
[9]: /fr/integrations/#cat-log-collection
-[10]: https://app.datadoghq.com/dash/integration/logs_estimated_usage
\ No newline at end of file
+[10]: /fr/logs/log_configuration/parsing/?tab=matchers#parsing-dates
+[11]: https://app.datadoghq.com/dash/integration/logs_estimated_usage
+[12]: /fr/account_management/rbac/permissions/?tab=ui#log-management
\ No newline at end of file
diff --git a/content/fr/observability_pipelines/set_up_pipelines/archive_logs/_index.md b/content/fr/observability_pipelines/set_up_pipelines/archive_logs/_index.md
new file mode 100644
index 0000000000000..ffa9ce95061ef
--- /dev/null
+++ b/content/fr/observability_pipelines/set_up_pipelines/archive_logs/_index.md
@@ -0,0 +1,48 @@
+---
+aliases:
+- /fr/observability_pipelines/archive_logs/
+disable_toc: false
+title: Archiver les logs dans les archives Datadog
+---
+
+## Présentation
+
+Utilisez Observability Pipelines pour router les logs ingérés vers une solution de stockage cloud (Amazon S3, Google Cloud Storage ou Azure Storage) au format réhydratable par Datadog. Vous pouvez ensuite réhydrater l'archive dans Datadog à la demande, chaque fois que vous avez besoin d'analyser ou d'investiguer ces données. Cela est utile lorsque :
+
+- vous migrez depuis un autre fournisseur de gestion des logs vers Datadog Log Management et souhaitez vous assurer d'avoir accès aux logs historiques une fois la migration terminée.
+- vous avez un volume élevé de logs peu pertinents, mais vous pourriez avoir besoin de les indexer ponctuellement dans Log Management.
+- vous avez une politique de conservation.
+
+{{% observability_pipelines/use_case_images/archive_logs %}}
+
+Sélectionnez une source pour commencer :
+
+- [Amazon Data Firehose][12]
+- [Amazon S3][11]
+- [Agent Datadog][1]
+- [Fluentd ou Fluent Bit][2]
+- [Google Pub/Sub][3]
+- [Client HTTP][4]
+- [Serveur HTTP][5]
+- [Kafka][13]
+- [Logstash][6]
+- [HTTP Event Collector (HEC) Splunk][7]
+- [Splunk Heavy ou Universal Forwarders (TCP)][8]
+- [Socket (TCP ou UDP)][14]
+- [Collector hébergé Sumo Logic][9]
+- [rsylsog ou syslog-ng][10]
+
+[1]: /fr/observability_pipelines/archive_logs/datadog_agent
+[2]: /fr/observability_pipelines/archive_logs/fluent
+[3]: /fr/observability_pipelines/set_up_pipelines/archive_logs/google_pubsub
+[4]: /fr/observability_pipelines/archive_logs/http_client
+[5]: /fr/observability_pipelines/set_up_pipelines/archive_logs/http_server
+[6]: /fr/observability_pipelines/set_up_pipelines/archive_logs/logstash
+[7]: /fr/observability_pipelines/archive_logs/splunk_hec
+[8]: /fr/observability_pipelines/archive_logs/splunk_tcp
+[9]: /fr/observability_pipelines/archive_logs/sumo_logic_hosted_collector
+[10]: /fr/observability_pipelines/archive_logs/syslog
+[11]: /fr/observability_pipelines/set_up_pipelines/archive_logs/amazon_s3
+[12]: /fr/observability_pipelines/set_up_pipelines/archive_logs/amazon_data_firehose
+[13]: /fr/observability_pipelines/set_up_pipelines/archive_logs/kafka
+[14]: /fr/observability_pipelines/set_up_pipelines/archive_logs/socket
\ No newline at end of file
diff --git a/content/ja/integrations/rapdev_cisco_class_based_qos.md b/content/ja/integrations/rapdev_cisco_class_based_qos.md
new file mode 100644
index 0000000000000..009b3fd9eb001
--- /dev/null
+++ b/content/ja/integrations/rapdev_cisco_class_based_qos.md
@@ -0,0 +1,130 @@
+---
+algolia:
+ subcategory: Marketplace インテグレーション
+app_id: rapdev-cisco-class-based-qos
+app_uuid: 97f3eada-2bd0-4100-94f7-fe7f20132442
+assets:
+ dashboards:
+ RapDev Cisco QOS Dashboard: assets/dashboards/rapdev_cisco_classbased_qos_overview.json
+ integration:
+ auto_install: false
+ configuration:
+ spec: assets/configuration/spec.yaml
+ events:
+ creates_events: false
+ metrics:
+ check: rapdev.cisco_class_based_qos.devices_monitored
+ metadata_path: metadata.csv
+ prefix: rapdev.cisco_class_based_qos.
+ service_checks:
+ metadata_path: assets/service_checks.json
+ source_type_id: 10457427
+ source_type_name: cisco_class_based_qos
+ logs: {}
+author:
+ homepage: https://rapdev.io
+ name: RapDev
+ sales_email: sales@rapdev.io
+ support_email: support@rapdev.io
+ vendor_id: rapdev
+categories:
+- マーケットプレイス
+- ネットワーク
+- snmp
+- モニター
+custom_kind: インテグレーション
+dependencies: []
+display_on_public_website: true
+draft: false
+git_integration_title: rapdev_cisco_class_based_qos
+integration_id: rapdev-cisco-class-based-qos
+integration_title: Cisco Quality of Service (QOS)
+integration_version: ''
+is_public: true
+legal_terms:
+ eula: assets/EULA.pdf
+manifest_version: 2.0.0
+name: rapdev_cisco_class_based_qos
+pricing:
+- billing_type: tag_count
+ includes_assets: true
+ metric: datadog.marketplace.rapdev.cisco_class_based_qos
+ product_id: cisco
+ short_description: QOS デバイス 1 台あたりの単価
+ tag: qos_host
+ unit_label: QOS デバイス
+ unit_price: 20
+public_title: Cisco Quality of Service (QOS)
+short_description: Cisco クラスベースの QoS を使用してネットワークトラフィックを監視
+supported_os:
+- linux
+- macos
+tile:
+ changelog: CHANGELOG.md
+ classifier_tags:
+ - Supported OS::Linux
+ - Supported OS::macOS
+ - Category::Marketplace
+ - Offering::Integration
+ - Submitted Data Type::Metrics
+ - Category::Network
+ - Category::SNMP
+ - Category::Metrics
+ configuration: README.md#Setup
+ description: Cisco クラスベースの QoS を使用してネットワークトラフィックを監視
+ media:
+ - caption: QOS ダッシュボード - ライトモード 1/3
+ image_url: images/dashboard_light_1.jpg
+ media_type: image
+ - caption: QOS ダッシュボード - ライトモード 2/3
+ image_url: images/dashboard_light_2.jpg
+ media_type: image
+ - caption: QOS ダッシュボード - ライトモード 3/3
+ image_url: images/dashboard_light_3.jpg
+ media_type: image
+ overview: README.md#Overview
+ support: README.md#Support
+ title: Cisco Quality of Service (QOS)
+ uninstallation: README.md#Uninstallation
+---
+
+
+
+
+## 概要
+
+Cisco ネットワークにおける QoS (Quality of Service) は、トラフィックを管理し、各種ネットワークサービスがパフォーマンス要件を満たすように設計された技術と手法の集合体です。Cisco の QoS は、音声やビデオ会議などの重要なアプリケーションが適切に機能するよう、特にネットワーク輻輳時に必要な帯域幅と低レイテンシーを確保するため、特定のトラフィックを優先的に扱うことで機能します。
+
+Cisco QoS の主なコンポーネントには以下が含まれます。
+- 分類とマーキング: トラフィックの種類を識別し、異なる処理のためにマーキングします。これは、パケットを検査し、ポリシーに基づいて異なるクラスに割り当てるプロセスです。
+- キューイング: トラフィック混雑を管理し、優先度の高いトラフィックを確実に処理します。これには、優先キューイング、加重公平キューイング (WFQ)、クラスベース加重公平キューイング (CBWFQ) などのアルゴリズムが含まれます。
+- 輻輳管理および回避: Tail Drop や Random Early Detection (RED) などのツールを使用して、トラフィックフローを管理し、パケットを制御された形で破棄することで、ネットワークの輻輳を防止します。
+- トラフィックシェーピングとポリシング: 定義された帯域幅制限に従ってトラフィックフローを調整します。トラフィックシェーピングはフローをスムーズにし、ポリシングは指定されたレートを超えたトラフィックを破棄します。
+- リンク効率化メカニズム: リンクフラグメンテーションおよびインターリーブ (LFI) や圧縮技術を利用してネットワークリンクの効率を向上させます。
+
+インテグレーションは、選択された MIB オブジェクトについて Cisco デバイスを定期的にポーリングし、収集されたデータは QoS ポリシーのパフォーマンスと使用状況の統計を示します。これにより、ネットワーク管理者はトラフィックパターンを分析し、QoS ポリシーの効果を検証し、必要に応じて調整を行うことができます。
+
+Cisco クラスベースの QoS インテグレーションは、SNMP 対応の Cisco デバイス上で[クラスベースのトラフィックポリシング][2]の統計を監視します。クラスベースのポリシングを使用すると、インターフェイス上で送信または受信されるトラフィックの最大レートを制御できます。デバイスを流れるさまざまなクラスのネットワークトラフィックを、ポリシー適用前後の両方で観測でき、異なるポリシーがこのトラフィックにどのように影響を与えるかも確認することが可能です。
+
+## Agent
+サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから RapDev.io にお問い合わせください。
+
+- サポート: [support@rapdev.io][8]
+- セールス: [sales@rapdev.io][9]
+- チャット: [rapdev.io][10]
+- 電話: 855-857-0222
+
+[1]: https://docs.datadoghq.com/ja/agent/kubernetes/integrations/
+[2]: https://www.cisco.com/c/en/us/td/docs/ios-xml/ios/qos_plcshp/configuration/xe-16/qos-plcshp-xe-16-book/qos-plcshp-class-plc.html
+[3]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent
+[4]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information
+[5]: https://sourceforge.net/projects/net-snmp/
+[6]: https://www.cisco.com/c/en/us/support/docs/ip/simple-network-management-protocol-snmp/7282-12.html
+[7]: https://community.cisco.com/t5/networking-knowledge-base/configuration-template-for-snmpv3/ta-p/4666450
+[8]: mailto:support@rapdev.io
+[9]: mailto:sales@rapdev.io
+[10]: https://www.rapdev.io/#Get-in-touch
+[11]: https://app.datadoghq.com/marketplace/app/rapdev-snmp-profiles/
+
+---
+このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、