diff --git a/content/fr/account_management/api-app-keys.md b/content/fr/account_management/api-app-keys.md index ccfed6867f185..8750b6b5cd402 100644 --- a/content/fr/account_management/api-app-keys.md +++ b/content/fr/account_management/api-app-keys.md @@ -15,11 +15,11 @@ Les clés d'API sont uniques à votre organisation. Une [clé d'API][1] est requ ## Clés d'application -Les [clés d'application][2] sont utilisées conjointement avec la clé d'API de votre organisation afin de donner aux utilisateurs un accès complet à l'API de programmation de Datadog. Les clés d'application sont associées au compte utilisateur qui les a créées. Par défaut, elles possèdent les autorisations et les portées de cet utilisateur. +Les [clés d'application][2], associées à la clé API de votre organisation, permettent aux utilisateurs d'accéder à l'API programmatique de Datadog. Les clés d'application sont associées au compte utilisateur qui les a créées et disposent par défaut des autorisations de l'utilisateur qui les a créées. ### Portées -Afin de mieux protéger et sécuriser vos applications, vous avez la possibilité d'appliquer des [portées d'autorisation][3] à vos clés d'application, de façon à définir des autorisations plus granulaires et à limiter les données auxquelles les applications ont accès. Vous pourrez ainsi contrôler les accès de vos applications avec plus de précision et réduire les failles de sécurité en limitant les accès superflus. Par exemple, une application qui se contente de lire des dashboards n'a pas besoin de pouvoir gérer les utilisateurs ou de supprimer les données de votre organisation. +Afin de mieux protéger et sécuriser vos applications, vous avez la possibilité d'appliquer des portées d'autorisation à vos clés d'application, de façon à définir des autorisations plus granulaires et à limiter les données auxquelles les applications ont accès. Vous pourrez ainsi contrôler les accès de vos applications avec plus de précision et réduire les failles de sécurité en limitant les accès superflus. Par exemple, une application qui se contente de lire des dashboards n'a pas besoin de pouvoir gérer les utilisateurs ou de supprimer les données de votre organisation. Lorsque vous appliquez des portées à des clés d'application, il est recommandé d'accorder uniquement les privilèges et les autorisations dont l'application a besoin pour fonctionner correctement. Seules les portées spécifiées par l'utilisateur sont appliquées à la clé d'application : aucune autre autorisation n'est accordée. Vous pouvez modifier la portée d'autorisation d'une clé d'application à tout moment, mais il est essentiel de réfléchir à l'impact que ces modifications auront sur le fonctionnement de votre application et les données auxquelles elle pourra accéder. @@ -68,6 +68,10 @@ Pour ajouter une clé d'application Datadog, accédez à [**Organization Setting {{< img src="account_management/app-key.png" alt="Accédez à la page des clés dʼapplication de votre organisation dans Datadog" style="width:80%;" >}} +{{< site-region region="ap2,gov" >}} +
/var/log/pods
.
+/var/log/pods
sont lisibles par les membres du groupe root
. Avec la configuration ci-dessus, l’Agent s’exécute avec le groupe root
. Aucune action supplémentaire n’est nécessaire.
+/var/log/pods
sont des liens symboliques vers /var/lib/docker/containers
, qui n’est accessible qu’à l’utilisateur root
. Par conséquent, avec Docker, un Agent non root
ne peut pas lire les logs de /var/log/pods
. Le socket Docker doit être monté dans le conteneur de l’Agent pour lui permettre d’accéder aux logs via le démon Docker.
+/var/log/pods
lorsque le socket Docker est monté, définissez la variable d’environnement DD_LOGS_CONFIG_K8S_CONTAINER_USE_FILE
(ou logs_config.k8s_container_use_file
dans datadog.yaml
) sur true
. Cela force l’Agent à utiliser le mode de collecte basé sur les fichiers.
+kind:Pod
), ajoutez les annotations de chaque Pod dans la section metadata
, comme montré dans la section suivante.
+.spec.template.metadata
.https://{{< region-param key="http_endpoint" code="true" >}}- ``` - **Remarque** : assurez-vous que le sélecteur de site Datadog à droite de la page est défini sur votre [site Datadog][64] avant de copier l'URL ci-dessus. + **Remarque** : assurez-vous que le sélecteur de site Datadog à droite de la page est défini sur votre [site Datadog][22] avant de copier l'URL ci-dessus. - c. Sélectionnez le sujet créé pour recevoir les échecs de messages dans la liste déroulante **Output deadletter Pub/Sub topic**. - d. Indiquez un chemin d'accès pour les fichiers temporaires dans votre compartiement de stockage dans le champ **Temporary location**. + c. Sélectionnez le sujet créé pour recevoir les échecs de messages dans la liste déroulante **Output deadletter Pub/Sub topic**. + d. Indiquez un chemin d'accès pour les fichiers temporaires dans votre compartiment de stockage dans le champ **Temporary location**. -{{< img src="integrations/google_cloud_platform/dataflow_parameters.png" alt="Paramètres requis dans le modèle Dataflow Datadog" style="width:80%;">}} +{{< img src="integrations/google_cloud_platform/dataflow_parameters.png" alt="Paramètres requis dans le modèle Dataflow Datadog" style="width:80%;">}} 4. Sous **Optional Parameters**, cochez `Include full Pub/Sub message in the payload`. -5. Si vous avez créé un secret dans Secret Manager avec la valeur de votre clé API Datadog comme indiqué dans [étape 1](#1-creer-une-rubrique-et-un-abonnement-pubsub-cloud)), entrez le **nom de la ressource** du secret dans le champ **Google Cloud Secret Manager ID**. +5. Si vous avez créé un secret dans Secret Manager avec la valeur de votre clé d'API Datadog comme indiqué dans [étape 1](#1-creer-un-sujet-et-un-abonnement-cloud-pubsub)), entrez le **nom de la ressource** du secret dans le champ **Google Cloud Secret Manager ID**. -{{< img src="integrations/google_cloud_platform/dataflow_template_optional_parameters.png" alt="Paramètres facultatifs dans le modèle Dataflow Datadog avec les champs de lʼID de Secret Manager dans Google Cloud et la source de la clé dʼAPI transmise mis en évidence" style="width:80%;">}} +{{< img src="integrations/google_cloud_platform/dataflow_template_optional_parameters.png" alt="Paramètres facultatifs dans le modèle Dataflow Datadog avec les champs de lʼID de Secret Manager dans Google Cloud et la source de la clé dʼAPI transmise mis en évidence" style="width:80%;">}} -Consultez la section [Paramètres de modèle][55] dans le modèle Dataflow pour en savoir plus sur lʼutilisation des autres options disponibles : +Consultez la rubrique [Paramètres de modèle][10] dans le modèle Dataflow pour en savoir plus sur l'utilisation des autres options disponibles : - - `apiKeySource=KMS` avec `apiKeyKMSEncryptionKey` défini sur votre clé dʼID de [Cloud KMS][71] et `apiKey` défini sur la clé dʼAPI chiffrée + - `apiKeySource=KMS` avec `apiKeyKMSEncryptionKey` défini sur l'ID de votre clé [Cloud KMS][19] et `apiKey` défini sur la clé d'API chiffrée - **Non conseillé** : `apiKeySource=PLAINTEXT` avec `apiKey` défini sur la clé dʼAPI en texte brut -6. Si vous avez créé un compte service de worker personnalisé, sélectionnez-le dans le menu déroulant **Service account email**. +6. Si vous avez créé un compte service de worker personnalisé, sélectionnez-le dans le menu déroulant **Service account email**. {{< img src="integrations/google_cloud_platform/dataflow_template_service_account.png" alt="Paramètres facultatifs dans le modèle Dataflow Datadog avec le menu déroulant de lʼe-mail du compte de service mis en évidence" style="width:80%;">}} 7. Cliquez sur **RUN JOB**. -**Remarque** : si vous possédez un VPC partagé, consultez la page [Spécifier un réseau et un sous-réseau][72] de la documentation Dataflow pour obtenir des instructions sur la spécification des paramètres `Network` et `Subnetwork`. +**Remarque** : si vous possédez un VPC partagé, consultez la page [Spécifier un réseau et un sous-réseau][20] de la documentation Dataflow pour obtenir des instructions sur la spécification des paramètres `Network` et `Subnetwork`. #### Validation -Les nouveaux événements de logs envoyés au sujet Cloud Pub/Sub apparaissent dans le [Log Explorer de Datadog][73]. +Les nouveaux événements de log envoyés au sujet Cloud Pub/Sub apparaissent dans le [Log Explorer de Datadog][24]. -**Remarque** : vous pouvez utiliser le [Calculateur de prix Google Cloud][74] pour calculer les coûts potentiels. +**Remarque** : vous pouvez utiliser le [simulateur de coût de Google Cloud][26] pour calculer les coûts potentiels. #### Surveiller la redirection des logs Cloud Pub/Sub -Lʼ[intégration Google Cloud Pub/Sub][30] fournit des métriques utiles pour surveiller l'état de la redirection des logs : +Lʼ[intégration Google Cloud Pub/Sub][4] fournit des métriques utiles pour surveiller l'état de la redirection des logs : - `gcp.pubsub.subscription.num_undelivered_messages` pour le nombre de messages en attente de livraison - `gcp.pubsub.subscription.oldest_unacked_message_age` pour l'âge du plus ancien message non acquitté dans un abonnement -Utilisez les métriques ci-dessus avec un [monitor de métriques][75] pour recevoir des alertes pour les messages dans vos abonnements en entrée et de messages non aboutis. +Utilisez les métriques ci-dessus avec un [monitor de métrique][72] pour recevoir des alertes pour les messages dans vos abonnements d'entrée et de lettres mortes. #### Surveiller le pipeline Dataflow -Utilisez [lʼintégration Google Cloud Dataflow][9] de Datadog pour surveiller tous les aspects de vos pipelines Dataflow. Vous pouvez voir toutes vos métriques Dataflow principales sur le dashboard prêt à l'emploi, doté de données contextuelles telles que des informations sur les instances GCE qui exécutent vos workloads Dataflow, et votre débit Pub/Sub. +Utilisez [lʼintégration Google Cloud Dataflow][28] de Datadog pour surveiller tous les aspects de vos pipelines Dataflow. Vous pouvez voir toutes vos métriques Dataflow principales sur le dashboard prêt à l'emploi, doté de données contextuelles telles que des informations sur les instances GCE qui exécutent vos workloads Dataflow, et votre débit Pub/Sub. + +Vous pouvez également utiliser un [monitor recommandé][29] préconfiguré pour configurer des notifications pour les augmentations du temps de backlog dans votre pipeline. Pour en savoir plus, lisez la section [Monitor your Dataflow pipelines with Datadog][30] (en anglais) dans le blog de Datadog. + + +[1]: https://cloud.google.com/dataflow +[2]: https://cloud.google.com/dataflow/docs/guides/templates/provided/pubsub-to-datadog +[3]: https://github.com/GoogleCloudPlatform/terraform-gcp-datadog-integration +[4]: https://docs.datadoghq.com/fr/integrations/google_cloud_pubsub/ +[5]: https://cloud.google.com/pubsub/docs/create-subscription +[6]: https://www.datadoghq.com/blog/datadog-recommended-monitors/ +[7]: https://cloud.google.com/logging/docs/export/configure_export_v2#creating_sink +[8]: https://cloud.google.com/logging/docs/view/logging-query-language +[9]: https://cloud.google.com/architecture/partners/stream-cloud-logs-to-datadog +[10]: https://cloud.google.com/apis/docs/getting-started#enabling_apis +[11]: https://docs.datadoghq.com/fr/agent/ +[12]: https://console.cloud.google.com/cloudpubsub/topicList +[13]: https://console.cloud.google.com/cloudpubsub/subscription/ +[14]: https://cloud.google.com/pubsub/docs/access-control#pubsub.viewer +[15]: https://cloud.google.com/dataflow/docs/guides/templates/provided/pubsub-to-pubsub +[16]: https://www.datadoghq.com/blog/monitor-dataflow-pipelines-with-datadog/ +[17]: https://console.cloud.google.com/dataflow/createjob +[18]: https://console.cloud.google.com/iam-admin/serviceaccounts +[19]: https://cloud.google.com/kms/docs +[20]: https://cloud.google.com/dataflow/docs/guides/specifying-networks#shared +[21]: https://cloud.google.com/dataflow/docs/concepts/access-control#dataflow.worker +[22]: https://console.cloud.google.com/logs/viewer +[23]: https://cloud.google.com/logging/docs/view/logging-query-language#sample +[24]: https://app.datadoghq.com/logs +[25]: https://cloud.google.com/pubsub/docs/access-control#pubsub.subscriber +[26]: https://cloud.google.com/products/calculator +[27]: https://docs.datadoghq.com/fr/monitors/types/metric/ +[28]: https://cloud.google.com/pubsub/docs/access-control#pubsub.publisher +[29]: https://cloud.google.com/secret-manager/docs/access-control#secretmanager.secretAccessor +[30]: https://cloud.google.com/storage/docs/access-control/iam-roles/ +{{% /tab %}} +{{% tab "Pub/Sub Push Method (Legacy)" %}} + +La collecte des logs Google Cloud à l'aide d'un abonnement Push Pub/Sub est en cours de **dépréciation**. + +La documentation ci-dessus relative à l'abonnement **Push** n'est maintenue que pour le dépannage ou la modification d'anciennes configurations. + +Utilisez un abonnement **Pull** avec le modèle Dataflow de Datadog, comme décrit dans la [méthode Dataflow][1], pour transférer vos logs Google Cloud vers Datadog. + + +[1]: http://docs.datadoghq.com/integrations/google_cloud_platform/?tab=dataflowmethodrecommended +{{% /tab %}} +{{< /tabs >}} + +## Surveillance étendue de BigQuery + +{{< callout url="https://www.datadoghq.com/product-preview/bigquery-monitoring/" header="Join the Preview!" >}} + La surveillance étendue de BigQuery est disponible en préversion. Utilisez ce formulaire pour vous inscrire et commencer à obtenir des informations sur les performances de vos requêtes. +{{< /callout >}} + +La surveillance étendue de BigQuery offre une visibilité granulaire sur vos environnements BigQuery. + +### Surveillance des performances des jobs BigQuery + +Pour surveiller les performances de vos jobs BigQuery, attribuez le rôle [BigQuery Resource Viewer][51] au compte de service Datadog pour chaque projet Google Cloud. + +**Remarques** : + - Vous devez avoir vérifié votre compte de service Google Cloud dans Datadog, comme indiqué dans la [section de configuration](#configuration). + - Vous **n'avez pas** besoin de configurer Dataflow pour collecter les logs dans le cadre de la surveillance BigQuery étendue. + +1. Dans la console Google Cloud, accédez à la [page IAM][52]. +2. Cliquez sur **Accorder un accès**. +3. Saisissez l'adresse e-mail de votre compte de service dans **Nouveaux principaux**. +4. Attribuez le rôle [BigQuery Resource Viewer][51]. +5. Cliquez sur **ENREGISTRER**. +6. Dans la [page d'intégration Google Cloud de Datadog][43], accédez à l'onglet **BigQuery**. +7. Cliquez sur le bouton **Enable Query Performance**. + +### Surveillance de la qualité des données BigQuery + +La surveillance de la qualité des données BigQuery fournit des métriques de qualité à partir de vos tables BigQuery (comme la fraîcheur ou les mises à jour du nombre de lignes et de la taille). Explorez en profondeur les données de vos tables sur la [page Surveillance de la qualité des données][53]. + +Pour collecter les métriques de qualité, attribuez le rôle [BigQuery Metadata Viewer][54] au compte de service Datadog pour chaque table BigQuery que vous utilisez. + +**Remarque** : le rôle BigQuery Metadata Viewer peut être appliqué à une table, un ensemble de données, un projet ou une organisation. + - Pour surveiller la qualité des données de toutes les tables d’un ensemble de données, attribuez l’accès au niveau de l’ensemble de données. + - Pour surveiller la qualité des données de tous les ensembles de données d’un projet, attribuez l’accès au niveau du projet. + +1. Accédez à [BigQuery][55]. +2. Dans l'Explorer, recherchez la ressource BigQuery souhaitée. +3. Cliquez sur le menu à trois points à côté de la ressource, puis cliquez sur ***Share -> Manage Permissions**. + +{{< img src="integrations/google_cloud_platform/bigquery_manage_permissions.png" alt="L'option de menu Gérer les autorisations pour une ressource d'ensemble de données BigQuery" style="width:80%;">}} + +4. Cliquez sur **ADD PRINCIPAL**. +5. Dans la zone de nouveaux principaux, saisissez le compte de service Datadog configuré pour l'intégration Google Cloud. +6. Attribuez le rôle [BigQuery Metadata Viewer][54]. +7. Cliquez sur **SAVE**. +8. Dans la [page d'intégration Google Cloud de Datadog][43], cliquez dans l'onglet **BigQuery**. +9. Cliquez sur le bouton **Enable Data Quality**. + +### Rétention des logs de jobs BigQuery + +Datadog recommande de créer un nouvel [index de logs][56] appelé `data-observability-queries`, et d'y indexer les logs de vos jobs BigQuery pendant 15 jours. Utilisez le filtre d'index suivant pour inclure les logs : + +```bash +service:data-observability @platform:* +``` + +Consultez la [page de tarification de la gestion des logs][57] pour une estimation des coûts. + +## Collecte de données sur les changements de ressource + +{{< callout url="https://www.datadoghq.com/private-beta/recent-changes-tab/" >}} + La collection Resource changes est en avant-première ! Pour demander l'accès, utilisez le formulaire ci-joint. +{{< /callout >}} + +Sélectionnez **Enable Resource Collection** dans [l’onglet Resource Collection][58] de la page d’intégration Google Cloud. Cela vous permet de recevoir des événements de ressource dans Datadog lorsque l’[inventaire des ressources Cloud][59] de Google détecte des modifications dans vos ressources cloud. + +Suivez ensuite les étapes ci-dessous pour transférer les événements de modification depuis un sujet Pub/Sub vers l’[Event Explorer][60] de Datadog. + +{{% collapse-content title="Google Cloud CLI" level="h4" %}} +### Créer un sujet et un abonnement Cloud Pub/Sub + +#### Créer un sujet + +1. Sur la [page des sujets Pub/Sub Google Cloud][61], cliquez sur **CREATE TOPIC**. +2. Attribuez un nom descriptif au sujet. +3. **Décochez** l'option permettant d'ajouter un abonnement par défaut. +4. Cliquez sur **CREATE**. + +#### Créer un abonnement + +1. Sur la [page des abonnements Pub/Sub Google Cloud][62], cliquez sur **CREATE SUBSCRIPTION**. +2. Saisissez `export-asset-changes-to-datadog` pour le nom de l'abonnement. +3. Sélectionnez le sujet Cloud Pub/Sub précédemment créé. +4. Sélectionnez le type de diffusion **Pull**. +5. Cliquez sur **CREATE**. + +### Autoriser l'accès + +Pour pouvoir lire les données de l'abonnement Pub/Sub, le compte de service Google Cloud utilisé par l'intégration doit disposer de l'autorisation `pubsub.subscriptions.consume` pour l'abonnement. Le rôle par défaut **Pub/Sub subscriber** possède cette autorisation, en plus d'autres autorisations minimales. Suivez les étapes ci-dessous pour attribuer ce rôle : -Vous pouvez également utiliser un [monitor recommandé][76] préconfiguré pour configurer des notifications pour les augmentations du temps de backlog dans votre pipeline. Pour en savoir plus, lisez la section [Monitor your Dataflow pipelines with Datadog][77] (en anglais) dans le blog de Datadog. +1. Sur la [page des abonnements Pub/Sub Google Cloud][62], cliquez sur l'abonnement `export-asset-changes-to-datadog`. +2. Depuis le **volet d'informations** sur la droite de la page, cliquez sur l'onglet **Permissions**. Si vous ne voyez pas ce volet, cliquez sur **SHOW INFO PANEL**. +3. Cliquez sur **ADD PRINCIPAL**. +4. Saisissez l'**adresse e-mail du compte de service** utilisée par l'intégration Datadog/Google Cloud. Vos comptes de service sont répertoriés sur la gauche de l'onglet **Configuration**, sur la [page de l'intégration Google Cloud][43] dans Datadog. + +### Créer un flux d'éléments + +Exécutez la commande ci-dessous dans [Cloud Shell][63] ou dans la [CLI gcloud][64] pour créer un flux d'inventaire d'éléments cloud qui envoie les événements de changement au sujet Pub/Sub précédemment créé. + +{{< tabs >}} + +{{% tab "Project" %}} + +```bash +gcloud asset feeds create
diff --git a/content/fr/logs/log_collection/_index.md b/content/fr/logs/log_collection/_index.md index 39fae8b8db4d5..a273e77bba293 100644 --- a/content/fr/logs/log_collection/_index.md +++ b/content/fr/logs/log_collection/_index.md @@ -149,7 +149,6 @@ Utilisez le menu déroulant situé à droite de la page pour sélectionner votre | Site | Type | Endpoint | Port | Rôle | |------|-------------|---------------------------------------------------------------------------|--------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | US | HTTPS | `http-intake.logs.datadoghq.com` | 443 | Utilisé par les redirecteurs personnalisés pour envoyer des logs au format JSON ou texte brut via HTTPS. Consultez la [documentation relative à l'API Logs HTTP][1]. | -| US | HTTPS | `agent-http-intake-pci.logs.datadoghq.com` | 443 | Utilisé par l'Agent pour envoyer des logs via HTTPS à une organisation pour laquelle la conformité PCI DSS est activée. Consultez la section [Conformité PCI DSS pour Log Management][3] pour en savoir plus. | | US | HTTPS | `agent-http-intake.logs.datadoghq.com` | 443 | Utilisé par l'Agent pour envoyer des logs au format JSON via HTTPS. Consultez la [section Collecte de logs de l'Agent de host][2]. | | US | HTTPS | `lambda-http-intake.logs.datadoghq.com` | 443 | Utilisé par les fonctions Lambda pour envoyer des logs au format brut, Syslog ou JSON via HTTPS. | | US | HTTPS | `logs.`{{< region-param key="browser_sdk_endpoint_domain" code="true" >}} | 443 | Utilisé par le SDK Browser pour envoyer des logs au format JSON via HTTPS. | @@ -161,7 +160,6 @@ Utilisez le menu déroulant situé à droite de la page pour sélectionner votre [1]: /fr/api/latest/logs/#send-logs [2]: /fr/agent/logs/#send-logs-over-https -[3]: /fr/data_security/logs/#pci-dss-compliance-for-log-management {{< /site-region >}} {{< site-region region="eu" >}} diff --git a/content/fr/logs/log_configuration/pipelines.md b/content/fr/logs/log_configuration/pipelines.md index b5b86d1a1e087..35fe46ad10b0c 100644 --- a/content/fr/logs/log_configuration/pipelines.md +++ b/content/fr/logs/log_configuration/pipelines.md @@ -12,15 +12,30 @@ further_reading: - link: /logs/explorer/ tag: Documentation text: Apprendre à explorer vos logs +- link: /logs/troubleshooting/ + tag: Documentation + text: Dépannage des logs - link: https://learn.datadoghq.com/courses/going-deeper-with-logs-processing tag: Centre d'apprentissage text: Des analyses plus poussées grâce au traitement des logs +- link: https://www.datadoghq.com/blog/monitor-cloudflare-zero-trust/ + tag: Blog + text: Surveiller Cloudflare Zero Trust avec la solution Cloud SIEM de Datadog +- link: https://www.datadoghq.com/blog/monitor-1password-datadog-cloud-siem/ + tag: Blog + text: Surveiller 1Password avec la solution Cloud SIEM de Datadog +- link: https://www.datadoghq.com/blog/ocsf-common-data-model/ + tag: Blog + text: Normalisez vos données avec le modèle de données commun OCSF dans Datadog + Cloud SIEM title: Pipelines --- -## Présentation +## Section Overview + +
ddtrace-run
contents: read
, contents: write
)pull_requests: write
)DATADOG_STATIC_ANALYZER_URL
の値を更新してください。すべてのリリースは GitHub Releases ページで確認できます。
+