From e6308b2fa926d1665df18e98dffb58aa9235a3ee Mon Sep 17 00:00:00 2001 From: "webops-guacbot[bot]" <214537265+webops-guacbot[bot]@users.noreply.github.com> Date: Thu, 25 Dec 2025 15:02:16 +0000 Subject: [PATCH 1/2] Translated file updates --- .../setup/agentless_scanning/_index.md | 26 +- .../setup/agentless_scanning/compatibility.md | 28 +- .../agentless_scanning/deployment_methods.md | 56 +++ .../setup/agentless_scanning/enable.md | 404 ++++++++++++++++++ .../create-your-first-cloudcraft-diagram.md | 94 ++++ .../crest_data_systems_picus_security.md | 134 ++++++ content/ja/integrations/iocs_dmi.md | 203 +++++++++ content/ja/integrations/iocs_dmi4apm.md | 133 ++++++ content/ja/integrations/isdown_isdown.md | 41 +- .../kubernetes_cluster_autoscaler.md | 187 ++++++++ .../threats/attacker_fingerprint.md | 73 ++++ content/ja/software_catalog/set_up/_index.md | 54 +++ .../set_up/existing_datadog_user.md | 63 +++ 13 files changed, 1459 insertions(+), 37 deletions(-) create mode 100644 content/es/security/cloud_security_management/setup/agentless_scanning/deployment_methods.md create mode 100644 content/es/security/cloud_security_management/setup/agentless_scanning/enable.md create mode 100644 content/fr/cloudcraft/getting-started/create-your-first-cloudcraft-diagram.md create mode 100644 content/ja/integrations/crest_data_systems_picus_security.md create mode 100644 content/ja/integrations/iocs_dmi.md create mode 100644 content/ja/integrations/iocs_dmi4apm.md create mode 100644 content/ja/integrations/kubernetes_cluster_autoscaler.md create mode 100644 content/ja/security/application_security/threats/attacker_fingerprint.md create mode 100644 content/ja/software_catalog/set_up/_index.md create mode 100644 content/ja/software_catalog/set_up/existing_datadog_user.md diff --git a/content/es/security/cloud_security_management/setup/agentless_scanning/_index.md b/content/es/security/cloud_security_management/setup/agentless_scanning/_index.md index cde8805df21..c51bd0fb5cd 100644 --- a/content/es/security/cloud_security_management/setup/agentless_scanning/_index.md +++ b/content/es/security/cloud_security_management/setup/agentless_scanning/_index.md @@ -17,6 +17,8 @@ Agentless Scanning proporciona visibilidad de las vulnerabilidades que existen e Después de [configurar el Agentless scanning][1] para tus recursos, Datadog programa escaneos automatizados en intervalos de 12 horas a través de la [Configuración remota][2]. Durante un ciclo de escaneo, los escáneres Agentless recopilan dependencias de código Lambda y crean snapshots de tus instancias de VM. Con estos snapshots, los escáneres Agentless escanean, generan y transmiten una lista de paquetes a Datadog para check en busca de vulnerabilidades, junto con dependencias de código Lambda. Una vez finalizados los escaneos de un snapshot, se elimina el snapshot. Nunca se transmite información personal confidencial o privada fuera de tu infraestructura. +Si tienes configurados [Filtros de evaluación de seguridad en la nube][15], Agentless Scanning respeta estos filtros y solo explora los recursos que coinciden con los criterios configurados. + El siguiente diagrama ilustra el funcionamiento de Agentless Scanning: {{< img src="/security/agentless_scanning/how_agentless_works.png" alt="Diagrama que muestra el funcionamiento de Agentless Scanning" width="90%" >}} @@ -32,9 +34,21 @@ El siguiente diagrama ilustra el funcionamiento de Agentless Scanning: **Notas**: - El escáner funciona como una instancia de VM independiente dentro de tu infraestructura, lo que garantiza un impacto mínimo en los sistemas y recursos existentes. +- Para AWS, las instancias de escáner se escalan automáticamente en función de la carga de trabajo. Cuando no hay recursos que escanear, los escáneres se escalan a cero para minimizar los costes del proveedor de la nube. - El analizador recopila de forma segura una lista de paquetes de tus hosts, sin transmitir ninguna información personal confidencial o privada fuera de tu infraestructura. - El escáner limita su uso de la API del proveedor de la nube para evitar alcanzar cualquier límite de velocidad y utiliza un backoff exponencial si es necesario. +## On-demand scanning + +Por defecto, Agentless Scanning analiza automáticamente los recursos cada 12 horas. También puedes activar un análisis inmediato de un recurso específico (host, contenedor, función de Lambda o bucket de S3) mediante la API On-Demand Scanning. + +Esto es útil cuando se necesita: +- Verificar que una vulnerabilidad ha sido parcheada +- Obtener resultados inmediatos de los recursos recién desplegados +- Validar la postura de seguridad antes del despliegue en producción + +Para más información, consulta la [Documentación de la API On-Demand Scanning][14]. + ## Datos que se envían a Datadog El analizador Agentless utiliza el formato OWASP [cycloneDX][3] para transmitir una lista de paquetes a Datadog. Nunca se transmite información personal confidencial o privada fuera de tu infraestructura. @@ -71,13 +85,13 @@ El siguiente diagrama muestra cómo funciona Agentless Scanning con las instalac ## Análisis del almacenamiento en la nube -{{< callout header="Disponibilidad limitada" url="https://www.datadoghq.com/private-beta/data-security" >}} -La compatibilidad del análisis de buckets de Amazon S3 e instancias RDS está en Disponibilidad limitada. Para inscribirte, haz clic en Request Access (Solicitar acceso). +{{< callout url="https://www.datadoghq.com/product-preview/data-security" >}} + La capacidad de escaneo para buckets de Amazon S3 e instancias RDS está en vista previa. Para inscribirte, haz clic en Request Access (Solicitar acceso). {{< /callout >}} -Si tienes activado [Sensitive Data Scanner][8], puedes catalogar y clasificar los datos confidenciales en tus buckets de Amazon S3 e instancias RDS. +Si tienes habilitado [Sensitive Data Scanner][8], puedes catalogar y clasificar los datos confidenciales en tus buckets de Amazon S3. -Sensitive Data Scanner analiza datos confidenciales desplegando [analizadores Agentless][1] en tus entornos de nube. Estas instancias de análisis recuperan una lista de todos los buckets de S3 e instancias RDS mediante [configuración remota][10] y tienen instrucciones para analizar archivos de texto, como CSV y JSON, y tablas en cada almacén de datos a lo largo del tiempo. Sensitive Data Scanner aprovecha sus [bibliotecas de reglas completas][11] para encontrar coincidencias. Cuando se encuentra una coincidencia, la instancia de análisis envía la localización de la coincidencia a Datadog. Los almacenes de datos y sus archivos sólo se leen en tu entorno. No se reenvía ningún dato confidencial a Datadog. +Sensitive Data Scanner escanea en busca de datos confidenciales desplegando [escáneres sin agent][1] en tus entornos en la nube. Estas instancias de escaneo recuperan una lista de todos los buckets de S3 a través de la [Configuración remota][10] y tienen establecidas instrucciones para escanear archivos de texto, como CSV y JSON, a lo largo del tiempo. Sensitive Data Scanner aprovecha su [biblioteca completa de reglas][11] para encontrar coincidencias. Cuando se encuentra una coincidencia, la instancia de escaneo envía la ubicación de la coincidencia a Datadog. Los almacenes de datos y sus archivos solo se leen en tu entorno; no se envía ningún dato confidencial a Datadog. Además de mostrar las coincidencias de datos confidenciales, Sensitive Data Scanner muestra cualquier problema de seguridad detectado por [Cloud Security][9] que afecte a los almacenes de datos confidenciales. Puedes hacer clic en cualquier problema para continuar con la clasificación y la corrección dentro de Cloud Security. @@ -105,4 +119,6 @@ Para grandes cargas de trabajo en la nube distribuidas en varias regiones, Datad [9]: /es/security/cloud_security_management [10]: /es/remote_configuration [11]: /es/security/sensitive_data_scanner/scanning_rules/library_rules/ -[13]: /es/security/cloud_security_management/setup/agentless_scanning/deployment_methods#recommended-configuration \ No newline at end of file +[13]: /es/security/cloud_security_management/setup/agentless_scanning/deployment_methods#recommended-configuration +[14]: /es/api/latest/agentless-scanning/#create-aws-on-demand-task +[15]: /es/security/cloud_security_management/guide/resource_evaluation_filters \ No newline at end of file diff --git a/content/es/security/cloud_security_management/setup/agentless_scanning/compatibility.md b/content/es/security/cloud_security_management/setup/agentless_scanning/compatibility.md index acf5246235b..c32e6626853 100644 --- a/content/es/security/cloud_security_management/setup/agentless_scanning/compatibility.md +++ b/content/es/security/cloud_security_management/setup/agentless_scanning/compatibility.md @@ -6,18 +6,22 @@ title: Compatibilidad con el análisis Agentless ## Disponibilidad +Agentless Scanning es compatible con AWS, Azure y GCP. Oracle Cloud Infrastructure (OCI) aún no es compatible. + +Esta función está disponible en todos los centros de datos comerciales de Datadog. GovCloud no es compatible. + La siguiente tabla proporciona un resumen de las tecnologías de análisis Agentless con respecto a sus componentes correspondientes para cada proveedor de nube compatible: -| Componente | AWS | Azure | -|-------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| -| Sistema operativo | Linux; Windows Server 2016, 2019, 2022; Windows 10 o posterior. | Linux; Windows Server 2016, 2019, 2022; Windows 10 o posterior. | -| Sistema de archivos del host | Btrfs, Ext2, Ext3, Ext4, xfs | Btrfs, Ext2, Ext3, Ext4, xfs | -| Gestor de paquetes | Deb (debian, ubuntu)
RPM (amazon-linux, fedora, redhat, centos)
APK (alpine) | Deb (Debian, Ubuntu)
RPM (Fedora, RedHat, CentOS)
APK (Alpine) | -| Cifrado | AWS
Sin cifrar
Cifrado - Clave gestionada por la plataforma (PMK) y Clave gestionada por el cliente (CMK) | Cifrado - Clave gestionada por la plataforma (PMK): Cifrado del lado del servidor Azure Disk Storage, Cifrado en host
**Nota**: Cifrado - Clave gestionada por el cliente (CMK) **no** es compatible. | -| Tiempo de ejecución del contenedor | Docker, en contenedor
**Nota**: CRI-O **no** es compatible | Docker, en contenedor
**Nota**: CRI-O **no** es compatible | -| Serverless | AWS Lambda
AWS Fargate para ECS | Para solicitar esta función, ponte en contacto con el [servicio de asistencia de Datadog][16] | -| Lenguajes de aplicación (en hosts y contenedores) | Java, .Net, Python, Node.js, Go, Ruby, Rust, PHP, Swift, Dart, Elixir, Conan, Conda | Java, .Net, Python, Node.js, Go, Ruby, Rust, PHP, Swift, Dart, Elixir, Conan, Conda | -| Registros de contenedores | Amazon ECR (público y privado) | | || +| Componente | AWS | Azure | GCP | +|-------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| +| Sistema operativo | Linux; Windows Server 2016, 2019, 2022; Windows 10 o posterior. | Linux; Windows Server 2016, 2019, 2022; Windows 10 o posterior. | Linux; Windows Server 2016, 2019, 2022; Windows 10 o posterior. | +| Sistema de archivos del host | Btrfs, Ext2, Ext3, Ext4, xfs | Btrfs, Ext2, Ext3, Ext4, xfs | Btrfs, Ext2, Ext3, Ext4, xfs | +| Gestor de paquetes | Deb (debian, ubuntu)
RPM (amazon-linux, fedora, redhat, centos)
APK (alpine) | Deb (Debian, Ubuntu)
RPM (Fedora, RedHat, CentOS)
APK (Alpine) | Deb (Debian, Ubuntu)
RPM (Fedora, RedHat, CentOS)
APK (Alpine) | +| Cifrado | AWS
Sin cifrar
Cifrado - Clave gestionada por la plataforma (PMK) y Clave gestionada por el cliente (CMK) | Cifrado - Clave gestionada por la plataforma (PMK): Cifrado del lado del servidor Azure Disk Storage, Cifrado en host
**Nota**: Cifrado - Clave gestionada por el cliente (CMK) **no** es compatible. | Cifrado, Clave gestionada por plataforma (PMK): cifrado de disco persistente, VM confidencial
**Nota**: Cifrado, Clave de cifrado gestionada por el cliente (CMEK) y Claves de cifrado suministradas por el cliente (CSEK) **no** son compatibles. | +| Tiempo de ejecución del contenedor | Docker, en contenedor
**Nota**: CRI-O **no** es compatible | Docker, en contenedor
**Nota**: CRI-O **no** es compatible | Docker, en contenedor
**Nota**: CRI-O **no** es compatible | +| Serverless | AWS Lambda
AWS Fargate para ECS | Para solicitar esta función, ponte en contacto con el [servicio de asistencia de Datadog][16] | Cloud Run (tipo de despliegue de contenedores) | +| Lenguajes de aplicación (en hosts y contenedores) | Java, .Net, Python, Node.js, Go, Ruby, Rust, PHP, Swift, Dart, Elixir, Conan, Conda | Java, .Net, Python, Node.js, Go, Ruby, Rust, PHP, Swift, Dart, Elixir, Conan, Conda | Java, .Net, Python, Node.js, Go, Ruby, Rust, PHP, Swift, Dart, Elixir, Conan, Conda | +| Registros de contenedores | Amazon ECR (público y privado) | | Google Artifact Registry | **Nota**: Las AMI deben almacenarse en una cuenta que utilice la integración AWS de Datadog. De lo contrario, Datadog no puede leer el snapshot subyacente de Amazon Elastic Block Store (EBS) de la AMI, por lo que no puede analizarla ni generar informes sobre ella. @@ -31,7 +35,7 @@ Las siguientes distribuciones Linux son compatibles con los análisis de hosts y | Wolfi Linux | N/A | apk | [https://packages.wolfi.dev/os/security.json][2] | | Chainguard | N/A | apk | [https://packages.cgr.dev/chainguard/security.json][3] | | Red Hat Enterprise Linux | 6, 7, 8 | dnf/yum/rpm | [https://www.redhat.com/security/data/metrics/][4] y [https://www.redhat.com/security/data/oval/v2/][5] | -| CentOS | 6, 7, 8 | dnf/yum/rpm | [https://www.redhat.com/security/data/metrics/][4] and [https://www.redhat.com/security/data/oval/v2/][5]y | +| CentOS | 6, 7, 8 | dnf/yum/rpm | [https://www.redhat.com/security/data/metrics/][4] y [https://www.redhat.com/security/data/oval/v2/][5] | | AlmaLinux | 8, 9 | dnf/yum/rpm | [https://errata.almalinux.org/][6] | | Rocky Linux | 8, 9 | dnf/yum/rpm | [https://download.rockylinux.org/pub/rocky/][7] | | Oracle Linux | 5, 6, 7, 8 | dnf/yum/rpm | [https://linux.oracle.com/security/oval/][8] | @@ -45,7 +49,7 @@ Las siguientes distribuciones Linux son compatibles con los análisis de hosts y ## Bibliotecas de aplicaciones -Los siguientes lenguajes y bibliotecas de aplicaciones son compatibles con los análisis de vulnerabilidades en contenedores e instancias Lambda: +Los siguientes lenguajes de aplicación y bibliotecas son compatibles con los análisis de vulnerabilidades en imágenes de contenedores, funciones de Lambda y contenedores que se ejecutan en hosts: | Lenguaje | Gestor de paquetes compatible | Archivos compatibles | |----------|---------------------------|----------------------------------------------------------------------| diff --git a/content/es/security/cloud_security_management/setup/agentless_scanning/deployment_methods.md b/content/es/security/cloud_security_management/setup/agentless_scanning/deployment_methods.md new file mode 100644 index 00000000000..69f6da5a244 --- /dev/null +++ b/content/es/security/cloud_security_management/setup/agentless_scanning/deployment_methods.md @@ -0,0 +1,56 @@ +--- +aliases: +- /es/security/cloud_security_management/agentless_scanning/deployment_methods +further_reading: +- link: /security/cloud_security_management/agentless_scanning + tag: Documentación + text: Cloud Security Agentless Scanning +title: Despliegue de Agentless Scanning +--- + +Hay dos maneras recomendadas maneras de desplegar escáneres sin Agent en tu entorno, ya sea usando escaneo entre cuentas, o escaneo en la misma cuenta. + +{{< tabs >}} +{{% tab "Escaneo entre cuentas" %}} + +Con el escaneo entre cuentas, los escáneres sin Agent se despliegan en varias regiones de una única cuenta en la nube. Los escáneres sin Agent desplegados tienen visibilidad en varias cuentas sin necesidad de realizar escaneos entre regiones, que en la práctica resultan costosos. + +Para grandes cuentas con 250 o más hosts, esta es la opción más rentable, ya que evita los escaneos entre regiones y reduce la fricción para gestionar tus escáneres sin Agent. Puedes crear una cuenta dedicada para tus escáneres sin Agent o elegir una ya existente. También se puede escanear la cuenta en la que se encuentran los escáneres sin Agen. + +El siguiente diagrama ilustra cómo funciona Agentless Scanning cuando se despliega en una cuenta central en la nube: + +{{< img src="/sensitive_data_scanner/setup/cloud_storage/central-scanner.png" alt="Diagrama de Agentless scanning que muestra el escáner sin agent desplegado en una cuenta central en la nube" width="90%" >}} + +{{% /tab %}} +{{% tab "Escaneo en la misma cuenta" %}} + +Con el análisis en la misma cuenta, se despliega un único escáner sin Agent por cuenta. Aunque esto puede suponer más costes, ya que requiere que cada escáner sin Agent realice escaneos entre regiones por cuenta, Datadog recomienda esta opción si no deseas conceder permisos entre cuentas. + +El siguiente diagrama ilustra cómo funciona Agentless Scanning cuando se despliega dentro de cada cuenta en la nube: + +{{< img src="/sensitive_data_scanner/setup/cloud_storage/scanner-in-each-account.png" alt="Diagrama de Agentless scanning que muestra el escáner sin agent desplegado en cada cuenta en la nube" width="90%" >}} + +[3]: https://app.datadoghq.com/security/csm/vm +[4]: /es/remote_configuration + +{{% /tab %}} +{{< /tabs >}} + +## Configuración recomendada +Agentless Scanning genera [costes adicionales del proveedor de servicios en la nube][2] por ejecutar escáneres en tus entornos en la nube. Para gestionar los costes a la vez que se garantizan escaneos fiables cada 12 horas, Datadog recomienda configurar Agentless Scanning con Terraform como plantilla predeterminada. Terraform permite desplegar un escáner por región, lo que evita la creación de redes entre regiones. +Para mejorar la eficacia del escáner, asegúrate de que tu configuración sigue estas directrices: + +- Despliegue de escáneres en una sola cuenta de AWS +- Despliegue de un escáner en cada región que tenga más de 250 hosts +- Despliegue de un escáner en cualquier región que contenga un almacén de datos si utiliza [Cloud Storage Scanning][1]. + +Datadog programa automáticamente los escaneos en la región adecuada para minimizar los costes entre regiones. + +**Nota**: Los datos escaneados reales permanecen en tu infraestructura, y solo la lista de paquetes recopilados, así como la información relacionada con hosts recopilados (nombres de host/instancias de EC2), se reportan de nuevo a Datadog. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/cloud_security_management/agentless_scanning#cloud-storage-scanning +[2]: /es/security/cloud_security_management/agentless_scanning#cloud-service-provider-cost \ No newline at end of file diff --git a/content/es/security/cloud_security_management/setup/agentless_scanning/enable.md b/content/es/security/cloud_security_management/setup/agentless_scanning/enable.md new file mode 100644 index 00000000000..c4c38e2c6b3 --- /dev/null +++ b/content/es/security/cloud_security_management/setup/agentless_scanning/enable.md @@ -0,0 +1,404 @@ +--- +aliases: +- /es/security/cloud_security_management/setup/agentless_scanning/quick_start +- /es/security/cloud_security_management/setup/agentless_scanning/cloudformation +- /es/security/cloud_security_management/setup/agentless_scanning/terraform +- /es/security/cloud_security_management/setup/agentless_scanning/azure_resource_manager +- /es/security/cloud_security_management/guide/agentless_aws_integration +- /es/security/cloud_security_management/guide/agentless_terraform +further_reading: +- link: /security/cloud_security_management/setup + tag: Documentación + text: Configuración de Cloud Security +- link: /security/cloud_security_management/agentless_scanning + tag: Documentación + text: Cloud Security Agentless Scanning +title: Activación de de Agentless Scanning +--- + +Agentless Scanning proporciona visibilidad de las vulnerabilidades que existen dentro de tu infraestructura en la nube, sin necesidad de instalar el Datadog Agent. Para obtener más información sobre las capacidades y el funcionamiento de Agentless Scanning, consulta la documentación [Agentless Scanning][12]. + +## Requisitos previos + +Antes de configurar Agentless Scanning, asegúrate de que se cumplen los siguientes requisitos previos: + +- **Configuración remota**: la [Configuración remota][3] es necesaria para permitir que Datadog envíe información a Agentless Scanner, como qué recursos en la nube escanear. +- **Claves de aplicación y de API**: + - Se necesita una clave de API con la configuración remota activada para que los escáneres informen de los resultados de los escaneos a Datadog. + - Se necesita una clave de aplicación con permisos **Integrations Manage** o **Org Management** para activar las funciones de escaneo a través de la API de Datadog. +- **Permisos en la nube**: la instancia de Agentless Scanning requiere permisos específicos para escanear hosts, imágenes de host, registros de contenedores y funciones. Estos permisos se aplican automáticamente como parte del proceso de instalación y se limitan estrictamente a los permisos mínimos requeridos para realizar los escaneos necesarios, siguiendo el principio de mínimo privilegio.

+ {{< collapse-content title="Permisos de escaneo de AWS" level="h5" >}} +

Permisos de escaneo:

+ +

Solo cuando está activado Sensitive Data Scanning (DSPM):

+ + {{< /collapse-content >}} + + {{< collapse-content title="Permisos de escaneo de Azure" level="h5" >}} + + {{< /collapse-content >}} + + {{< collapse-content title="Permisos de escaneo de GCP" level="h5" >}} + + {{< /collapse-content >}} + +## Instalación + +
La ejecución de escáneres sin agent conlleva costes adicionales. Para optimizar estos costes sin dejar de garantizar la fiabilidad de los escaneos cada 12 horas, Datadog recomienda configurar Agentless Scanning con Terraform como plantilla predeterminada.
+ +Para activar Agentless Scanning, utiliza uno de los siguientes flujos de trabajo: + +### Inicio rápido + +Diseñado para nuevos usuarios, el proceso de inicio rápido ofrece un paso de configuración eficiente para Cloud Security, permitiendo la monitorización inmediata de los recursos de AWS. Utiliza AWS CloudFormation para automatizar la configuración. + +{{% collapse-content title="Guía de configuración de inicio rápido" level="h4" id="quick-start-setup" %}} +Diseñado para nuevos usuarios, el proceso de inicio rápido ofrece un paso de configuración eficiente para Cloud Security, permitiendo la monitorización inmediata de los recursos de AWS. Utiliza AWS CloudFormation para automatizar la configuración, e incluye las características de Cloud Security: Misconfigurations, Identity Risks (CIEM) y Vulnerability Management. + +
Este artículo proporciona instrucciones para el proceso de inicio rápido para nuevos usuarios que utiliza AWS CloudFormation para configurar Agentless Scanning. +Para los usuarios existentes que deseen agregar una nueva cuenta de AWS o habilitar Agentless Scanning en una cuenta de AWS integrada existente, consulta las instrucciones de +Terraform o AWS CloudFormation.
+ +
La ejecución de escáneres sin agent conlleva costes adicionales. Para optimizar estos costes sin dejar de garantizar la fiabilidad de los escaneos cada 12 horas, Datadog recomienda configurar Agentless Scanning con Terraform como plantilla predeterminada.
+ +
Sensitive Data Scanner para el almacenamiento en la nube tiene Disponibilidad limitada. Solicita acceso para inscribirte.
+ +##### Instalación + +1. En la página de [Introducción a Cloud Security][4], haz clic en **Get Started with Cloud Security** (Iniciar con Cloud Security). +1. Haz clic en **Quick Start** (Inicio rápido). Aparecerá la página **Features** (Características), que muestra las características incluidas en el Inicio rápido de Agentless Scanning. +1. Haz clic en **Start Using Cloud Security** (Iniciar el uso de Cloud Security) para continuar. +1. Selecciona la región de AWS en la que deseas crear el stack tecnológico de CloudFormation. +1. Selecciona una clave de API que ya esté configurada para la Configuración remota. Si la clave de API que seleccionas no tiene habilitada la Configuración remota, ésta se habilitará automáticamente para dicha clave al seleccionarla. +1. Elige si deseas activar **Sensitive Data Scanner** para el almacenamiento en la nube. Esto cataloga y clasifica automáticamente los datos confidenciales en los recursos de Amazon S3. +1. Haz clic en **Launch CloudFormation Template** (Lanzar plantilla de CloudFormation). Se abrirá una nueva ventana con la pantalla de AWS CloudFormation. Utiliza la plantilla de CloudFormation proporcionada para crear un stack tecnológico. La plantilla incluye los permisos de IAM necesarios para desplegar y gestionar Agentless Scanner. + +##### Actualizar el stack tecnológico de CloudFormation + +Datadog recomienda actualizar el stack tecnológico de CloudFormation con regularidad para poder acceder a las nuevas funciones y correcciones de errores a medida que se publiquen. Para ello, sigue estos pasos: +1. Inicia sesión en tu consola de AWS y ve a la página de Stacks tecnológicos de CloudFormation. +2. Selecciona el stack tecnológico secundario de CloudFormation **DatadogIntegration-DatadogAgentlessScanning-...**, haz clic en **Update** (Actualizar) y, a continuación, en **Update nested stack** (Actualizar stack tecnológico anidado). +3. Haz clic en **Replace existing template** (Reemplazar plantilla existente). +4. En la siguiente URL de S3: `https://datadog-cloudformation-template-quickstart.s3.amazonaws.com/aws//datadog_agentless_scanning.yaml`, sustituye `` por la versión que se encuentra en [aws_quickstart/version.txt][14]. Pega esa URL en el campo **Amazon S3 URL** (URL de Amazon S3). +5. Pulsa **Next** (Siguiente) para avanzar por las siguientes páginas sin modificarlas y, a continuación, envía el formulario. + +{{% /collapse-content %}} + +
+ +### Terraform + +El [módulo Terraform Datadog Agentless Scanner][6] proporciona una configuración sencilla y reutilizable para instalar el escáner sin agent de Datadog para AWS, Azure y GCP. + +{{% collapse-content title="Guía de configuración de Terraform" level="h4" id="terraform-setup" %}} +Si ya has [configurado Cloud Security][10] y quieres añadir una nueva cuenta en la nube o habilitar [Agentless Scanning][1] en una cuenta en la nube integrada existente, puedes utilizar Terraform, [AWS CloudFormation][2] o [Azure Resource Manager][5]. Este artículo proporciona instrucciones detalladas para el enfoque de Terraform. + +
Si estás configurando Cloud Security por primera vez, puedes seguir el proceso de inicio rápido, que utiliza AWS CloudFormation para habilitar Agentless Scanning.
+ +{{< tabs >}} +{{% tab "New AWS account" %}} + +1. En la página [Cloud Security Setup][1] (Configuración de Cloud Security), haz clic en **Cloud Integrations > AWS** (Integraciones en la nube > AWS). +1. En la parte inferior de la sección de AWS, haz clic en **Add AWS accounts by following these steps** (Añadir cuentas de AWS siguiendo estos pasos). Aparecerá la pantalla **Add New AWS Account(s)** (Añadir nuevas cuentas de AWS). +1. En **Choose a method for adding your AWS account** (Elige un método para añadir tu cuenta de AWS), selecciona **Manually** (Manualmente). +1. Sigue las instrucciones para instalar el [módulo de Datadog Agentless Scanner][2]. +1. Selecciona la casilla **I confirm that the Datadog IAM Role has been added to the AWS Account** (Confirmo que la función de IAM de Datadog se ha añadido a la cuenta de AWS). +1. Introduce el **AWS Account ID** (ID de cuenta de AWS) y el **AWS Role Name** (Nombre del rol de AWS). +1. Haz clic en **Save** (Guardar). + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[2]: https://github.com/DataDog/terraform-datadog-agentless-scanner/blob/main/README.md + +{{% /tab %}} + +{{% tab "Cuenta existente AWS " %}} + +1. En la página [Cloud Security Setup][1] (Configuración de Cloud Security), haz clic en **Cloud Integrations > AWS** (Integraciones en la nube > AWS). +1. Haz clic en el botón **Edit scanning** (Editar escaneo) ({{< img src="security/csm/setup/edit-button.png" inline="true" style="width:24px;">}}) de la cuenta de AWS en la que deseas desplegar el Agentless Scanner. +1. La opción **Enable Resource Scanning** (Activar escaneo de recursos) ya debería estar activada. Si no lo está, activa **Enable Resource Scanning** (Activar escaneo de recursos). +1. En la sección **How would you like to set up Agentless Scanning?** (¿Cómo deseas configurar Agentless Scanning?), selecciona **Terraform**. +1. Sigue las instrucciones para instalar el [módulo de Datadog Agentless Scanner][2]. +1. Selecciona la casilla **I confirm the Terraform module is installed** (Confirmo que el módulo de Terraform está instalado). +1. Haz clic en **Done** (Listo). + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[2]: https://github.com/DataDog/terraform-datadog-agentless-scanner/blob/main/README.md + +{{% /tab %}} + +{{% tab "Existing Azure account" %}} + +1. En la página [Cloud Security Setup][1] (Configuración de Cloud Security), haz clic en **Cloud Integrations > Azure** (Integraciones en la nube > Azure). +1. Expande el inquilino que contiene la suscripción en la que deseas desplegar el Agentless Scanner. +1. Haz clic en el botón **Enable** (Habilitar) de la cuenta de Azure en la que deseas desplegar el escáner sin agent. +1. Activa **Vulnerability Scanning** (Escaneo de vulnerabilidades). +1. En la sección **How would you like to set up Agentless Scanning?** (¿Cómo deseas configurar Agentless Scanning?), selecciona **Terraform**. +1. Sigue las instrucciones para instalar el [módulo de Datadog Agentless Scanner][2]. +1. Haz clic en **Done** (Listo). + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[2]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner/tree/main/azure#readme + +{{% /tab %}} + +{{% tab "Existing GCP project" %}} + +1. En la página [Cloud Security Setup][1] (Configuración de seguridad en la nube), haz clic en **Cloud Integrations > GCP** (Integraciones de la nube > GCP). +1. Expande la cuenta que contiene el proyecto en el que deseas desplegar el escáner sin agent. +1. Haz clic en el botón **Enable** (Habilitar) para el proyecto de GCP en el que deseas desplegar el escáner sin agent. +1. Activa **Vulnerability Scanning** (Escaneo de vulnerabilidades). +1. Sigue las instrucciones para instalar el [módulo de Datadog Agentless Scanner][2]. +1. Haz clic en **Done** (Listo). + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[2]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner/tree/main/gcp#readme + +{{% /tab %}} +{{< /tabs >}} + +##### Actualizar la versión de los módulos de Terraform + +Actualiza la referencia `source` para los módulos del Agentless Scanner a la última versión. Puedes encontrar la última versión en [Versiones de GitHub](https://github.com/DataDog/terraform-module-datadog-agentless-scanner/releases). + +Para ver ejemplos de uso, consulta nuestro [repositorio de Github](https://github.com/DataDog/terraform-module-datadog-agentless-scanner/tree/main/examples). + +[1]: /es/security/cloud_security_management/agentless_scanning +[2]: #aws-cloudformation-setup +[5]: #azure-resource-manager-setup + +{{% /collapse-content %}} + +
+ +### AWS Cloudformation + +Utiliza la plantilla de AWS CloudFormation para crear un stack tecnológico de CloudFormation. La plantilla incluye los permisos de IAM necesarios para desplegar y gestionar Agentless Scanner. + +{{% collapse-content title="Guía de configuración de AWS CloudFormation" level="h4" id="aws-cloudformation-setup" %}} +Si ya has [configurado Cloud Security][10] y deseas añadir una nueva cuenta en la nube o habilitar [Agentless Scanning][1] en una cuenta integrada existente de AWS, puedes utilizar [Terraform][7] o AWS CloudFormation. Este artículo proporciona instrucciones detalladas para el enfoque de AWS CloudFormation. + +
Si estás configurando Cloud Security por primera vez, puedes seguir el proceso de inicio rápido, que también utiliza AWS CloudFormation para habilitar Agentless Scanning.
+ +
La ejecución de escáneres sin agent conlleva costes adicionales. Para optimizar estos costes sin dejar de garantizar la fiabilidad de los escaneos cada 12 horas, Datadog recomienda configurar Agentless Scanning con Terraform como plantilla predeterminada.
+ +
Sensitive Data Scanner para el almacenamiento en la nube tiene Disponibilidad limitada. Solicita acceso para inscribirte.
+ +##### Configurar AWS CloudFormation + +{{< tabs >}} +{{% tab "New AWS account" %}} + +1. En la página [Cloud Security Setup][1] (Configuración de Cloud Security), haz clic en **Cloud Integrations** > **AWS** (Integraciones en la nube > AWS). +1. En la parte inferior de la sección de AWS, haz clic en **Add AWS accounts by following these steps** (Añadir cuentas de AWS siguiendo estos pasos). Aparecerá la pantalla **Add New AWS Account(s)** (Añadir nuevas cuentas de AWS). +1. Selecciona la región de AWS en la que deseas crear el stack tecnológico de CloudFormation. +1. Selecciona una clave de API que ya esté configurada para la Configuración remota. Si la clave de API que seleccionas no tiene habilitada la Configuración remota, ésta se habilitará automáticamente para dicha clave al seleccionarla. +1. Elige si deseas activar **Sensitive Data Scanner** para el almacenamiento en la nube. Esto cataloga y clasifica automáticamente los datos confidenciales en los recursos de Amazon S3. +1. Haz clic en **Launch CloudFormation Template** (Lanzar plantilla de CloudFormation). Se abrirá una nueva ventana con la pantalla de AWS CloudFormation. Utiliza la plantilla de CloudFormation proporcionada para crear un stack tecnológico. La plantilla incluye los permisos de IAM necesarios para desplegar y gestionar Agentless Scanner. + +[1]: https://app.datadoghq.com/security/configuration/csm/setup + +{{% /tab %}} + +{{% tab "Cuenta existente AWS " %}} + +1. En la página [Cloud Security Setup][1] (Configuración de Cloud Security), haz clic en **Cloud Integrations** > **AWS** (Integraciones en la nube > AWS). +1. Haz clic en el botón **Edit** (Editar) ({{< img src="security/csm/setup/edit-button.png" inline="true" style="width:24px;">}}) de la cuenta de AWS en la que deseas desplegar Agentless Scanner. +1. Comprueba que **Enable Resource Scanning** (Activar escaneo de recursos) está activado. Si no lo está, activa la casilla **Enable Resource Scanning** (Activar escaneo de recursos) y sigue los pasos 3-7 de [Nueva cuenta de AWS][2]. +1. En la sección **Agentless Scanning**, activa **Enable Vulnerability Management (Host, Container and Lambda)** (Activar Vulnerability Management [Host, contenedor y Lambda]). +1. Elige si deseas **Enable Sensitive Data Scanner for Cloud Storage** (Habilitar Sensitive Data Scanner para almacenamiento en la nube). Esto cataloga y clasifica automáticamente los datos confidenciales en los recursos de Amazon S3. +1. Haz clic en **Done** (Listo). + +[1]: https://app.datadoghq.com/security/configuration/csm/setup +[2]: /es/security/cloud_security_management/setup/agentless_scanning/enable?tab=newawsaccount#set-up-aws-cloudformation + +{{% /tab %}} +{{< /tabs >}} + +##### Actualizar el stack tecnológico de CloudFormation + +Datadog recomienda actualizar el stack tecnológico de CloudFormation con regularidad para poder acceder a las nuevas funciones y correcciones de errores a medida que se publiquen. Para ello, sigue estos pasos: +1. Inicia sesión en tu consola de AWS y ve a la página de Stacks tecnológicos de CloudFormation. +2. Selecciona el stack tecnológico secundario de CloudFormation **DatadogIntegration-DatadogAgentlessScanning-...**, haz clic en **Update** (Actualizar) y, a continuación, en **Update nested stack** (Actualizar stack tecnológico anidado). +3. Haz clic en **Replace existing template** (Reemplazar plantilla existente). +4. En la siguiente URL de S3: `https://datadog-cloudformation-template-quickstart.s3.amazonaws.com/aws//datadog_agentless_scanning.yaml`, sustituye `` por la versión que se encuentra en [aws_quickstart/version.txt][14]. Pega esa URL en el campo **Amazon S3 URL** (URL de Amazon S3). +5. Pulsa **Next** (Siguiente) para avanzar por las siguientes páginas sin modificarlas y, a continuación, envía el formulario. +{{% /collapse-content %}} + +
+ +### Azure Resource Manager + +Utiliza la plantilla de Azure Resource Manager para desplegar el Agentless Scanner. La plantilla incluye las definiciones de rol necesarias para desplegar y gestionar los Agentless Scanner. + +{{% collapse-content title="Guía de configuración de Azure Resource Manager" level="h4" id="azure-resource-manager-setup" %}} +Si ya has [configurado Cloud Security][10] y deseas agregar una nueva cuenta de Azure o habilitar [Agentless Scanning][1] en una cuenta de Azure integrada existente, puedes utilizar [Terraform][7] o Azure Resource Manager. Este artículo proporciona instrucciones detalladas para el enfoque mediante Azure Resource Manager. + +
La ejecución de escáneres sin agent conlleva costes adicionales. Para optimizar estos costes sin dejar de garantizar la fiabilidad de los escaneos cada 12 horas, Datadog recomienda configurar Agentless Scanning con Terraform como plantilla predeterminada.
+ +{{< tabs >}} +{{% tab "New Azure account" %}} + +###### Configurar la integración Datadog Azure + +Sigue las instrucciones para configurar la [integración Datadog Azure][1]. + +{{% csm-agentless-azure-resource-manager %}} + +[1]: /es/integrations/guide/azure-manual-setup/?tab=azurecli +{{% /tab %}} + +{{% tab "Existing Azure account" %}} + +{{% csm-agentless-azure-resource-manager %}} + +{{% /tab %}} +{{< /tabs >}} + +{{% /collapse-content %}} + +## Configuración + +### Verificar tu configuración + +Una vez finalizada la configuración, puedes verificar que Agentless Scanning funciona correctamente consultando los resultados del escaneo en Datadog. Los resultados suelen aparecer una vez completado el primer ciclo de escaneo. + +Visualiza los resultados del escaneo en las siguientes ubicaciones: + +- **Para vulnerabilidades de hosts y contenedores**: [CSM Vulnerabilities Explorer][15]. Para ver solo las vulnerabilidades detectadas por Agentless Scanning, utiliza el filtro `origin:"Agentless scanner"` en la barra de búsqueda. +- **Para vulnerabilidades de Lambda**: [Code Security (SCA) Explorer][16] +- **Para hallazgos de datos confidenciales**: [Sensitive Data Scanner][17] + +### Excluir recursos de los análisis + +{{% csm-agentless-exclude-resources %}} + +## Desactivar Agentless scanning + +{{< tabs >}} +{{% tab "AWS" %}} +1. En la página [Cloud Security Setup][10] (Configuración de Cloud Security), haz clic en **Cloud Integrations** > **AWS** (Integraciones en la nube > AWS). +1. Si es necesario, utiliza filtros para encontrar la cuenta para la que deseas detener Agentless scanning. Haz clic en la cuenta para abrir el panel lateral que contiene su configuración. +1. En la pestaña **Features** (Características), haz clic en **Configure Agentless Scanning** (Configurar Agentless Scanning) o en **Manage** (Gestionar) para abrir el cuadro de configuración de Agentless Scanning. +1. En **How would you like to set up Agentless scanning?** (¿Cómo deseas configurar Agentless Scanning?), haz clic en **Terraform**. +1. En **Enable Features** (Activar funciones), junto a **Enable Agentless Vulnerability management** (Activar gestión de Agentless Vulnerability), cambia el conmutador a la posición de desactivado. +1. Haz clic en **Done** (Listo). + +[10]: https://app.datadoghq.com/security/configuration/csm/setup + +{{% /tab %}} + +{{% tab "Azure" %}} +1. En la página [Cloud Security Setup][10] (Configuración de Cloud Security), haz clic en **Cloud Integrations** > **Azure** (Integraciones en la nube > Azure). +1. Localiza el inquilino de tu suscripción, expande la lista de suscripciones e identifica la suscripción en la que quieres desactivar el análisis Agentless. +1. Junto a la etiqueta **Enabled** (Habilitado), haz clic en el botón **Edit** (Editar) ({{< img src="security/csm/setup/edit-button.png" inline="true" style="width:24px;">}}) para abrir el modal de Vulnerability Scanning. +1. Junto a **Vulnerability Scanning**, coloca el conmutador en la posición de desactivado. +1. Haz clic en **Done** (Listo). + +[10]: https://app.datadoghq.com/security/configuration/csm/setup + +{{% /tab %}} + +{{% tab "GCP" %}} +1. En la página [Cloud Security Setup][10] (Configuración de Cloud Security), haz clic en **Cloud Integrations** > **GCP** (Integraciones en la nube > GCP). +1. Expande la cuenta que contiene el proyecto en el que deseas desactivar Agentless Scanning. +1. Junto a la etiqueta **Enabled** (Habilitado), haz clic en el botón **Edit** (Editar) ({{< img src="security/csm/setup/edit-button.png" inline="true" style="width:24px;">}}) para abrir el modal de Vulnerability Scanning. +1. Junto a **Vulnerability Scanning**, coloca el conmutador en la posición de desactivado. +1. Haz clic en **Done** (Listo). + +[10]: https://app.datadoghq.com/security/configuration/csm/setup + +{{% /tab %}} +{{< /tabs >}} + +## Desinstalar Agentless Scanning + +{{< tabs >}} +{{% tab "Terraform" %}} +Para desinstalar Agentless Scanning, elimina el módulo del escáner de tu código de Terraform. Para obtener más información, consulta la documentación del [módulo de Terraform][9]. + +[9]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner/blob/main/README.md#uninstall + +{{% /tab %}} + +{{% tab "AWS CloudFormation" %}} +Para desinstalar Agentless Scanning, inicia sesión en tu consola de AWS y elimina el stack tecnológico de CloudFormation creado para Agentless Scanning. +{{% /tab %}} + +{{% tab "Azure Resource Manager" %}} +Para desinstalar Agentless Scanning, inicia sesión en tu cuenta de Azure. Si creaste un grupo de recursos dedicado para el escáner sin agent, elimina este grupo de recursos junto con las siguientes definiciones de rol de Azure: + - Rol del analizador Agentless de Datadog + - Rol delegado del analizador Agentless de Datadog + +Si no has utilizado un grupo de recursos dedicado, deberás eliminar manualmente los recursos del escáner, que pueden identificarse con las etiquetas `Datadog:true` y `DatadogAgentlessScanner:true`. +{{% /tab %}} +{{< /tabs >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/cloud_security_management/agentless_scanning +[2]: /es/integrations/amazon_web_services/ +[3]: /es/remote_configuration +[4]: https://app.datadoghq.com/security/csm/ +[6]: https://github.com/DataDog/terraform-module-datadog-agentless-scanner +[7]: #terraform-setup +[8]: mailto:success@datadoghq.com +[10]: https://app.datadoghq.com/security/configuration/csm/setup +[11]: #aws-cloudformation-setup +[12]: /es/security/cloud_security_management/agentless_scanning +[13]: #azure-resource-manager-setup +[14]: https://github.com/DataDog/cloudformation-template/blob/master/aws_quickstart/version.txt +[15]: https://app.datadoghq.com/security/csm/vm +[16]: https://app.datadoghq.com/security/code-security/sca +[17]: https://app.datadoghq.com/sensitive-data-scanner/storage \ No newline at end of file diff --git a/content/fr/cloudcraft/getting-started/create-your-first-cloudcraft-diagram.md b/content/fr/cloudcraft/getting-started/create-your-first-cloudcraft-diagram.md new file mode 100644 index 00000000000..59c1aa5ea7e --- /dev/null +++ b/content/fr/cloudcraft/getting-started/create-your-first-cloudcraft-diagram.md @@ -0,0 +1,94 @@ +--- +title: Créer votre premier diagramme cloud Live +--- + +Cloudcraft vous permet d'importer vos environnements cloud AWS et Azure sous forme de *diagrammes Live*. Cloudcraft effectue une rétro-ingénierie de l'architecture de votre compte cloud afin de générer automatiquement de nouveaux diagrammes ou d'améliorer les existants, ce qui vous fait gagner des heures, voire même des jours, de travail. + +
Si vous utilisez la nouvelle expérience Live de Cloudcraft, consultez plutôt la section Créer de meilleurs diagrammes : diagrammes Live et filtrage dans Cloudcraft.
+ +## Prérequis + +Avant de commencer, connectez votre compte cloud à Cloudcraft. + +- Pour les comptes AWS, consultez la section [Connecter votre compte AWS à Cloudcraft][1]. +- Pour les comptes Azure, consultez la section [Connecter votre compte Azure à Cloudcraft][2]. + +## Votre premier diagramme Live + +Pour analyser et visualiser votre architecture cloud, créez un nouveau blueprint. Un blueprint contient votre diagramme, un budget, ainsi que toute la documentation que vous associez aux composants individuels. + +1. Dans Cloudcraft, sélectionnez l'onglet **AWS** ou **Azure**, puis l'onglet **Live**. Ce guide se focalise avant tout sur les comptes AWS. Si vous disposez d'un compte Azure, le processus est similaire. + +Depuis l'onglet **Live**, vous pouvez sélectionner votre compte, analyser des régions, générer des dispositions et visualiser toutes les ressources de votre compte. + +{{< img src="cloudcraft/getting-started/create-your-first-cloudcraft-diagram/live-tab.png" alt="Un diagramme d'infrastructure Live dans Cloudcraft, avec les onglets AWS et Live mis en évidence." responsive="true" style="width:100%;">}} + +Si vous n'avez ajouté qu'un seul compte AWS à Cloudcraft, il est automatiquement sélectionné. Sinon, choisissez un compte dans la liste déroulante. + +2. Sélectionnez la région dans laquelle vous souhaitez effectuer l'analyse. Bien qu'il soit possible d'analyser et d'intégrer plusieurs régions au sein d'un seul diagramme, il est recommandé de commencer par une seule région. + +Sous le bouton **Scan now** se trouve un interrupteur permettant de basculer entre les options **Live** ou **Snapshot**. Cela indique à l'application le type de diagramme que vous souhaitez créer. Si vous sélectionnez **Live**, le diagramme est constamment mis à jour en fonction des informations de votre compte. Si vous sélectionnez **Snapshot**, une image fixe est créée : il n'y a alors pas de mise à jour automatique du diagramme. + +Pour cet exemple, vous allez utiliser l'option **Live**. Veillez à ce que l'interrupteur indique **Live**. L'icône en forme d'engrenage située à droite de l'option fournit des paramètres de personnalisation supplémentaires pour la mise à jour de votre diagramme. Pour les besoins de ce guide, il est recommandé de ne pas modifier les paramètres. + +{{< img src="cloudcraft/getting-started/create-your-first-cloudcraft-diagram/live-diagram-options.png" alt="Interface Cloudcraft interactive avec l'interrupteur défini sur Live pour la représentation des ressources dans un diagramme Live." responsive="true" style="width:100%;">}} + +3. Cliquez sur **Scan now** pour analyser les [composants AWS pris en charge][3] de votre compte. Le message **Scan complete** s'affiche à la fin de l'analyse. + +Une fois l'analyse terminée, l'interface affiche le bouton **Auto Layout** ainsi que tous les composants pris en charge de votre compte AWS. Vous pouvez dès à présent commencer à les ajouter manuellement. Toutefois, il est recommandé de laisser l'application gérer automatiquement leur disposition. + +Il existe deux façons de gérer automatiquement la disposition : + +- Avec la fonctionnalité **Auto Layout** +- Avec la fonctionnalité **Filtered Layout** + +La fonctionnalité **Auto Layout** est la plus simple à utiliser, car elle ajoute tous les composants au diagramme et représente leurs connexions et leurs relations. Par exemple, vous pouvez faire en sorte que la fonctionnalité **Auto Layout** affiche uniquement les instances EC2 et exclue tous les autres composants. + +Puisque vous utilisez un diagramme de type **Live**, si vous supprimez une instance EC2 de votre compte AWS, le changement est appliqué dans votre diagramme. + +La fonctionnalité **Filtered Layout** fournit une solution plus avancée et plus efficace pour schématiser votre architecture cloud, car elle vous permet de créer des diagrammes qui suivent un pattern. Par exemple, si vous avez de nombreuses ressources avec les tags `environment=production` et `environment=staging`, mais que vous souhaitez uniquement ajouter les composants en production au diagramme, vous pouvez appliquer un filtre basé sur `environment=production` afin d'inclure uniquement les composants qui possèdent cette combinaison précise de valeur et de clé. + +Si vos ressources ne sont pas taguées par votre fournisseur cloud, vous pouvez tout de même vous servir des filtres. Par exemple, pour créer un diagramme qui représente seulement les instances EC2 qui ne sont pas en cours d'exécution, vous pouvez utiliser le filtre `ec2 !running`. + +La vidéo suivante illustre à quel point la fonctionnalité **Filtered Layout** est utile. Notre équipe commerciale tague dans AWS plusieurs ressources liées à une démonstration de Cloudcraft avec la clé `Environment` et la valeur `Demo`. Pour visualiser le contenu de la démonstration ainsi que la relation entre chaque composant, l'équipe peut utiliser le filtre `Environment=demo` dans la barre de recherche juste en dessous de l'onglet **Live**. + +{{< img src="cloudcraft/getting-started/create-your-first-cloudcraft-diagram/filtered-layout-example-video.mp4" alt="Une vidéo de 11 secondes montrant un utilisateur créant un diagramme filtré dans Cloudcraft." video="true">}} + +Les composants avec `Environment=demo` sont affichés dans leurs VPC, sous-réseaux et groupes de sécurité correspondants, alors même que ces ressources ne possèdent pas de tels tags dans AWS. Bien qu'il possède les mêmes tags, le composant WAF est placé en dehors du VPC, car l'API AWS n'indique aucun lien entre WAF et le reste des composants. + +Les interconnexions entre les composants dépendent des services. Cloudcraft utilise toutes les API cloud disponibles pour découvrir les relations dans la mesure du possible. + +4. Pour continuer à configurer la fonctionnalité **Auto Layout**, sélectionnez **Auto Layout** sous l'interrupteur **Live/Snapshot**. + +Vous pouvez choisir dans la nouvelle boîte de dialogue qui s'affiche les composants AWS à inclure dans votre diagramme. La boîte de dialogue comprend également un menu déroulant **Options** vous permettant de choisir parmi les trois options suivantes : + +- Replace existing components +- Include existing components +- Leave existing components + +Ces options indiquent à l'application le comportement à adopter lorsque vous utilisez la fonctionnalité **Auto Layout** sur un diagramme comprenant déjà des composants. + +- Si vous sélectionnez l'option **Replace existing components**, tout le contenu existant du diagramme est remplacé par les nouveaux composants. +- Si vous sélectionnez l'option **Include existing components**, l'application crée automatiquement une disposition à partir de tous les composants de votre inventaire ainsi que des composants existants du diagramme. +- Si vous sélectionnez l'option **Leave existing components**, les composants du diagramme ne sont pas modifiés, mais l'application crée automatiquement une disposition pour les nouveaux composants. + +Puisque vous créez un nouveau diagramme, choisissez l'option **Replace existing components** dans le menu. Sélectionnez **Layout** pour ajouter automatiquement tous les composants de votre inventaire, ainsi que leurs connexions, au diagramme. + +{{< img src="cloudcraft/getting-started/create-your-first-cloudcraft-diagram/auto-layout-diagram.png" alt="Diagramme interactif d'une infrastructure AWS créé avec Cloudcraft, avec une disposition automatique des composants et des connexions visibles sur une grille en arrière-plan." responsive="true" style="width:100%;">}} + +Le diagramme est personnalisable. Par exemple, vous pouvez améliorer le rendu en utilisant des éléments de l'onglet **Design**, tout en observant les données en temps réel de chaque composant. + +Si vous sélectionnez un composant, la boîte de dialogue **Live feed** apparaît dans le coin inférieur gauche de votre écran. Elle affiche des informations en direct sur le composant que vous avez sélectionné. + +{{< img src="cloudcraft/getting-started/create-your-first-cloudcraft-diagram/live-feed.png" alt="Diagramme interactif d'une infrastructure cloud, avec une boîte de dialogue comprenant des informations sur les instances et le flux en direct. Des statuts et des détails sur les instances sont affichés." responsive="true" style="width:100%;">}} + +## Nouvelle expérience Live + +La nouvelle expérience Live améliorée qui est proposée par Cloudcraft fait partie d’une démarche continue d’amélioration de l’expérience utilisateur et de rationalisation du processus de schématisation des infrastructures cloud. Tous les utilisateurs peuvent bénéficier de cette fonctionnalité. Elle est proposée par défaut aux nouveaux utilisateurs. + +Pour en savoir plus, consultez la section [Créer de meilleurs diagrammes : diagrammes Live et filtrage dans Cloudcraft][4]. + +[1]: /fr/cloudcraft/getting-started/connect-aws-account-with-cloudcraft/ +[2]: /fr/cloudcraft/getting-started/connect-azure-account-with-cloudcraft/ +[3]: /fr/cloudcraft/faq/supported-aws-components/ +[4]: /fr/cloudcraft/getting-started/crafting-better-diagrams/ \ No newline at end of file diff --git a/content/ja/integrations/crest_data_systems_picus_security.md b/content/ja/integrations/crest_data_systems_picus_security.md new file mode 100644 index 00000000000..e05f394a5c4 --- /dev/null +++ b/content/ja/integrations/crest_data_systems_picus_security.md @@ -0,0 +1,134 @@ +--- +algolia: + subcategory: Marketplace インテグレーション +app_id: crest-data-systems-picus-security +app_uuid: 770decf4-4d68-442d-87fe-6e4b2ec3fed4 +assets: + dashboards: + Picus Security - Activity: assets/dashboards/crest_data_systems_picus_security_activity.json + Picus Security - Inventory: assets/dashboards/crest_data_systems_picus_security_inventory.json + Picus Security - Threats: assets/dashboards/crest_data_systems_picus_security_threats.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 35190397 + source_type_name: crest_data_systems_picus_security + logs: + source: crest_data_systems_picus_security +author: + homepage: https://crestdata.ai + name: Crest Data + sales_email: datadog-sales@crestdata.ai + support_email: datadog.integrations@crestdata.ai + vendor_id: crest-data-systems +categories: +- marketplace +- security +- network +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: crest_data_systems_picus_security +integration_id: crest-data-systems-picus-security +integration_title: Picus Security +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: crest_data_systems_picus_security +pricing: +- billing_type: flat_fee + includes_assets: true + product_id: picus-security + short_description: 月額の定額料金。 + unit_price: 95 +public_title: Picus Security +short_description: インベントリ データ用のログに加え、Picus Security の脅威ログとアクティビティ ログを収集します。 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Marketplace + - Category::Security + - Category::Network + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integration + - Submitted Data Type::Logs + configuration: README.md#Setup + description: インベントリ データ用のログに加え、Picus Security の脅威ログとアクティビティ ログを収集します。 + media: + - caption: Picus Security - Inventory + image_url: images/crest_data_systems_picus_security_inventory.png + media_type: image + - caption: Picus Security - Threats + image_url: images/crest_data_systems_picus_security_threats.png + media_type: image + - caption: Picus Security - Activity + image_url: images/crest_data_systems_picus_security_activity.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Picus Security + uninstallation: README.md#Uninstallation +--- + + + + +## 概要 +[**Picus Security**][1] は、組織の防御態勢を評価し、強化するためのセキュリティ検証プラットフォームです。現実世界のサイバー攻撃 (例: フィッシング、マルウェア) をシミュレーションし、ファイアウォール、侵入防止システム、エンドポイント セキュリティ ソリューションなどのセキュリティ コントロールを評価します。 + +- **Picus Security Datadog Integration** を利用すると、Picus Security のデータを Datadog にログとして収集し、可視化できます。収集されるデータは次のとおりです: + +- **インベントリ データ**: Picus Agents、Integrations、Integration Agents、Mitigation Devices、Simulations +- **脅威データ** +- **アクティビティ データ** + +このインテグレーションには、監視とセキュリティを強化するための [Datadog Cloud SIEM](https://docs.datadoghq.com/security/cloud_siem/) 検知ルールが、すぐ使える形で含まれています: + + 1. Picus Security で失敗したログイン試行が異常に多いことを検知 + 2. Picus Security で新規または不審なロケーションからのアクティビティを検知 + +### ダッシュボード +このインテグレーションには、すぐに利用できるダッシュボードが 3 つ含まれています: + +1. **Picus Security - Inventory**: ユーザーが指定した `interval_for_inventory` で収集した、Picus Agents、Integrations、Integration Agents、Mitigation Devices、Simulations のデータを可視化します。 +2. **Picus Security - Threats**: `min_collection_interval` で収集した脅威データを表示します。 +3. **Picus Security - Activity**: Picus Security Web Application 上で実行されたアクティビティを監視します。 + +## サポート + +サポートまたは機能リクエストをご希望の場合は、以下のチャンネルから Crest Data にお問い合わせください。 + +- サポート: [datadog.integrations@crestdata.ai][9] +- 営業: [datadog-sales@crestdata.ai][10] +- Web サイト: [crestdata.ai][11] +- よくあるご質問: [Crest Data Datadog Marketplace インテグレーションのよくあるご質問][3] + +[1]: https://app.picussecurity.com/ +[2]: https://docs.crestdata.ai/datadog-integrations-readme/Picus_Security.pdf +[3]: https://docs.crestdata.ai/datadog-integrations-readme/Crest_Data_Datadog_Integrations_FAQ.pdf +[4]: https://docs.datadoghq.com/ja/agent/?tab=Linux +[5]: https://docs.datadoghq.com/ja/agent/guide/agent-configuration-files/?tab=agentv6v7 +[6]: https://docs.datadoghq.com/ja/account_management/api-app-keys +[7]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/?tab=agentv6v7#start-stop-and-restart-the-agent +[8]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information +[9]: mailto:datadog.integrations@crestdata.ai +[10]: mailto:datadog-sales@crestdata.ai +[11]: https://www.crestdata.ai/ +[12]: https://docs.datadoghq.com/ja/security/cloud_siem/ + +--- +このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。 \ No newline at end of file diff --git a/content/ja/integrations/iocs_dmi.md b/content/ja/integrations/iocs_dmi.md new file mode 100644 index 00000000000..48fac8651e8 --- /dev/null +++ b/content/ja/integrations/iocs_dmi.md @@ -0,0 +1,203 @@ +--- +algolia: + subcategory: Marketplace インテグレーション +app_id: iocs-dmi +app_uuid: d546c16a-7623-42dd-8158-c98bb9656d81 +assets: + dashboards: + 'IO Connect Services Development: Optimizations': assets/dashboards/development_optimizations.json + 'IO Connect Services Execs: Cost Optimization': assets/dashboards/execs_cost_optimization.json + 'IO Connect Services Operations: APIs': assets/dashboards/operations_apis.json + 'IO Connect Services Operations: Infrastructure': assets/dashboards/operations_infrastructure.json + 'IO Connect Services Operations: Private spaces': assets/dashboards/private_spaces.json + 'IO Connect Services Operations: RTF Infrastructure': assets/dashboards/rtf_infrastructure.json + 'IO Connect Services Operations: RTF Resource Allocation and Usage': assets/dashboards/rtf_resource_allocation.json + 'IO Connect Services Operations: Resources allocation': assets/dashboards/operations_resources_allocation_and_usage.json + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: ioconnect.mulesoft.anypoint.access_management.organization.entitlements.vcores_production.assigned + metadata_path: metadata.csv + prefix: ioconnect.mulesoft.anypoint. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 10390703 + source_type_name: IO_Connect_DMI + monitors: + A CloudHubTM Mule® application has a message in VM queue: assets/monitors/cloudhub_queue_overload_monitor.json + A CloudHubTM Mule® application has very high CPU load: assets/monitors/cloudhub_cpu_load_monitor.json + A CloudHubTM Mule® application is running out of memory: assets/monitors/cloudhub_memory_usage_monitor.json + A CloudHubTM Mule® application is stopped: assets/monitors/cloudhub_app_stopped_monitor.json + A Mule® server is disconnected: assets/monitors/server_disconnected_monitor.json + An On-Premise Mule® application has very high CPU load: assets/monitors/onpremise_cpu_load_monitor.json + An On-Premise Mule® application is presenting an error: assets/monitors/onpremise_app_error_monitor.json + An On-Premise Mule® application is running out of memory: assets/monitors/onpremise_memory_usage_monitor.json + An On-Premise Mule® application is stopped: assets/monitors/onpremise_app_stopped_monitor.json + CPU Usage is high: assets/monitors/rtf_cpu_total_usage.json + Memory is low: assets/monitors/rtf_memory_usage.json + RTF Application is pending and temporarily inactive: assets/monitors/rtf_application_status_pending.json + RTF Application is stopped: assets/monitors/rtf_applications_has_been_stopped.json +author: + homepage: https://www.novacloud.io/ + name: Nova + sales_email: products.sales@novacloud.io + support_email: support_ddp@novacloud.io + vendor_id: ioconnect +categories: +- cloud +- marketplace +- network +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: iocs_dmi +integration_id: iocs-dmi +integration_title: Mule® +integration_version: '' +is_public: true +legal_terms: + eula: assets/EULA.pdf +manifest_version: 2.0.0 +name: iocs_dmi +pricing: +- billing_type: tag_count + includes_assets: true + metric: datadog.marketplace.ioconnect.iocs_dmi + product_id: dmi + short_description: Production と Sandbox vCore あたりの単価 + tag: vcoreid + unit_label: Production と Sandbox vCore + unit_price: 35 +public_title: Mule® +short_description: MuleSoft 製品からメトリクスを収集し、Datadog に送信します。 +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Cloud + - Category::Marketplace + - Category::Network + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + configuration: README.md#Setup + description: MuleSoft 製品からメトリクスを収集し、Datadog に送信します。 + media: + - caption: 'オペレーション: API ダッシュボード' + image_url: images/dmi_ops_apis.png + media_type: image + - caption: 'オペレーション: インフラストラクチャーダッシュボード' + image_url: images/dmi_ops_infra.png + media_type: image + - caption: 'オペレーション: リソース配分と使用状況のダッシュボード' + image_url: images/dmi_ops_allocation.png + media_type: image + - caption: '開発: 最適化ダッシュボード' + image_url: images/dmi_dev_optimization.png + media_type: image + - caption: 'エグゼクティブ: コスト最適化ダッシュボード' + image_url: images/dmi_exec_cost_optimization.png + media_type: image + - caption: 'オペレーション: プライベート スペースの概要' + image_url: images/dmi_ops_spaces1.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Mule® + uninstallation: README.md#Uninstallation +--- + + + + +## 概要 + +[Nova][1] は IT コンサルティング サービスを専門とする企業です。強みはクラウド テクノロジー、システム インテグレーション、ビッグ データ、サイバー セキュリティ、ソフトウェア エンジニアリングです。北米、ヨーロッパ、ラテン アメリカ 全域でサービスを提供しています。本社は NYC 都市圏にあり、メキシコのグアダラハラとスペインのマドリードにも拠点があります。 + +Datadog Mule® インテグレーションは、MuleSoft 製品からメトリクスを収集し、Datadog にアップロードする Agent ベースのインテグレーションです。 + +MuleSoft 製品からは、次のメトリクスを収集できます。 + +- CloudHub の Mule Runtime 環境、CloudHub 2.0 Runtime Fabric 環境、オンプレミスのスタンドアロン サーバー +- Anypoint Runtime Fabric +- Anypoint API Manager と API Analytics +- Anypoint Exchange +- Anypoint Access Management +- Object Store v2 + +これらのメトリクスを使えば、Datadog のすぐに使えるダッシュボードやモニターを活用できるほか、独自の可視化を作成することもできます。 + +### **Mule アプリケーションに必要な可観測性** + +#### オペレーション (_インフラストラクチャー、API、アラート、リソース割り当てダッシュボード_) + +- Mule サーバー、アプリケーション、API、その他の IT インフラストラクチャーの状態を監視します +- Mule インフラストラクチャーに関するアラートを受信して視覚化します +- 組織の Anypoint プラットフォームリソース割り当てに関する洞察を獲得します + +{{< img src="marketplace/iocs_dmi/images/dmi_ops_infra.png" alt="オペレーション: インフラストラクチャーダッシュボード" >}} + +{{< img src="marketplace/iocs_dmi/images/dmi_ops_apis.png" alt="オペレーション: API ダッシュボード" >}} + +{{< img src="marketplace/iocs_dmi/images/dmi_ops_allocation.png" alt="オペレーション: リソース配分と使用状況のダッシュボード" >}} + +#### 開発 (_最適化ダッシュボード_) + +- Mule アプリケーションのメモリ、CPU、ネットワークの問題をすばやく特定します +- Mule アプリケーションのボトルネックを見つけて、パフォーマンスを最適化します + +{{< img src="marketplace/iocs_dmi/images/dmi_dev_optimization.png" alt="開発: 最適化ダッシュボード" >}} + +#### エグゼクティブ (_コスト最適化とダウンタイムのダッシュボード_) + +- 使用済みおよび未使用のリソースに基づいて ROI を分析、予測します +- Mule 投資のシステムアップタイムを可視化します + +{{< img src="marketplace/iocs_dmi/images/dmi_exec_cost_optimization.png" alt="エグゼクティブ: コスト最適化ダッシュボード" >}} + +## 収集データ + +### メトリクス +{{< get-metrics-from-git "iocs_dmi" >}} + +### イベント + +Datadog Mule® インテグレーションには、イベントは含まれません。 + +## サポート + +Datadog Mule® Integration の設定手順については、[前提条件][12] と [インストール][13] をご確認ください。 + +サポートや機能リクエストは、次の窓口から Nova Support へご連絡ください: + +- 営業: [products.sales@novacloud.io][9] +- 技術サポート: [support_ddp@novacloud.io][14] + + +[1]: https://www.novacloud.io +[2]: https://docs.datadoghq.com/ja/agent/autodiscovery/integrations +[3]: https://github.com/DataDog/integrations-core/blob/master/iocs_dmi/datadog_checks/iocs_dmi/data/conf.yaml.example +[4]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/?tab=agentv6v7#agent-information +[6]: https://github.com/DataDog/integrations-core/blob/master/iocs_dmi/metadata.csv +[7]: https://docs.datadoghq.com/ja/developers/integrations/new_check_howto/?tab=configurationfile#installing +[8]: https://docs.datadoghq.com/ja/developers/guide/custom-python-package/?tab=linux +[9]: mailto:products.sales@novacloud.io +[10]: https://app.datadoghq.com/account/settings#agent/overview +[11]: https://github.com/DataDog/integrations-core/blob/master/iocs_dmi/service_checks.json +[12]: https://docs.ioconnectservices.com/dmi/systemarchitecture +[13]: https://docs.ioconnectservices.com/dmi/installation +[14]: mailto:support_ddp@novacoud.io + +--- +このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。 \ No newline at end of file diff --git a/content/ja/integrations/iocs_dmi4apm.md b/content/ja/integrations/iocs_dmi4apm.md new file mode 100644 index 00000000000..1f60009cc8f --- /dev/null +++ b/content/ja/integrations/iocs_dmi4apm.md @@ -0,0 +1,133 @@ +--- +algolia: + subcategory: Marketplace インテグレーション +app_id: iocs-dmi4apm +app_uuid: 29b4a34d-e40d-4975-ba55-4fc019685959 +assets: + integration: + auto_install: false + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: iocs_dmi4apm.ioconnect.dmi4apm.agent + metadata_path: metadata.csv + prefix: iocs_dmi4apm. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 9762172 + source_type_name: iocs_dmi4apm +author: + homepage: https://www.novacloud.io/ + name: Nova + sales_email: products.sales@novacloud.io + support_email: support_ddp@novacloud.io + vendor_id: ioconnect +categories: +- cloud +- marketplace +- developer tools +custom_kind: integration +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: iocs_dmi4apm +integration_id: iocs-dmi4apm +integration_title: Mule® for APM +integration_version: '' +is_public: true +legal_terms: + eula: assets/eula.pdf +manifest_version: 2.0.0 +name: iocs_dmi4apm +pricing: +- billing_type: tag_count + includes_assets: false + metric: datadog.marketplace.ioconnect.dmi4apm.agent + product_id: dmi4apm + short_description: ホスト単位の課金 + tag: hosts-unmute-a-host + unit_label: ホスト + unit_price: 50 +public_title: Mule® Integration for APM +short_description: アプリケーション パフォーマンス モニタリング向け Datadog MuleSoft インテグレーション +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Cloud + - Category::Marketplace + - Category::Developer Tools + - Offering::Integration + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Traces + configuration: README.md#Setup + description: アプリケーション パフォーマンス モニタリング向け Datadog MuleSoft インテグレーション + media: + - caption: 'DMI4APM: ログのトレース' + image_url: images/dmi_apm_logs.png + media_type: image + - caption: 'DMI4APM: トレースの詳細' + image_url: images/dmi_apm_trace.png + media_type: image + - caption: 'DMI4APM: トレースリスト' + image_url: images/dmi_apm_traces.png + media_type: image + - caption: 'DMI4APM: 分散スパン' + image_url: images/dmi_distributed_span.png + media_type: image + - caption: 'DMI4APM: 分散スパン トレース' + image_url: images/dmi_distributed_trace.png + media_type: image + - caption: 'DMI4APM: スパン リスト' + image_url: images/dmi_distributed.png + media_type: image + overview: README.md#Overview + support: README.md#Support + title: Mule® Integration for APM + uninstallation: README.md#Uninstallation +--- + + + + +## 概要 +MuleSoft は、インテグレーションおよび API 管理ソリューションを提供するソフトウェア企業です。主力製品の Anypoint Platform は、オンプレミスとクラウドの環境をまたいでアプリケーション、データ、デバイスを接続できるインテグレーション プラットフォームです。 + +このインテグレーションは MuleSoft アプリケーションから APM トレースを取得し、アプリケーションのパフォーマンスや問題点に関するインサイトを提供します。APM トレースにより、開発チームと運用チームは、このインテグレーションのパフォーマンスを深く可視化し、ボトルネックやエラー、パフォーマンス低下をリアルタイムで特定できます。 + +### **Datadog Mule 4 コネクタを使用して Mule アプリケーションをインスツルメントします** + + +Datadog APM と併用できる Datadog Connector for Mule 4 を使うと、すぐに使えるパフォーマンス ダッシュボードで可視性を高められます。 + +スパンを使用して、フロー内の操作のパフォーマンスを必要に応じて詳細に測定します。 + +また、トランザクション内で生成されたログを 1 つのトレースに関連付けて、パフォーマンスの最適化またはトラブルシューティングの範囲を絞り込みます。 + + +## サポート +Datadog Mule® Integration for APM の設定手順については、[前提条件とインストール][7] と [コネクター ドキュメント][8] をご確認ください。 + +サポートや機能リクエストは、次の窓口から Nova Support へご連絡ください: + +- 営業: [products.sales@novacloud.io][2] +- 技術サポート: [support_ddp@novacloud.io][6] + +[1]: https://app.datadoghq.com/account/settings#agent/overview +[2]: mailto:products.sales@novacloud.io +[3]: https://docs.datadoghq.com/ja/agent/autodiscovery/integrations +[4]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#restart-the-agent +[5]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/?tab=agentv6v7#agent-information +[6]: mailto:support_ddp@novacloud.io +[7]: https://docs.ioconnectservices.com/dmi4apm/apm-datadog-integration +[8]: https://docs.ioconnectservices.com/dmi4apm/apm-global-elements + +--- +このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。 \ No newline at end of file diff --git a/content/ja/integrations/isdown_isdown.md b/content/ja/integrations/isdown_isdown.md index aeb2f6fb22c..602b3156fb5 100644 --- a/content/ja/integrations/isdown_isdown.md +++ b/content/ja/integrations/isdown_isdown.md @@ -11,7 +11,7 @@ author: support_email: support@isdown.app vendor_id: isdown categories: -- マーケットプレイス +- marketplace - notifications custom_kind: integration dependencies: [] @@ -30,10 +30,10 @@ pricing: - billing_type: flat_fee includes_assets: true product_id: isdown - short_description: Monitor outages of all your external services in Datadog - unit_price: 89 + short_description: Datadog で最大 70 社のクラウド ベンダーのステータス ページを監視します。リアルタイムの障害情報とヘルス ダッシュボードを提供します。 + unit_price: 99 public_title: IsDown -short_description: Connect the status pages from all your cloud providers to Datadog +short_description: Datadog でクラウド ベンダーのステータス ページをまとめて接続/監視できます。リアルタイムの障害情報とヘルス ダッシュボードを提供します。 supported_os: - linux - windows @@ -48,9 +48,9 @@ tile: - Category::Marketplace - Category::Notifications configuration: README.md#Setup - description: Connect the status pages from all your cloud providers to Datadog + description: Datadog でクラウド ベンダーのステータス ページをまとめて接続/監視できます。リアルタイムの障害情報とヘルス ダッシュボードを提供します。 media: - - caption: IsDown と Datadog フロー + - caption: IsDown と Datadog Flow image_url: images/isdown_datadog_flow.jpg media_type: image - caption: IsDown ダッシュボード @@ -73,29 +73,29 @@ tile: ## 概要 -[IsDown][1] is a status page aggregator and outage monitoring tool that helps businesses monitor their dependencies. Using IsDown, provide your team with real-time monitoring and instant notifications for outages in all your tools and cloud providers. IsDown monitors more than 3100 status pages. +[IsDown][1] は、依存先サービスを監視したい企業向けの、ステータス ページ集約/障害監視ツールです。IsDown を利用すると、利用中のツールやクラウド プロバイダー全体に対して、リアルタイムのベンダー監視と障害の即時通知をチームに提供できます。IsDown は 3100 を超えるステータス ページを監視しています。 -Through the [out-of-the-box integration][3], you can receive alerts from third-party dependencies in Datadog, monitor business critical services, and understand the frequency of outages all within the out-of-the-box dashboard. +[すぐに使えるインテグレーション][3] を通じて、Datadog でサード パーティーの依存サービスからのアラートを受信し、ビジネス上重要なサービスを監視しつつ、障害の発生頻度をすぐに使えるダッシュボード上で把握できます。 -### All-in-one monitoring -Monitor all official status pages and your own services in Datadog, streamlining the process and keeping your team updated in real-time on essential service health. +### 一元的な監視 +公式のステータス ページと自社サービスを Datadog でまとめて監視し、運用を効率化しながら、重要サービスの健全性をリアルタイムでチームに共有できます。 -### Instant outage alerts -IsDown instantly alerts when there is an outage, enabling quicker response times and reducing the downtime's impact on your business operations. +### 即時の障害アラート +障害が発生すると IsDown が即座にアラートを通知するため、対応を迅速化でき、ダウンタイムによる業務への影響を抑えられます。 -### Customizable monitoring -Monitor only the vital services and components of third party dependencies, ensuring you receive relevant outage notifications and avoid unneeded alerts. +### カスタマイズ可能な監視 +サード パーティー依存サービスのうち、重要なサービス/コンポーネントだけを監視することで、必要な障害通知だけを受け取り、不要なアラートを避けられます。 -### 10 minute setup -Seamlessly integrate with Datadog. Choose the services to monitor, connect to Datadog, and immediately have access to all your cloud providers' statuses and outages. +### 10 分でセットアップ +Datadog とシームレスに連携できます。監視対象のサービスを選択し Datadog に接続するだけで、利用中のクラウド プロバイダーのステータスや障害情報にすぐアクセスできます。 -Check out the [IsDown Datadog integration][4] for more information. +詳細は [IsDown と Datadog のインテグレーション][4] を参照してください。 -## Agent +## サポート サポートまたは機能リクエストをご希望の場合は、以下のいずれかのチャンネルから IsDown にお問い合わせください。 -- Email: [support@isdown.app][2] +- メール: [support@isdown.app][2] - Web アプリのチャットサポート @@ -103,5 +103,6 @@ Check out the [IsDown Datadog integration][4] for more information. [2]: mailto:support@isdown.app [3]: https://app.datadoghq.com/integrations/isdown [4]: https://isdown.app/datadog-integration + --- -This application is made available through the Marketplace and is supported by a Datadog Technology Partner. Click Here to purchase this application. +このアプリケーションは Marketplace から入手でき、Datadog テクノロジーパートナーによってサポートされています。利用するには、Marketplace でこのアプリケーションを購入してください。 \ No newline at end of file diff --git a/content/ja/integrations/kubernetes_cluster_autoscaler.md b/content/ja/integrations/kubernetes_cluster_autoscaler.md new file mode 100644 index 00000000000..c61a44b8617 --- /dev/null +++ b/content/ja/integrations/kubernetes_cluster_autoscaler.md @@ -0,0 +1,187 @@ +--- +app_id: kubernetes-cluster-autoscaler +app_uuid: 3a3fc186-af02-48e5-8b68-ee9ef37ea566 +assets: + dashboards: + Kubernetes Cluster Autoscaler Overview: assets/dashboards/kubernetes_cluster_autoscaler_overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: kubernetes_cluster_autoscaler.nodes.count + metadata_path: metadata.csv + prefix: kubernetes_cluster_autoscaler. + process_signatures: + - cluster-autoscaler + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 14391189 + source_type_name: Kubernetes Cluster Autoscaler + logs: + source: kubernetes_cluster_autoscaler + monitors: + Kubernetes Cluster Autoscaler is not safe to autoscale: assets/monitors/KCA_not_safe_to_autosclae.json + Kubernetes Cluster Autoscaler reporting errors: assets/monitors/KCA_unused_nodes_forecast.json + Kubernetes Cluster Autoscaler too many unused nodes forecast: assets/monitors/KCA_reporting_errors.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- metrics +- kubernetes +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/README.md +display_on_public_website: true +draft: false +git_integration_title: kubernetes_cluster_autoscaler +integration_id: kubernetes-cluster-autoscaler +integration_title: Kubernetes Cluster Autoscaler +integration_version: 2.2.0 +is_public: true +manifest_version: 2.0.0 +name: kubernetes_cluster_autoscaler +public_title: Kubernetes Cluster Autoscaler +short_description: Kubernetes Cluster Autoscaler 用インテグレーション +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Category::Metrics + - Category::Kubernetes + - Submitted Data Type::Metrics + - Offering::Integration + configuration: README.md#Setup + description: Kubernetes Cluster Autoscaler 用インテグレーション + media: [] + overview: README.md#Overview + support: README.md#Support + title: Kubernetes Cluster Autoscaler +--- + + + + +## 概要 + +このチェックは Datadog Agent を通じて [Kubernetes Cluster Autoscaler][1] を監視します。 + +## セットアップ + +ホストで実行されている Agent 用にこのチェックをインストールおよび構成する場合は、以下の手順に従ってください。コンテナ環境の場合は、[オートディスカバリーのインテグレーションテンプレート][2]のガイドを参照してこの手順を行ってください。 + +### インストール + +Kubernetes Cluster Autoscaler チェックは [Datadog Agent][3] パッケージに含まれています (Agent >= 7.55.x)。 +サーバー側で追加のインストールは不要です。 + +### 設定 + +1. Agent の設定ディレクトリのルートにある `conf.d/` フォルダー内の `kubernetes_cluster_autoscaler.d/conf.yaml` ファイルを編集し、kubernetes_cluster_autoscaler のパフォーマンス データ収集を開始します。利用可能な設定オプションは、[サンプル kubernetes_cluster_autoscaler.d/conf.yaml][4] を参照してください。 + +2. [Agent を再起動します][5]。 + +#### メトリクスの収集 + +Prometheus 形式のメトリクスが `kubernetes_cluster_autoscaler` クラスターで公開されていることを確認してください。 +Agent がメトリクス収集を開始するには、`kubernetes_cluster_autoscaler` Pod にアノテーションを付与する必要があります。 + +[Kubernetes Cluster Autoscaler][6] には、ポート `8085` でアクセスできるメトリクス エンドポイントと livenessProbe エンドポイントがあります。これらのエンドポイントは `/metrics` と `/health-check` 配下にあり、スケーリング操作中のクラスターの状態を把握するうえで役立つ情報を提供します。 + +**注**: デフォルト ポートを変更するには `--address` フラグを使用します。 + +Cluster Autoscaler がメトリクスを公開するように設定するには、次を実施します: + +1. Cluster Autoscaler のデプロイメントで `/metrics` ルートへのアクセスを有効化し、ポート `8085` を公開します: + +``` +ports: +--name: app +containerPort: 8085 +``` + +b) 次のアノテーションを Cluster Autoscaler サービスに追加し、Prometheus がスクレイプできるようにします: +``` +prometheus.io/scrape: true +``` + +**注**: 一覧にあるメトリクスは、利用可能な場合にのみ収集できます。メトリクスの中には、特定のアクションが実行されたときにだけ生成されるものがあります。 + +`kubernetes_cluster_autoscaler` チェックの設定に必要なパラメータは次のとおりです: + +* CONTAINER_NAME + クラスター オートスケーラー コントローラーのコンテナ名。 +* `openmetrics_endpoint` + このパラメータには、Prometheus 形式のメトリクスが公開されている場所を指定します。デフォルト ポートは `8085` です。別のポートを使う場合は `METRICS_PORT` [環境変数][7] を使用してください。コンテナ環境では、[ホスト自動検出][2] のために `%%host%%` を使用します。 + +```yaml +apiVersion: v1 +kind: Pod +# (...) +metadata: + name: '' + annotations: + ad.datadoghq.com/.checks: | + { + "kubernetes_cluster_autoscaler": { + "init_config": {}, + "instances": [ + { + "openmetrics_endpoint": "http://%%host%%:8085/metrics" + } + ] + } + } + # (...) +spec: + containers: + - name: '' +# (...) +``` + + +### 検証 + +[Agent の status サブコマンドを実行][8] し、Checks セクションに `kubernetes_cluster_autoscaler` が表示されることを確認します。 + +## 収集データ + +### メトリクス +{{< get-metrics-from-git "kubernetes_cluster_autoscaler" >}} + + +### イベント + +Kubernetes Cluster Autoscaler インテグレーションにはイベントは含まれません。 + +### サービス チェック +{{< get-service-checks-from-git "kubernetes_cluster_autoscaler" >}} + + +## トラブルシューティング + +ご不明な点は、[Datadog のサポートチーム][11]までお問合せください。 + + +[1]: https://docs.datadoghq.com/ja/integrations/kubernetes_cluster_autoscaler/ +[2]: https://docs.datadoghq.com/ja/agent/kubernetes/integrations/ +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/datadog_checks/kubernetes_cluster_autoscaler/data/conf.yaml.example +[5]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[6]: https://github.com/kubernetes/autoscaler/blob/master/cluster-autoscaler/FAQ.md#how-can-i-monitor-cluster-autoscaler +[7]: https://kubernetes.io/docs/tasks/inject-data-application/define-environment-variable-container/ +[8]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information +[9]: https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/metadata.csv +[10]: https://github.com/DataDog/integrations-core/blob/master/kubernetes_cluster_autoscaler/assets/service_checks.json +[11]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/security/application_security/threats/attacker_fingerprint.md b/content/ja/security/application_security/threats/attacker_fingerprint.md new file mode 100644 index 00000000000..7077e8a6e1e --- /dev/null +++ b/content/ja/security/application_security/threats/attacker_fingerprint.md @@ -0,0 +1,73 @@ +--- +disable_toc: false +further_reading: +- link: /security/application_security/security_signals/attacker_clustering + tag: ドキュメント + text: Attacker Clustering +title: 攻撃者フィンガープリント +--- + +このトピックでは、IP アドレスだけに頼らず攻撃者を識別するための **Datadog Attacker Fingerprint** 機能について説明します。 + +## 概要 + +Datadog Attacker Fingerprint は、IP アドレスを超えた手掛かりで攻撃者を識別します。サービスで App and API Protection (AAP) を有効にすると、攻撃やログイン試行時に Datadog の攻撃者フィンガープリントが自動的に算出され、トレースに付与されます。 + +Datadog の攻撃者フィンガープリントは、次のフラグメントで構成されます: +* エンドポイント識別子 +* セッション識別子 +* ヘッダー識別子 +* ネットワーク識別子 + +各フラグメントは、特定のヘッダーやクエリ / ボディのフィールドを参照し、Cookie 値やクエリ パラメータをハッシュ化することで、リクエストの特徴を特定します。 + +## 攻撃者フィンガープリント フラグメントの詳細 + +### エンドポイント識別子 + +エンドポイント識別子フラグメントは、特定のエンドポイントと、その呼び出しに使われたパラメータに関する情報を提供します。このフラグメントで使用する情報は次のとおりです: +* HTTP メソッド +* リクエスト URI のハッシュ +* クエリ パラメータ フィールドのハッシュ +* ボディ フィールドのハッシュ + +### セッション識別子 + +セッション識別子フラグメントは、セッション情報および認証済みかどうかに基づいてユーザーを追跡します。このフラグメントで使用する情報は次のとおりです: +* ユーザー ID のハッシュ +* Cookie フィールドのハッシュ +* Cookie 値のハッシュ +* セッション ID のハッシュ + +これらのフィールドを 1 つも取得できない場合は、有用な情報にならないため、このフラグメントは省略されます。 + +### ヘッダー識別子 + +ヘッダー識別子フラグメントは、リクエストで使用されたヘッダーに関する情報を提供します。このフラグメントでは次の情報を使用します: +* 既知のヘッダーの有無: Referer、Connection、Accept-Encoding など +* ユーザー エージェントのハッシュ +* 未知のヘッダー数 +* 未知のヘッダーのハッシュ。未知のヘッダー一覧からは、すべての XFF ヘッダー、Cookie、x-datadog ヘッダーを除外します。 + + +### ネットワーク識別子 + +ネットワーク識別子フラグメントは、リクエストのネットワーク部分に関する情報を提供します。このフラグメントでは次の情報を使用します: +* 呼び出し元がクライアント IP を判定するために参照する XFF ヘッダー内の IP 数 +* 既知の XFF ヘッダーがあるかどうか + + +## 攻撃者フィンガープリントの使い方 + +目的の fingerprint フィールドで絞り込むことで、フラグメントを AAP Traces explorer のフィルターとして利用できます。例: `@appsec.fingerprint.header.ua_hash:e462fa45` を指定すると、同じユーザー エージェントのハッシュを持つリクエストだけに絞り込めます。 + +{{< img src="security/application_security/threats/attacker-fingerprint-trace.png" alt="AAP トレースのスクリーンショット (トレースのサイド パネルに攻撃者フィンガープリントを表示)" >}} + +攻撃者フィンガープリントは [Attacker Clustering][1] 機能で使用されます。トラフィックのかなりの割合が同じフィンガープリント属性を示す場合、Attacker Clustering で共通の攻撃属性があるものとして表示されます。 + + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /ja/security/application_security/security_signals/attacker_clustering \ No newline at end of file diff --git a/content/ja/software_catalog/set_up/_index.md b/content/ja/software_catalog/set_up/_index.md new file mode 100644 index 00000000000..5654aa3ab87 --- /dev/null +++ b/content/ja/software_catalog/set_up/_index.md @@ -0,0 +1,54 @@ +--- +aliases: +- /ja/tracing/software_catalog/setup +- /ja/software_catalog/setup +- /ja/tracing/service_catalog/setup +- /ja/service_catalog/setup +title: Software Catalog をセットアップ +--- + +Datadog Software Catalog は、サービス、データストア、キュー、フロントエンド アプリケーション、API などのソフトウェア コンポーネントを追跡/管理するための集中レジストリです。チーム、オンコール、ランブック、ソース コード リンクなどのコンポーネント属性は、Kubernetes 形式の YAML 設定ファイルである [エンティティ定義][1] で管理します。 + +Software Catalog の [自動検出][2] 機能により、Datadog の APM、USM、RUM 製品を利用している既存ユーザーの場合、監視対象のコンポーネントがあらかじめカタログに登録されます。自動登録された Software Catalog を拡張するには、監視対象外のコンポーネントを表すエンティティ定義を作成して追加します。 + +APM、USM、RUM の利用状況に応じて、次のセットアップ手順のいずれかに進んでください。 + +## Datadog を初めて使う場合 + +{{< whatsnext desc=" " >}} + {{< nextlink href="/software_catalog/set_up/new_to_datadog#build-your-first-software-catalog" >}}最初の Software Catalog を構築する{{< /nextlink >}} + {{< nextlink href="/software_catalog/set_up/new_to_datadog#import-entries-from-backstage" >}}Backstage からエントリをインポートする{{< /nextlink >}} + {{< nextlink href="/software_catalog/set_up/new_to_datadog#import-entries-from-servicenow" >}}ServiceNow からエントリをインポートする{{< /nextlink >}} +{{< /whatsnext >}} + +## 既存の Datadog ユーザー + +{{< whatsnext desc=" " >}} + {{< nextlink href="/software_catalog/set_up/existing_datadog_user#automatic-discovery-with-apm-usm-and-rum" >}}APM、USM、RUM ユーザー{{< /nextlink >}} + {{< nextlink href="/software_catalog/set_up/existing_datadog_user#discover-infrastructure-and-logs-services" >}}Infrastructure と Logs ユーザー{{< /nextlink >}} +{{< /whatsnext >}} + +## ロール ベースのアクセス制御と権限 + +一般的な情報については、[ロール ベース アクセス制御][2] と [ロール権限][3] を参照してください。 +### 読み取り権限 + +Software Catalog の読み取り権限により、Software Catalog のデータを参照できるようになり、次の機能が利用できます: +- Software Catalog 一覧 +- Discover UI +- サービス定義エンドポイント: `/api/v2/services/definition/` + +この権限は、**Datadog Read Only Role** および **Datadog Standard Role** でデフォルトで有効になっています。 + +### 書き込み権限 + +Software Catalog の書き込み権限により、Software Catalog のデータを変更できます。次の機能には書き込み権限が必要です: +- `POST /api/v2/services/definitions` エンドポイントを使ったサービス定義の挿入または更新 +- `DELETE /api/v2/services/definition/` エンドポイントを使ったサービス定義の削除 +- Discover Services UI でオンボーディングプロセスを完了する +- UI でのサービスメタデータの更新 + +この権限は、**Datadog Admin Role** および **Datadog Standard Role** でデフォルトで有効になっています。 + +[1]: /ja/software_catalog/service_definitions/ +[2]: /ja/software_catalog/set_up/existing_datadog_user/#automatic-discovery-with-apm-usm-and-rum \ No newline at end of file diff --git a/content/ja/software_catalog/set_up/existing_datadog_user.md b/content/ja/software_catalog/set_up/existing_datadog_user.md new file mode 100644 index 00000000000..322c745bede --- /dev/null +++ b/content/ja/software_catalog/set_up/existing_datadog_user.md @@ -0,0 +1,63 @@ +--- +aliases: +- /ja/software_catalog/import_entries_dd/ +- /ja/software_catalog/enrich_default_catalog/import_entries_dd +- /ja/service_catalog/import_entries_dd/ +- /ja/service_catalog/enrich_default_catalog/import_entries_dd +- /ja/service_catalog/customize/import_entries_dd +- /ja/software_catalog/customize/import_entries_dd +further_reading: +- link: /tracing/software_catalog/setup/ + tag: ドキュメント + text: Software Catalog のセットアップ +title: Software Catalog でコンポーネントを検出 +--- + +Software Catalog が Datadog Application Performance Monitoring (APM)、Universal Service Monitoring (USM)、Real User Monitoring (RUM)、インフラストラクチャ メトリクス、ログからサービスを検出する仕組みを学びます。 + +## APM、USM、RUM による自動検出 + +Datadog Software Catalog には、[APM][5] によって検出されたエントリ、[Universal Service Monitoring][6] の eBPF ベースの自動検出、そして RUM アプリケーションで検出されたエントリがあらかじめ登録されています。 + +自動検出されたコンポーネントはすべて、Software Catalog 内の Component Selector に表示されます。 + +APM と USM は、次のコンポーネント タイプを自動検出します: `service`、`datastore`、`queue`、`external providers`、`inferred services`、`endpoints`。APM SDK は、インスツルメント済みサービスの依存関係を特定し、それらをデータベース、キュー、またはサードパーティ API として分類します。依存先が直接インスツルメントされていない場合でも同様です。カスタム インスツルメンテーションは、コンポーネントの自動検出方法や `service tag` の付与に影響することがあります。詳細は [APM 推論サービス][12] を参照してください。 + +RUM は `frontend apps` コンポーネントの検出を担います。 + +**自動命名されたサービスの管理:** +- [推論エンティティ][7] を有効化すると、タイプ (database、queue、third-party) でエンティティを除外できます。 +- 必要に応じて、カタログやマップから `service:my-service-http-client` のような [service override を削除する][8] ことも可能です。 + +エンドポイントの検出については、[APM からエンドポイントを検出する][10] を参照してください。 + +## Infrastructure と Logs からコンポーネントをインポート + +Software Catalog を充実させるために、他の Datadog テレメトリで `DD_SERVICE` [タグ][2] を含むサービスをインポートできます。Datadog のインフラストラクチャ メトリクスやログから `kind:service` コンポーネントを検出するには、Software Catalog の [**Import Entries** タブ][11] に移動します。 + +{{< img src="tracing/software_catalog/import_entries.png" alt="Software Catalog のセットアップ/設定セクションにある Import Entries タブ" style="width:90%;" >}} + +インポート後、エントリは **Explore** タブに表示されます。所有者や連絡先などのメタデータを、[API を使用して追加する][3] または [GitHub インテグレーション][4] で付与しないと、エントリが期限切れになる場合があります。 + +既定の **Explore** ビューからインポート済みサービスを削除するには、[**Import Entries** タブ][11] で **Clear Previously Imported Services** をクリックします。これにより、メタデータがないサービスや、APM、Universal Service Monitoring (USM)、Real User Monitoring (RUM) のテレメトリを持たないサービスがすべて削除されます。 + +{{< img src="tracing/software_catalog/clear_imported_services.png" alt="Software Catalog のセットアップ/設定セクションで、以前にインポートしたサービスの削除を確認する" style="width:90%;" >}} + + +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + + +[1]: https://app.datadoghq.com/software/settings/get-started +[2]: /ja/getting_started/tagging/unified_service_tagging +[3]: /ja/tracing/software_catalog/service_definition_api/ +[4]: /ja/integrations/github/ +[5]: /ja/tracing/ +[6]: /ja/universal_service_monitoring/ +[7]: /ja/tracing/services/inferred_services +[8]: /ja/tracing/guide/service_overrides/#remove-service-overrides +[9]: /ja/tracing/guide/service_overrides/ +[10]: /ja/software_catalog/endpoints/ +[11]: https://app.datadoghq.com/software/settings/get-started?currentTab=import +[12]: /ja/tracing/services/inferred_services \ No newline at end of file From 926bee8a359922290d7c78074863192c22d3136b Mon Sep 17 00:00:00 2001 From: "webops-guacbot[bot]" <214537265+webops-guacbot[bot]@users.noreply.github.com> Date: Fri, 26 Dec 2025 15:01:09 +0000 Subject: [PATCH 2/2] Translated file updates