Détecter des objets à l’aide du Deep Learning (Map Viewer)

L’outil Detect Objects Using Deep Learning (Détecter des objets à l’aide du Deep Learning) utilise un modèle de Deep Learning pour identifier et localiser des objets dans une couche d’imagerie.

La sortie correspond à une couche d'entités hébergée.

Exemples

L’outil Detect Objects Using Deep Learning (Détecter des objets à l’aide du Deep Learning) peut être utilisé pour identifier des emprises de bâtiment afin de permettre à une collectivité locale ou à un groupe d’intervention d’urgence local de mettre à niveau les données fiscales et foncières. La couche en sortie produite par l’outil est une couche d’entités capable d’identifier les bâtiments dans une zone. La couche d’entités créée permet de mettre en correspondance les registres d’un bien existant et l’emprise actuelle du bien.

L’outil Detect Objects Using Deep Learning (Détecter des objets à l’aide du Deep Learning) peut être utilisé pour identifier des véhicules dans un parking dans le but de déterminer les présences et de préparer des études sur le trafic. La couche d’entités créée peut être utilisée dans l’outil Classify Objects Using Deep Learning (Classer des objets à l’aide du Deep Learning) pour classer le type de véhicule détecté.

Remarques sur l’utilisation

L’outil Detect Pixels Using Deep Learning (Détecter des pixels à l’aide du Deep Learning) inclut des configurations pour la couche d’entrée, les paramètres du modèle et la couche de résultat.

Couche en entrée

Le groupe Input layer (Couche en entrée) comprend les paramètres suivants :

  • Input imagery layer or feature layer (Couche d’imagerie ou couche d’entités en entrée) permet de sélectionner la couche d’imagerie ou la couche d’entités avec pièces jointes qui servira à détecter les objets identifiés dans le modèle de Deep Learning. La couche d’imagerie sélectionnée doit être fondée sur les exigences du modèle de Deep Learning qui sera utilisé pour classer les pixels.
  • Le Processing mode (Mode de traitement) décrit la façon dont les éléments raster sont traités dans la couche d’imagerie. Le paramètre Processing mode (Mode de traitement) comporte les options suivantes :
    • Process as mosaicked image (Traiter comme image mosaïquée) : tous les éléments raster dans le jeu de données mosaïque ou le service d’imagerie sont mosaïqués ensemble et traités. Il s’agit de l’option par défaut.
    • Process all raster items separately (Traiter tous les éléments raster séparément) : tous les éléments raster dans le jeu de données mosaïque ou le service d’imagerie sont traités en tant qu’images séparées.

Paramètres du modèle

Le groupe Model settings (Paramètres du modèle) comporte les paramètres suivants :

  • Model for object detection (Modèle pour la détection des objets) spécifie le modèle de Deep Learning utilisé pour détecter les objets Le modèle de Deep Learning doit se trouver dans ArcGIS Online pour pouvoir être sélectionné dans l’outil. Vous pouvez sélectionner votre propre modèle, un modèle disponible publiquement dans ArcGIS Online ou à partir de ArcGIS Living Atlas of the World.
  • Model arguments (Arguments du modèle) répertorie les arguments et paramètres de Deep Learning supplémentaires pour l’amélioration non définis dans la fonction raster Python par le modèle en entrée, comme un seuil de confiance pour l’ajustement de la sensibilité. Les noms des arguments sont alimentés par l’outil lors de la lecture du module Python.
  • Non maximum suppression (NMS) (Suppression non maximale (NMS)) détermine si une suppression non maximale doit être exécutée pour supprimer les objets en double identifiés grâce aux valeurs de confiance.
  • Confidence score field (Champ de score de confiance) spécifie le nom du champ qui va enregistrer les scores de confiance créés comme sorties par la méthode de détection des objets. Ce paramètre est disponible si vous activez le paramètre Non Maximum Suppression (NMS) (Suppression non maximale (NMS)).
  • Class value field (Champ de valeur de classe) est le champ de la couche d’entités en sortie qui va contenir la valeur provenant de la couche d’imagerie en entrée. S’il n’est pas spécifié, l’outil utilise les champs de valeur de classe standard Classvalue et Value. Si ces champs n’existent pas, toutes les entités seront traitées comme la même classe d’objets. Ce paramètre est disponible si vous activez le paramètre Non Maximum Suppression (NMS) (Suppression non maximale (NMS)).
  • Maximum overlap ratio (Ratio de superposition maximale) définit le rapport entre la zone d’intersection et la zone d’union pour deux entités superposées. La valeur par défaut est 0. Ce paramètre est disponible si le paramètre Non Maximum Suppression (NMS) (Suppression non maximale (NMS)) est activé.

Couche de résultat

Le groupe Result layer (Couche de résultat) comprend les paramètres suivants :

  • Le paramètre Output name (Nom en sortie) détermine le nom de la couche créée et ajoutée à la carte. Le nom doit être unique. Si une couche du même nom existe déjà dans votre organisation, l’outil échoue et vous êtes invité à utiliser un autre nom.
  • Le paramètre Save in folder (Enregistrer dans un dossier) indique le nom d’un dossier de My content (Mon contenu) dans lequel est enregistré le résultat.

Environnements

Les paramètres d’environnement d’analyse sont des paramètres supplémentaires qui affectent les résultats d’un outil. Vous pouvez accéder aux paramètres d’environnement d’analyse de l'outil à partir du groupe de paramètres Environment settings (Paramètres d'environnement).

Cet outil respecte les environnements d'analyse suivants :

Sorties

La sortie est une couche d’entités où chaque objet détecté est défini comme entité individuelle, avec ajout des champs de valeur de classe et de confiance.

Conditions d’utilisation

Cet outil requiert les licences et configurations suivantes :

Ressources

Référez-vous aux ressources suivantes pour en savoir plus :