Détecter les objets avec le modèle Text SAM

Configurer le projet

Pour commencer, vous allez télécharger un projet qui contient toutes les données de ce didacticiel et l’ouvrir dans ArcGIS Pro.

  1. Téléchargez le paquetage Boat_Detection.

    Un fichier nommé Boat_Detection.ppkx est téléchargé sur votre ordinateur.

    Remarque :

    Un fichier .ppkx est un paquetage de projet ArcGIS Pro qui peut contenir des cartes, des données et d’autres fichiers pouvant être ouverts dans ArcGIS Pro. Pour en savoir plus sur la gestion des fichiers .ppkx, consultez ce guide.

  2. Recherchez le fichier téléchargé sur votre ordinateur.
    Conseil :

    La plupart des navigateurs Web téléchargent les fichiers dans le dossier Téléchargements.

  3. Double-cliquez sur Boat_Detection.ppkx pour l’ouvrir dans ArcGIS Pro. À l’invite, connectez-vous avec votre compte ArcGIS.
    Remarque :
    Si vous n’avez pas accès à ArcGIS Pro ou ne disposez pas d’un compte d’organisation ArcGIS, consultez les options disponibles pour accéder aux logiciels.

    ArcGIS Pro version 3.2 ou ultérieure est requise pour les processus Text SAM.

    Une carte apparaît, centrée sur le quartier de Tuborg Havn à Copenhague au Danemark. Une couche d’images, Tuborg_Havn.tif, apparaît au-dessus du fond de carte topographique.

    Vue d’ensemble initiale

  4. Effectuez un zoom avant et déplacez-vous pour examiner l’imagerie.

    Observez les nombreux bateaux dans les marinas et les canaux. Cette imagerie aérienne a été orthorectifiée, ce qui a permis de supprimer les distorsions. Elle possède une haute résolution (chaque pixel représente un carré de 20 centimètres de côté au sol) et montre très clairement les bateaux ainsi que d’autres entités. Elle est au format TIFF avec trois bandes : rouge, vert et bleu, qui constituent ensemble une image de couleur naturelle. Son espace par pixel est de 8 bits.

    L’identification manuelle de tous les bateaux de cette image, et qui plus est dans l’ensemble des marinas et des canaux de Copenhague, serait très chronophage. Au lieu de cela, vous allez faire appel au modèle GeoAI Text SAM pour les détecter de manière automatique.

Télécharger le modèle Text SAM

Pour utiliser le modèle Text SAM, vous allez d’abord le télécharger sur votre ordinateur. Text SAM est disponible sur ArcGIS Living Atlas of the World, qui est la collection officielle de données SIG d’Esri et contient une bibliothèque toujours plus riche de modèles de Deep Learning.

  1. Ouvrez ArcGIS Living Atlas dans votre navigateur Web.
  2. Sur la page d’accueil d’ArcGIS Living Atlas , saisissez Text SAM dans la zone de recherche.

    Recherche de Text SAM

  3. Dans la liste des résultats, cliquez sur Text SAM pour ouvrir la page d’élément correspondante.

    Text SAM dans la liste des résultats

  4. Sur la page de l’élément Text SAM, lisez une partie de la description et parcourez la page.

    Text SAM est un modèle polyvalent qui peut être sollicité à l’aide d’instructions (prompts) textuelles libres pour extraire des entités de types divers à partir d’une imagerie. Vous pouvez ainsi utiliser les instructions (prompts) textuelles avion pour détecter des avions, panneau pour détecter des panneaux solaires ou voiture rouge pour détecter des voitures rouges. La sortie est une couche surfacique représentant le contour approximatif des objets détectés.

    Instruction textuelle avion

    La page inclut également des informations utiles sur l’entrée attendue, qui doit être une imagerie RVB 3 bandes, 8 bits.

    Entrée attendue

    Le modèle convient à l’imagerie de Copenhague utilisée dans ce didacticiel.

    Conseil :

    Pour en savoir plus sur Text SAM, consultez l’article Text SAM: Extracting GIS Features Using Text Prompts (Text SAM : extraction d’entités à l’aide d’instructions [prompts] textuelles), ainsi que le guide Text SAM : Utiliser le modèle.

    Si vous souhaitez utiliser ce processus sur votre propre imagerie, reportez-vous à la dernière section de ce didacticiel pour accéder aux conseils de conversion des données au format attendu en entrée.

  5. Dans la partie supérieure de la page, sous Overview (Vue d’ensemble), cliquez sur Download (Télécharger).

    Bouton de téléchargement

    Le fichier du modèle est téléchargé sur votre ordinateur.

    Remarque :

    Le fichier du modèle fait 1,75 Go et son téléchargement peut nécessiter quelques minutes.

  6. Localisez le fichier TextSAM.dlpk téléchargé sur votre ordinateur et déplacez-le vers un dossier auquel vous pouvez facilement accéder, comme C:\GeoAI_models.
    Conseil :

    Vous pouvez également utiliser Text SAM directement dans un outil de géotraitement ArcGIS Pro sans l’enregistrer au préalable. L’outil télécharge alors une nouvelle copie du modèle à chaque fois qu’il l’exécute. Il peut donc être utile de le stocker en local.

Détecter des bateaux à l’aide de Text SAM

Vous allez à présent détecter les bateaux figurant sur votre image de Copenhague. Vous allez utiliser l’outil de géotraitement Détecter des objets à l’aide d’algorithmes de Deep Learning en le paramétrant pour qu’il pointe sur la copie du modèle Text SAM que vous avez téléchargée.

Remarque :

L’utilisation des outils de Deep Learning de ArcGIS Pro implique que vous ayez installé les bibliothèques de Deep Learning appropriées sur votre ordinateur. Si ces fichiers ne sont pas installés, enregistrez votre projet, fermez ArcGIS Pro et suivez les étapes décrites dans les instructions Se préparer au Deep Learning dans ArcGIS Pro. Dans ces instructions, vous allez également découvrir comment vérifier si votre matériel informatique et vos logiciels peuvent exécuter des processus de Deep Learning et apprendre d’autres conseils utiles. Une fois que vous avez terminé, vous pouvez rouvrir votre projet et poursuivre le didacticiel.

  1. Sur le ruban, dans l’onglet View (Vue), dans le groupe Windows (Fenêtres), cliquez sur Geoprocessing (Géotraitement).

    Bouton Geoprocessing (Géotraitement)

  2. Dans la fenêtre Geoprocessing (Géotraitement), dans la zone de recherche, saisissez Détecter des objets à l’aide d’algorithmes de Deep Learning. Dans la liste des résultats, cliquez sur l’outil Détecter des objets à l’aide d’algorithmes de Deep Learning pour l’ouvrir.

    Recherche de l’outil Détecter des objets à l’aide d’algorithmes de Deep Learning

  3. Dans l’outil Détecter des objets à l’aide d’algorithmes de Deep Learning, sélectionnez les valeurs de paramètre suivantes :
    • Pour Input Raster (Raster en entrée), sélectionnez Tuborg_Havn.tif.
    • Dans Output Detected Objects (Objets détectés en sortie), saisissez Bateaux_Détectés.
    • Pour Model Definition (Définition du modèle), cliquez sur le bouton Browse (Parcourir).

    Paramètres de l’outil Détecter des objets à l’aide d’algorithmes de Deep Learning

    Vous allez à présent extraire le modèle Text SAM.

  4. Dans la fenêtre Model Definition (Définition du modèle), accédez à l’emplacement dans lequel vous avez sauvegardé le modèle Text SAM, et cliquez sur TextSAM.dlpk, puis sur OK.

    Fenêtre Définition du modèle

    Au bout de quelques instants, les arguments du modèle se chargent automatiquement. Vous allez choisir une instruction (prompt) textuelle qui correspond aux objets que vous souhaitez détecter.

  5. Sous Arguments, pour text_prompt, saisissez bateau.

    Argument text_prompt

    Conseil :

    Vous pourriez ajouter plus de mots à l’instruction (prompt) textuelle en les séparant par une virgule, par exemple bateau, yacht, canoë. Toutefois, dans ce cas, l’instruction (prompt) bateau qui ne comporte qu’un seul mot donnera d’excellents résultats.

  6. Localisez l’argument batch_size.

    La détection d’objets à l’aide d’algorithmes de Deep Learning ne peut pas être effectuée sur la totalité de l’image en une seule fois. L’outil doit découper l’image en petites parties, appelées fragments. Une taille de lot égale à 4 signifie que l’outil traite quatre fragments d’image à la fois. Lors de l’exécution de l’outil, vous risquez de rencontrer une erreur de mémoire insuffisante si votre ordinateur ne dispose pas de suffisamment de mémoire pour ce niveau de traitement. Dans ce cas, essayez de diminuer la valeur de batch_size de 4 à 2, voire 1. Si vous possédez un ordinateur puissant, vous pouvez également augmenter la valeur de batch_size afin d’accélérer le traitement. La modification de la valeur de batch_size n’affecte pas la qualité du modèle, mais uniquement l’efficacité du traitement de détection du modèle.

    Pour le moment, vous allez conserver la valeur par défaut, 4.

  7. Pour l’argument nms_overlap, saisissez 0,7.

    argument nms_overlap

    Le modèle détecte parfois un objet plusieurs fois. Le traitement facultatif Non Maximum Suppression (NMS) (Suppression non maximale [NMS]) supprime certains objets détectés en cas de duplication. L’objet détecté avec le niveau de confiance le plus élevé est conservé, tandis que les autres objets sont supprimés. Dans l’exemple de l’image suivante, le bateau a été détecté trois fois et avec la NMS, seul un polygone sur les trois est conservé.

    Bateau détecté trois fois

    L’argument nms_overlap détermine le degré de superposition nécessaire entre deux objets détectés pour qu’ils soient considérés comme des doublons et que la suppression non maximale soit applicable. Les valeurs possibles pour cet argument sont comprises entre 0 et 1. Par exemple, 0.7 (0,7) signifie que la superposition doit être supérieure ou égale à 70 %.

  8. Cochez la case en regard de Non Maximum Suppression (Suppression non maximale).

    Case à cocher Suppression non maximale

    Dans le modèle Text SAM, vous pouvez appliquer la NMS au cours du processus de détection d’objets par Text SAM (argument nms_overlap) ou en tant qu’étape du post-traitement (case à cocher Non Maximum Suppression (Suppression non maximale)). Après plusieurs essais, il a été constaté que les meilleurs résultats dans ce cas d’utilisation particulier sont obtenus en choisissant une valeur élevée pour l’argument nms_overlap (0.7 (0,7)) et en appliquant l’option de post-traitement Non Maximum Suppression (Suppression non maximale) avec ses paramètres par défaut.

    Remarque :

    Dans Non Maximum Suppression (Suppression non maximale), le paramètre Max Overlap Ratio (Ratio de superposition maximale) définit la superposition à l’étape de la NMS en post-traitement. À l’instar de l’argument nms_overlap, il peut être compris entre 0 et 1. La valeur par défaut 0 signifie que dès que deux polygones présentent une superposition supérieure à 0, ils sont considérés comme des doublons.

  9. Conservez les valeurs par défaut des autres arguments.
    Remarque :

    Pour plus d’informations sur le rôle des différents arguments, reportez-vous au guide Text SAM.

  10. Cliquez sur l'onglet Environnements.

    Onglet Environments (Environnements)

    À ce stade, vous pouvez exécuter l’outil tel quel : il continuera à détecter les bateaux dans la totalité de l’image Tuborg_Havn.tif, ce qui peut prendre de 30 minutes à une heure, en fonction des spécifications de votre ordinateur. Pour avancer plus rapidement dans ce didacticiel, vous allez uniquement détecter les bateaux dans un petit sous-ensemble de l’image en entrée.

  11. Sur le ruban, dans le groupe Navigate (Naviguer) de l’onglet Map (Carte), cliquez sur Bookmarks (Géosignets) et sélectionnez Detection area.

    Géosignet Detection area

    La carte effectue un zoom avant sur une zone plus petite de la marina de Tuborg Havn.

    Zone de détection

  12. Dans la fenêtre Geoprocessing (Géotraitement), sur l’onglet Environments (Environnements), sous Processing Extent (Étendue de traitement), cliquez sur le bouton Current Display Extent (Étendue d’affichage actuelle).

    Bouton Current Display Extent (Étendue d’affichage actuelle)

    Les coordonnées Top (Haut), Left (Gauche), Right (Droite) et Bottom (Bas) sont mises à jour pour correspondre à l’étendue actuelle affichée sur la carte.

  13. Sous Processor Type (Type de processeur), sélectionnez GPU. Pour GPU ID (ID GPU), saisissez 0.
    Remarque :

    Ce didacticiel suppose que votre ordinateur dispose d’un GPU NVIDIA. Si ce n’est pas le cas, sélectionnez CPU (UC), mais notez que dans ce cas, le traitement demande davantage de temps. Pour en savoir plus sur les GPU et leur utilisation pour les processus de Deep Learning, reportez-vous à la section Vérifier la disponibilité de la GPU dans le didacticiel Se préparer au Deep Learning dans ArcGIS Pro.

    Type de processeur

  14. Acceptez toutes les autres valeurs par défaut, puis cliquez sur Run (Exécuter).

    Vous pouvez surveiller la progression du traitement sous le bouton Run (Exécuter) et cliquer sur View Details (Afficher les détails) pour afficher davantage d’informations.

    Lien View Details (Afficher les détails)

    Après quelques minutes, la couche de résultat Detected_Boats (Bateaux-Détectés) apparaît dans la fenêtre Contents (Contenu) et sur la carte. Il s’agit d’une couche d’entités dans laquelle chaque polygone représente un bateau.

    Conseil :

    Si vous rencontrez une erreur de mémoire insuffisante, essayez de diminuer la valeur de batch_size de 4 à 2, voire 1, et exécutez à nouveau le traitement.

    Vous avez détecté les bateaux dans une zone de Tuborg Havn à l’aide de Text SAM.

    Résultats initiaux

    Remarque :

    L’algorithme de Deep Learning de Text SAM n’est pas déterministe, donc les résultats sont susceptibles de varier légèrement à chaque exécution de l’outil.

    La couleur est également attribuée de manière aléatoire et peut varier.

  15. Dans la barre d’outils Quick Access (Accès rapide), cliquez sur le bouton Save (Enregistrer) pour enregistrer votre projet.

    Bouton Enregistrer

Appliquer un style à la couche de résultat

Vous allez maintenant examiner les résultats de la couche Bateaux_Détectés et les affiner. Vous allez d’abord modifier la symbologie de la couche afin de mieux visualiser les objets détectés.

  1. Dans la fenêtre Contents (Contenu), cliquez sur le symbole Bateaux_Détectés pour afficher la fenêtre Symbology (Symbologie).

    Symbole Bateaux_Détectés

  2. Dans la fenêtre Symbology (Symbologie), si nécessaire, cliquez sur l’onglet Properties (Propriétés).

    Onglets Properties (Propriétés) dans la fenêtre Symbology (Symbologie)

  3. Sous Appearance (Apparence), définissez les paramètres suivants :
    • Dans Color (Couleur), sélectionnez No color (Aucune couleur).
    • Pour Outline color (Couleur de contour), sélectionnez un rouge vif, comme Fire Red (Rouge incendie).
    • Pour Outline width (Largeur du contour), sélectionnez 2 pt (2 pts).

    Paramètres d’apparence

  4. Cliquez sur Apply (Appliquer).

    La couche est mise à jour avec la nouvelle symbologie.

    Couche de résultat avec la nouvelle symbologie

  5. Effectuez un zoom avant et un déplacement sur la carte pour inspecter la couche Bateaux_Détectés.

    Vous pouvez constater que le modèle est parvenu à détecter les bateaux et qu’il indique le contour approximatif de chaque bateau. Il existe toutefois quelques cas de faux positifs, où le modèle a trouvé par erreur un bateau alors qu’il n’y en avait pas, comme indiqué dans l’exemple de l’image suivante.

    Exemple de faux positif

Affiner les résultats

Vous allez à présent apprendre à affiner les résultats et à supprimer les faux positifs.

  1. Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit sur la couche Bateaux_Détectés et sélectionnez Attribute Table (Table attributaire).

    Option de menu Attribute Table (Table attributaire)

    Dans la table attributaire Bateaux_Détectés, chaque ligne correspond à une entité bateau détectée. Il existe actuellement 76 entités.

    Table attributaire Bateaux_Détectés

    Remarque :

    Le nombre d’entités que vous avez obtenu peut être légèrement différent.

    Vous allez vous concentrer sur les deux champs suivants :

    • Confidence (Confiance) : ce champ indique le niveau de confiance avec lequel le modèle a identifié chaque entité en tant que bateau (sous forme de pourcentage).
    • Shape_Area : ce champ indique la surface de chaque entité (en mètres carrés).

    Champs Confidence (Confiance) et Shape_Area

    Vous allez commencer par examiner les entités susceptibles d’être trop petites pour être des bateaux.

  2. Double-cliquez sur le nom du champ Shape_Area pour trier la table attributaire selon ce dernier.

    Tri en fonction du champ Shape_Area

    Les entités sont désormais triées de la plus petite à la plus grande surface.

  3. Double-cliquez sur l’en-tête de ligne de la première entité pour effectuer un zoom avant sur cette dernière et l’examiner.

    En-tête de ligne de la première entité

    Vous pouvez voir sur la carte que cette entité ne fait que quelques pixels de large et qu’il ne s’agit pas d’un bateau.

    Entité de petite taille qui n’est pas un bateau

  4. Examinez également quelques-unes des entités suivantes de la liste afin de déterminer quelle surface est suffisamment importante pour représenter de véritables bateaux.

    Une surface de 9 mètres carrés semble être le seuil. Vous allez maintenant examiner les entités présentant le niveau de confiance le plus faible.

  5. Double-cliquez sur le nom du champ Confidence (Confiance) pour trier la table attributaire selon ce dernier.

    Tri en fonction du champ Confidence (Confiance)

    Les entités sont désormais répertoriées du niveau de confiance le plus bas au plus élevé. Les premières entités de la liste ont une confiance d’environ 20 %, ce qui est faible.

  6. Double-cliquez sur quelques-unes des premières entités pour appliquer un zoom avant sur ces dernières et les examiner.

    Entité avec un faible niveau de confiance qui n’est pas un bateau

  7. Continuez à examiner davantage d’entités pour déterminer le niveau de confiance auquel elles commencent réellement à représenter des bateaux.

    Il semble que le seuil de confiance soit d’environ 28 %. Vous allez à présent créer une copie de la couche Bateaux_Détectés qui ne comprend que les entités dotées d’une taille et d’un niveau de confiance suffisants pour être des bateaux.

    Conseil :

    Vous pourriez supprimer manuellement les entités non désirées de la couche Bateaux_Détectés, mais il peut s’avérer utile de conserver cette couche intacte et de dériver une nouvelle couche à la place, au cas où vous souhaiteriez poursuivre l’exploration des résultats initiaux.

  8. Sur le ruban, sous l’onglet Map (Carte), dans le groupe Selection (Sélection), cliquez sur Clear (Effacer) pour désélectionner toutes les entités.

    Bouton Effacer

  9. Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit sur Bateaux_Détectés et sélectionnez Data (Données), puis Export Features (Exporter des entités).

    Option de menu Export Features (Exporter des entités)

  10. Dans la fenêtre Export Features (Exporter des entités), pour Output Feature Class (Classe d’entités en sortie), saisissez Bateaux_Détectés_Nettoyés.

    Paramètre Output Feature Class (Classe d’entités en sortie)

  11. Développez Filter (Filtrer) et créez l’expression Where Confidence is greater than 28 (Où Confiance est supérieur à 28).

    Expression Where Confidence is greater than 28 (Où Confiance est supérieur à 28)

  12. Cliquez sur Add Clause (Ajouter une clause) et créez la seconde expression And Shape_Area is greater than 9 (Et Shape_Area est supérieur à 9).

    Expression And Shape_Area is greater than 9 (Et Shape_Area est supérieur à 9)

  13. Cliquez sur OK.

    La nouvelle couche s’ajoute à la carte.

  14. Dans la fenêtre Contents (Contenu), cochez la case en regard de Bateaux_Détectés pour désactiver la couche.

    Désactivez Bateaux_Détectés.

  15. Fermez la table attributaire Bateaux_Détectés pour agrandir la carte.

    Fermez la table attributaire Bateaux_Détectés.

  16. Sur l’onglet Map (Carte), cliquez sur Bookmarks (Géosignets) et sélectionnez le géosignet Detection area (Zone de détection) pour revenir à l’étendue complète de détection.
  17. Sur la carte, examinez la couche Bateaux_Détectés_Nettoyés.

    Couche Bateaux_Détectés_Nettoyés sur la carte

    La plupart des faux positifs ont été supprimés.

    Remarque :

    Maintenant que vous savez que le seuil de confiance optimal est de 28 % pour les données, si vous souhaitez à nouveau exécuter l’outil, vous pouvez modifier la valeur de l’argument box_threshold du modèle dans l’outil Détecter des objets à l’aide d’algorithmes de Deep Learning en la faisant passer de 0.2 (0,2) à 0.28 (0,28). Les faux positifs dont le niveau de confiance est compris entre 20 et 28 % seront alors supprimés des résultats. (L’argument box_threshold indique la valeur minimale de Confidence (Confiance) acceptée dans la sortie.)

    Il n’existe toutefois pas d’équivalent pour le seuil de surface. Cette étape doit donc toujours aire l’objet d’un post-traitement.

  18. Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit sur la couche Bateaux_Détectés_Nettoyés et sélectionnez Attribute Table (Table attributaire).

    Il reste désormais 66 bateaux dans la couche.

    66 entités dans la couche

    Si vous aviez utilisé Text SAM pour détecter les bateaux dans chaque quartier de Copenhague, le nombre total de bateaux pourrait être synthétisé dans un graphique par quartier. La couche Bateaux_Détectés pourrait également être utilisée pour créer une carte de points chauds représentant les niveaux de concentration des bateaux dans l’ensemble de la ville. Enfin, cette analyse pourrait être répétée régulièrement sur une nouvelle imagerie pour identifier les tendances et les changements au fil du temps.

  19. Appuyez sur Ctrl+S pour enregistrer votre projet.

Appliquer Text SAM à votre propre imagerie

Si vous souhaitez appliquer Text SAM à vos propres données, vous trouverez ci-dessous quelques conseils utiles.

  • Préparation de l’imagerie – Le modèle Text SAM attend une imagerie à trois bandes (rouge, vert et bleu ou RVB). Si l’imagerie comporte plus de trois bandes, vous devez extraire les bandes appropriées avant d’appliquer Text SAM. Le modèle attend également une imagerie dont l’espace par pixel est égal à 8 bits. Si l’espace par pixel de l’imagerie est différent (par exemple, 16 bits), vous devez le convertir en 8 bits. Reportez-vous à la section Sélectionner les bandes d’imagerie pertinentes dans le didacticiel Améliorer un modèle de Deep Learning avec l’apprentissage par transfert pour connaître les instructions détaillées permettant d’implémenter ces changements.
  • Recherche d’informations sur l’imagerie – Si vous ne connaissez pas les propriétés de l’imagerie (comme le nombre de bandes, l’espace par pixel ou la taille de cellule), cliquez avec le bouton droit sur la couche d’imagerie dans la fenêtre Contents (Contenu) et sélectionnez Properties (Propriétés). Dans la fenêtre Properties (Propriétés), cliquez sur la fenêtre Source et, sous Raster Information (Informations raster), recherchez Number of Bands (Nombre de bandes), Cell Size X (Taille de cellule x), Cell Size Y (Taille de cellule y) et Pixel Depth (Espace par pixel).
  • Processus initial – Lorsque l’imagerie est prête pour la détection d’objets, essayez d’abord d’utiliser le processus Text SAM exactement comme vous avez appris à le faire dans ce didacticiel. Il s’agit de l’approche la plus simple et vous pouvez obtenir des résultats de qualité élevée immédiatement.
  • Modification de la taille de cellule – Si vous n’êtes pas entièrement satisfait des premiers résultats, vous pouvez essayer de modifier la valeur de Cell Size (Taille de cellule) dans les paramètres d’environnement de l’outil Détecter des objets à l’aide d’algorithmes de Deep Learning. Il convient de choisir une taille de cellule (en mètres) qui permet d’optimiser la visibilité des objets d’intérêt dans la totalité de l’étendue sélectionnée. Utilisez une taille de cellule supérieure pour détecter les objets de grande taille et une taille de cellule inférieure pour détecter les petits objets. Vous pouvez ainsi définir la taille de cellule sur 10 mètres pour la détection des nuages, et sur 0,3 mètres (30 centimètres) pour la détection des voitures. Même si l’image en entrée n’est pas modifiée, l’outil rééchantillonne les données à la volée lors du traitement. Pour plus d’informations sur la taille de cellule, consultez les ressources Multiresolution Object Detection with Text SAM (Détection des objets avec plusieurs résolution à l’aide de Text SAM) et Taille de pixel de l’image et données raster.
    Paramètre Cell Size (Taille de cellule)
  • Utilisation d’un masque – Lorsque vous détectez des objets dans des zones d’intérêt spécifiques, comme des bateaux apparaissant uniquement dans des zones recouvertes d’eau, il peut être utile de définir le paramètre Mask (Masque) dans les paramètres d’environnement de l’outil Détecter des objets à l’aide d’algorithmes de Deep Learning. Un masque est une couche surfacique (ou raster) qui délimite les zones d’intérêt pour l’analyse, par exemple, les limites des zones recouvertes d’eau dans la ville de Copenhague ou peut-être des marinas spécifiques s’il s’agit des seules cibles de l’étude. Lorsque cet outil est exécuté, le traitement se produit uniquement sur les localisations figurant dans le masque, ce qui permet de gagner du temps et d’éviter les faux positifs en dehors du masque.
    Paramètre Mask (Masque)
  • Utilisation d’un modèle pré-entraîné pour un objet spécifique – Outre l’utilisation du modèle Text SAM, il existe une autre approche efficace pour détecter des objets à l’aide de GeoAI dans ArcGIS : vous pouvez faire appel à l’un des nombreux modèles pré-entraînés publiés par Esri, chaque modèle se concentrant sur un seul type d’objet, comme les arbres, les bâtiments ou les panneaux solaires. Pour en savoir plus, reportez-vous au didacticiel intitulé Détecter des objets à l’aide d’un modèle pré-entraîné de Deep Learning.
  • Occupation du sol et autres types de classification au niveau du pixel – Text SAM est conçu pour détecter des objets discrets qui sont relativement compacts et distincts par rapport à leur contexte (comme des bateaux entourés d’eau). Si vous souhaitez extraire des informations sur l’utilisation du sol et l’occupation du sol ou effectuer d’autres types de classification au niveau du pixel, il n’est pas conseillé d’utiliser Text SAM (ou d’autres modèles similaires, tels que SAM). Au lieu de cela, pensez à d’autres modèles pré-entraînés d’ArcGIS Living Atlas, comme High Resolution Land Cover Classification – USA ou Land Cover Classification (Sentinel-2).

Au cours de ce didacticiel, vous avez téléchargé le modèle GeoAI Text SAM à partir du site Web ArcGIS Living Atlas et l’avez utilisé pour détecter des bateaux dans une image. Vous avez ensuite appliqué des filtres attributaires pour supprimer les entités faussement positives. Enfin, vous avez appris quelques conseils utiles pour appliquer ce processus à votre propre imagerie.

Vous trouverez d’autres didacticiels comme ceux-ci dans la série Essayer le Deep Learning avec ArcGIS.