Préparer l’analyse Deep Learning
Dans la première partie de ce didacticiel, vous allez configurer le projet ArcGIS Pro, choisir un modèle pré-entraîné de Deep Learning, préparer l’imagerie pour l’adapter au modèle et comprendre la nécessité d’utiliser l’apprentissage par transfert.
Configurer le projet
Pour commencer, vous allez télécharger un projet qui contient toutes les données de ce didacticiel et l’ouvrir dans ArcGIS Pro. Vous allez ensuite ajouter une imagerie à la carte du projet.
- Téléchargez le fichier Seattle_Building_Detection.zip et enregistrez-le sur votre ordinateur.
Remarque :
La plupart des navigateurs Web téléchargent les fichiers dans le dossier Téléchargements de votre ordinateur, par défaut.
- Cliquez avec le bouton droit sur le fichier Seattle_Building_Detection.zip et extrayez-le à un emplacement sur votre ordinateur, par exemple un dossier sur votre lecteur C:.
- Ouvrez le dossier Seattle_Building_Detection extrait, puis double-cliquez sur Seattle_Building_Detection.aprx pour ouvrir le projet dans ArcGIS Pro.
- Si vous y êtes invité, connectez-vous à votre compte d’organisation ArcGIS ou à ArcGIS Enterprise à l’aide d’un compte d’utilisateur nommé.
Remarque :
Si vous n’avez pas accès à ArcGIS Pro ou ne disposez pas d’un compte d’organisation ArcGIS, consultez les options disponibles pour accéder aux logiciels.
Le projet s’ouvre.
La carte contient uniquement le fond de carte topographique par défaut. Dans ce processus, vous allez utiliser des images aériennes pour détecter les bâtiments. Vous allez à présent ajouter ces images à la carte.
- Sur le ruban, cliquez sur l'onglet Vue. Dans le groupe Windows (Fenêtres), cliquez sur Catalog Pane (Fenêtre Catalogue).
La fenêtre Catalogue apparaît.
- Dans la fenêtre Catalog (Catalogue), développez Folders (Dossiers), puis les dossiers Seattle_Building_Detection et Imagery_data.
- Cliquez avec le bouton droit sur Seattle_imagery.jp2 et choisissez Add To Current Map (Ajouter à la carte actuelle).
- Si vous êtes invité à calculer les statistiques, cliquez sur Yes (Oui).
Les statistiques sont nécessaires pour effectuer certaines tâches sur l’imagerie, notamment son rendu avec un étirement. L’imagerie s’affiche sur la carte. Elle représente une zone de Seattle.
Remarque :
Cette imagerie aérienne vient du site Web du National Agriculture Imagery Program (NAIP) (Programme national d’imagerie agricole) des États-Unis. Une imagerie du NAIP couvrant la totalité des États-Unis peut être téléchargée à partir du site Web USGS Earth Explorer.
- Effectuez un zoom avant et déplacez-vous pour examiner l’imagerie. Vous constatez que cette image contient de nombreux bâtiments.
Choisir un modèle pré-entraîné et l’inspecter
Vous voulez utiliser le Deep Learning pour extraire les bâtiments à partir des images aériennes. Si aucun modèle de Deep Learning n’est encore disponible, cette opération requiert d’abord l’entraînement initial d’un modèle, en l’alimentant à l’aide d’un grand nombre d’exemples pour qu’il puisse reconnaître un bâtiment. Les modèles hautes performances peuvent nécessiter une exposition à des dizaines de milliers d’exemples. Vous pouvez également utiliser un modèle déjà entraîné. Vous allez extraire ce type de modèle et découvrir ses spécifications.
Remarque :
L’utilisation des outils de Deep Learning de ArcGIS Pro implique que vous ayez installé les bibliothèques de Deep Learning appropriées sur votre ordinateur. Si ces fichiers ne sont pas installés, enregistrez votre projet, fermez ArcGIS Pro et suivez les étapes décrites dans les instructions Se préparer au Deep Learning dans ArcGIS Pro. Dans ces instructions, vous allez également découvrir comment vérifier si votre matériel informatique et vos logiciels peuvent exécuter des processus de Deep Learning et apprendre d’autres conseils utiles. Une fois que vous avez terminé, vous pouvez rouvrir votre projet et poursuivre le didacticiel.
- Accédez au site Web ArcGIS Living Atlas of the World.
- Dans la zone de recherche, saisissez Modèle pré-entraîné et appuyez sur Entrée.
- Parcourez la liste des résultats pour afficher les plus de 50 modèles pré-entraînés disponibles.
- Dans la zone de recherche, saisissez Extraction d’emprises de bâtiment et appuyez sur Entrée.
La liste des résultats contient des modèles de Deep Learning pré-entraînés pour différentes régions du monde. Comme votre zone d’intérêt se trouve aux États-Unis, vous allez choisir le modèle entraîné sur cette zone.
- Dans la liste des résultats, cliquez sur Building Footprint Extraction – USA (Extraction d’emprises de bâtiment - États-Unis).
La page de description pour le modèle s’affiche. Elle contient de nombreuses informations pertinentes sur le modèle. Il est essentiel de comprendre le type d’entrée qu’attend le modèle. Si vos données en entrée ne sont pas assez similaires au type de données sur lequel le modèle a été entraîné, ce dernier ne fonctionnera pas bien.
- Prenez le temps de lire le contenu de cette page. Examinez plus particulièrement la section illustrée dans l’image d’exemple suivante :
Vous apprenez différentes informations sur le modèle :
- Input (Entrée) - En tant qu’entrée, le modèle attend des images haute résolution 3 bandes, 8 bits (10 à 40 cm). Pour savoir si vos données correspondent à ces spécifications, vous devez approfondir votre examen. Vous allez effectuer cette opération un peu plus tard au cours de ce didacticiel.
- Output (Sortie) - Le modèle va générer une classe d’entités contenant les emprises de bâtiment. Obtenir des polygones d’emprise de bâtiment en sortie est exactement ce que vous recherchez.
- Applicable geographies (Géographies concernées) - Ce modèle devrait fonctionner parfaitement aux États-Unis. C’est parfait puisque votre zone d’intérêt se situe aux États-Unis.
- Model architecture (Architecture du modèle) - Le modèle utilise l’architecture du modèle MaskRCNN. Vous devez noter ces informations, car vous en aurez besoin ultérieurement dans le processus.
Étant donné que le modèle semble assez intéressant pour votre projet, vous allez le télécharger.
- Sous Overview (Vue d'ensemble), cliquez sur Download (Télécharger).
Le téléchargement se termine au bout de quelques instants.
- Recherchez le fichier téléchargé, usa_building_footprints.dlpk, sur votre ordinateur.
Conseil :
La plupart des navigateurs Web téléchargent les fichiers dans le dossier Téléchargements de votre ordinateur, par défaut.
- Créez un dossier nommé Pretrained_model dans votre dossier Seattle_Building_Detection.
- Déplacez le fichier de modèle usa_building_footprints.dlpk de l’emplacement de téléchargement vers le dossier Pretrained_model.
Examiner les propriétés d’imagerie
Vous allez maintenant chercher à comprendre dans quelle mesure vos données correspondent à l’entrée d‘imagerie haute résolution 3 bandes, 8 bits (10 à 40 cm) idéale.
- Revenez à votre projet Seattle_Building_Detection dans ArcGIS Pro.
- Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit sur Seattle_imagery.jp2, puis sélectionnez Properties (Propriétés).
- Dans la fenêtre Layer Properties (Propriétés de la couche), cliquez sur Source et développez la section Raster Information (Informations raster).
- Recherchez le champ Number of Bands (Nombre de bandes).
Il contient la valeur 4. Le programme NAIP collecte une imagerie multispectrale composée de quatre bandes spectrales : rouge, verte, bleue et proche infrarouge. La bande proche infrarouge est souvent utilisée pour visualiser l’état sanitaire de la végétation. Le modèle attend trois bandes à la place (rouge, verte et bleue). Vous devez résoudre ce problème.
- Recherchez les champs Cell Size X (Taille de cellule X) et Cell Size Y (Taille de cellule Y).
Chaque champ contient la valeur 1. Cela signifie que chaque cellule (ou pixel) de l’imagerie mesure 1 mètre par 1 mètre. Cette image du NAIP a donc été capturée à une résolution de 1 mètre. Cette résolution est inférieure à la résolution de 10 à 40 cm recommandée par ce modèle. Vous devez également résoudre ce problème.
- Recherchez le champ Pixel Depth (Espace par pixel).
Il contient la valeur 8 Bit (8 bits), ce qui correspond à la valeur 8 Bit (8 bits) demandée par le modèle.
- Cliquez sur OK pour fermer la fenêtre Layer Properties (Propriétés de la couche).
Vous allez découvrir une autre façon de visualiser le nombre de bandes.
- Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit sur Seattle_imagery.jp2, puis sélectionnez Symbology (Symbologie).
- Dans la fenêtre Symbology (Symbologie), pour Red (Rouge), cliquez sur Band_1 (Bande_1) pour développer la liste déroulante.
Quatre bandes sont répertoriées. Lors de la visualisation d’une image multispectrale, seules trois bandes peuvent être affichées à un moment donné, via les canaux rouge, vert et bleu, en combinant les trois bandes sélectionnées en une composition colorée RVB. Toutefois, vous pouvez voir que quatre bandes sont présentes dans l’image et peuvent être utilisées à diverses fins d’analyse.
- Fermez la fenêtre Symbology (Symbologie).
Vous avez découvert que deux critères ne correspondent pas entre votre imagerie et les attentes du modèle pré-entraîné : le nombre de bandes et la résolution. Vous allez apprendre à résoudre ces deux problèmes plus tard dans ce processus.
Sélectionner les bandes d’imagerie pertinentes
Vous allez à présent corriger la non-concordance des bandes. Votre imagerie dispose de quatre bandes spectrales :
- Bande 1 - rouge
- Bande 2 - verte
- Bande 3 - bleue
- Bande 4 - proche infrarouge
En outre, le modèle attend une entrée à trois bandes (rouge, verte, bleue). Pour résoudre ce problème, vous devez générer une nouvelle couche qui contient uniquement les trois premières bandes de l’imagerie du NAIP, qui correspondra mieux aux attentes du modèle. Cette étape est importante ; si elle est ignorée, les performances du modèle seront moindres.
Remarque :
Il est essentiel de connaître précisément t l’ordre des bandes dans votre imagerie. Par exemple, les bandes d’autres types d’imagerie peuvent être dans un ordre différent : bande 1 - bleue, bande 2 - verte et bande 3 - rouge. Ces informations figurent dans les propriétés de votre imagerie ou dans sa documentation.
Vous allez générer la nouvelle couche à trois bandes à l’aide d’une fonction raster.
- Sur le ruban, sous l’onglet Imagery (Imagerie), dans le groupe Analysis (Analyse), cliquez sur le bouton Raster Functions (Fonctions raster).
- Dans la fenêtre Raster Functions (Fonctions raster), saisissez Extraire les bandes dans la zone de recherche. Sous Data Management (Gestion des données), cliquez sur Extract Bands (Extraire les bandes).
- Définissez les valeurs de paramètre Extract Bands (Extraire les bandes) suivantes :
- Pour Raster, sélectionnez Seattle_imagery.jp2.
- Pour Combination (Combinaison), vérifiez que la valeur est 1 2 3, ce qui correspond aux bandes 1 (rouge), 2 (verte) et 3 (bleue).
- Pour Missing Band Action (Action concernant la bande manquante), sélectionnez Fail (Échec).
Missing Band Action (Action concernant la bande manquante) spécifie l’action qui se produira si l’une des bandes répertoriées n’est pas disponible. Fail (Échec) signife que la fonction raster sera abandonnée et échouera. Vous sélectionnez cette option, car il est impératif que les trois bandes soient présentes pour terminer ce didacticiel correctement.
- Cliquez sur Créer une nouvelle couche.
Une nouvelle couche, nommée Extract Bands_Seattle_imagery.jp2 (Extraire Bands_Seattle_imagery.jp2), apparaît dans la fenêtre Contents (Contenu). Les couches créées par les fonctions raster sont calculées dynamiquement et non pas enregistrées sur le disque. Dans ce cas, vous voulez conserver la couche créée en tant que fichier TIFF sur votre ordinateur. Vous allez effectuer cette opération avec l’option Export Raster (Exporter un raster).
- Cliquez avec le bouton droit sur Extract Bands_Seattle_imagery.jp2 (Extraire Bands_Seattle_imagery.jp2) et sélectionnez Data (Données), puis Export Raster (Exporter un raster).
- Dans la fenêtre Export Raster (Exporter un raster), pour Output Raster Dataset (Jeu de données raster en sortie), cliquez sur le bouton Browse (Parcourir).
- Dans la fenêtre Output Location (Emplacement en sortie), accédez à Folders (Dossiers) > Seattle Building Detection (Détection de bâtiments à Seattle) > Imagery Data (Données d’imagerie). Dans le champ Name (Nom), saisissez Seattle_RGB.tif, puis cliquez sur Save (Enregistrer).
- Dans la fenêtre Output Location (Emplacement en sortie), acceptez toutes les autres valeurs par défaut, puis cliquez sur Export (Exporter).
Remarque :
Si votre imagerie est sur 16 bits, il est recommandé de convertir la profondeur de 8 bits attendu du modèle lors de cette étape Export Raster (Exporter un raster). Pour Pixel Type (Type de pixel), sélectionnez 8 Bit Unsigned (Non signé 8 bits) et cochez la case Scale Pixel Value (Valeur de pixel d’échelle). Si la case Scale Pixel Value (Valeur de pixel d’échelle) est cochée, les valeurs sont réellement converties en échelle de 8 bits (à la place des valeurs élevées supprimées). Pour NoData value (Valeur NoData), saisissez la valeur NoData de votre image d’origine (par exemple, 0).
Pour rechercher cette valeur NoData, dans la fenêtre Contents (Contenu), cliquez avec le bouton droit sur l’image d’origine, sélectionnez Properties (Propriétés), puis accédez à Source (Source) > Raster Information (Informations raster) > NoData Value (Valeur NoData).
La nouvelle couche Seattle_RGB.tif apparaît dans la fenêtre Contents (Contenu).
- Fermez la fenêtre Export Raster (Exporter un raster).
Vous allez maintenant vérifier le nombre de bandes.
- Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit sur Seattle_RGB.tif, puis sélectionnez Properties (Propriétés).
- Dans la fenêtre Layer Properties (Propriétés de la couche), cliquez sur Source et développez la section Raster Information (Informations raster).
- Recherchez le champ Number of Bands (Nombre de bandes).
La valeur du champ est 3, ce qui confirme que la couche comporte maintenant trois bandes, conformément aux attentes du modèle pré-entraîné.
- Fermez la fenêtre Propriétés de la couche.
Vous allez maintenant supprimer les couches d’imagerie dont vous n'aurez pas besoin dans le reste du processus.
- Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit sur Extract Bands_Seattle_imagery.jp2 (Extraire Bands_Seattle_imagery.jp2), puis sélectionnez Remove (Supprimer).
- Supprimez Seattle_imagery.jp2 de la même façon.
Vous allez enregistrer votre projet.
- Dans la barre d’outils Accès rapide, cliquez sur le bouton Save (Enregistrer).
Vous disposez maintenant d’une couche d’imagerie à trois bandes, conformément aux attentes du modèle pré-entraîné.
Comprendre la nécessité d’utiliser l’apprentissage par transfert
Vous devez désormais corriger la non-concordance de résolution, car le modèle attend une résolution supérieure comprise entre 10 et 40, tandis que l’imagerie du NAIP a été capturée avec une résolution inférieure de 1 mètre. Si vous appliquiez le modèle pré-entraîné Building Footprint Extraction – USA (Extraction d’emprises de bâtiment - États-Unis) directement à la couche Seattle_RGB.tif, vous obtiendriez de mauvais résultats, comme illustré dans l’exemple d’image suivant :

Dans cette image, les bâtiments détectés s’affichent en rose. En raison de la non-concordance de résolution, le modèle pourrait détecter les bâtiments plus grands, mais aurait du mal à identifier les plus petits.
Remarque :
Pour un exemple de processus dans lequel vous utilisez un modèle pré-entraîné directement et avec succès, reportez-vous au didacticiel Détecter des objets à l’aide d’un modèle de Deep Learning pré-entraîné.
Une façon de résoudre ce problème consiste à utiliser l’apprentissage par transfert. L’apprentissage par transfert est une technique de Machine Learning dans laquelle les connaissances acquises à partir d’une tâche sont réutilisées pour optimiser les performances d’une tâche associée. Ici, la tâche d’origine consistait à détecter les bâtiments dans une imagerie de résolution de 10 à 40 cm, tandis que la nouvelle tâche consistait à détecter les bâtiments dans une imagerie de résolution de 1 mètre.
Remarque :
L’apprentissage par transfert peut être utilisé pour d’autres raisons que la non-concordance de résolution d’imagerie. Par exemple, en commençant par un modèle entraîné pour détecter des bâtiments dans un pays spécifique, vous pouvez utiliser l’apprentissage par transfert pour que le modèle apprenne à détecter des bâtiments dans un autre pays.
L’un des principaux avantages de l’apprentissage par transfert réside dans le fait qu’il requiert une quantité relativement faible de données d’entraînement et une durée d’entraînement courte par rapport à ce qui serait nécessaire pour l’entraînement initial d’un modèle.
Remarque :
La portée des actions de l’apprentissage par transfert est cependant limitée si la non-concordance entre votre imagerie et l’entrée attendue est trop extrême. Par exemple, si vous disposez d’une imagerie satellite d’une résolution de 30 mètres, dans laquelle vous voyez à peine les plus petits bâtiments, il est irréaliste de penser que le modèle pourrait être optimisé pour obtenir un bon résultat sur cette imagerie. Plus la nouvelle tâche est différente de celle d’origine, moins l’apprentissage par transfert est efficace.
Attention :
L’apprentissage par transfert ne fonctionne pas sur tous les modèles de Deep Learning pré-entraînés. Par exemple, les modèles qui s’appuient sur SAM et DeepForest ne prennent pas en charge l’apprentissage par transfert. Vous pouvez consulter la description du modèle pré-entraîné sur le site Web de ArcGIS Living Atlas pour vérifier s’il s’appuie sur SAM ou DeepForest.
Dans le reste du didacticiel, vous allez apprendre à effectuer un apprentissage par transfert pour optimiser le modèle pré-entraîné afin de rendre vos données plus performantes.
Préparer des échantillons d’entraînement pour l’apprentissage par transfert
Pour réaliser un apprentissage par transfert, vous devez d’abord produire des exemples d’entraînement afin d’afficher le modèle d’un bâtiment dans les données. Si vous entraîniez un modèle à partir de zéro, vous auriez besoin de dizaines de milliers d’échantillons de bâtiments. Heureusement, grâce à l’apprentissage par transfert, vous n’en avez besoin que de quelques centaines. Dans cette partie du didacticiel, vous allez apprendre à générer des échantillons d’entraînement. Vous allez d’abord créer une classe d’entités vide dans laquelle stocker les échantillons. Puis, vous dessinerez les polygones représentant les bâtiments et les ajouterez à la classe d’entités. Enfin, vous exporterez la classe d’entités et l’imagerie dans des fragments d’entraînement utilisés pour l’apprentissage par transfert.
Création d'une classe d'entités
Vous allez commencer par créer une classe d’entités.
- Sur le ruban, dans l’onglet View (Vue), dans le groupe Windows (Fenêtres), cliquez sur Geoprocessing (Géotraitement).
La fenêtre Géotraitement s’affiche.
- Dans la zone de recherche de la fenêtre Geoprocessing (Géotraitement), saisissez Créer une classe d’entités. Dans la liste de résultats, cliquez sur l’outil Créer une classe d’entités pour l’ouvrir.
- Définissez les paramètres suivants :
- Pour Feature Class Name (Nom de la classe d’entités), saisissez Exemples_entraînement.
- Pour Geometry Type (Type de géométrie ), vérifiez que Polygon (Polygone) est sélectionné.
- Pour Coordinate System (Système de coordonnées), sélectionnez Seattle_RGB.tif.
- Acceptez toutes les autres valeurs par défaut, puis cliquez sur Run (Exécuter).
La nouvelle classe d’entités Exemples_entraînement apparaît dans la fenêtre Contents (Contenu). Il est actuellement vide.
Dessiner des exemples d’entraînement
Vous allez maintenant tracer les emprises de bâtiments qui seront enregistrées en tant qu’entités surfaciques dans la couche Exemples_entraînement.
- Sur le ruban, dans l’onglet Edit (Modifier), dans le groupe Features (Entités), cliquez sur Create (Créer).
La fenêtre Créer des entités apparaît.
- Dans la fenêtre Create Features (Créer des entités), cliquez sur Exemples_entraînement, puis sur le bouton Polygon (Polygone).
La barre d’outils de construction s’affiche sur la carte. Par défaut, elle est définie sur le mode Line (Ligne), qui dessine des lignes droites.
- Dans la barre d’outils de construction, cliquez sur le bouton Right Angle Line (Ligne avec angles droits).
- Le mode Right Angle Line (Ligne avec angles droits) contraint toutes les lignes à être droites et tous les angles à être des angles droits. Cela est utile lorsque vous dessinez des emprises de bâtiments car la plupart des bâtiments possèdent des angles de 90 degrés. Vous pouvez passer de ce mode au mode Line (Ligne) et inversement selon vos besoins au cours du dessin.
- Sur le ruban, sur l’onglet Map (Carte), dans le groupe Navigate (Naviguer), cliquez sur Bookmarks (Géosignets) et sélectionnez Labeling extent (Étendue d’étiquetage).
Il s’agit de la zone dans laquelle vous allez commencer à dessiner des polygones pour délimiter les bâtiments. Ce processus est également appelé étiquetage car vous indiquez au modèle où se trouvent les objets d’intérêt dans l’image.
Remarque :
Lorsque vous décidez de créer les exemples d’entraînement dans l’image, sélectionnez une zone qui contient des bâtiments typiques de la localisation géographique.
- Sur la carte, choisissez un bâtiment spécifique et cliquez sur l’un de ses angles (ou sommets).
- Cliquez sur chacun de ses angles dans le sens horaire.
- Double-cliquez sur le dernier angle pour terminer le polygone.
Remarque :
La couleur de la classe d’entités (ici le vert clair) est attribuée au hasard et peut être différente dans votre projet.
- Créez de manière similaire deux ou trois polygones supplémentaires dans la même zone.
Conseil :
Si vous n’aimez pas un polygone que vous avez créé, vous pouvez le supprimer. Sur le ruban, dans l’onglet Edit (Mise à jour), dans le groupe Selection (Sélection), cliquez sur Select (Sélectionner). Sur la carte, cliquez sur le polygone. Sous l'onglet Edit (Modifier) du groupe Features (Entités), cliquez sur Delete (Supprimer).
Vous allez enregistrer les entités surfaciques dans la classe d’entités.
- Dans la barre d’outils de construction, cliquez sur le bouton Finish (Terminer).
- Sur le ruban, dans l'onglet Edit (Mise à jour), dans le groupe Manage Edits (Gérer les mises à jour), cliquez sur Save (Enregistrer).
- Fermez le volet Create Features (Créer des entités).
Dans un projet réel, vous auriez besoin de délimiter 200 ou 300 bâtiments supplémentaires. Cependant, pour gagner du temps dans ce didacticiel, vous allez utiliser un jeu d’environ 200 échantillons d’entraînement préparés pour vous.
- Dans la partie inférieure de la fenêtre Geoprocessing (Géotraitement), cliquez sur Catalog (Catalogue) pour revenir à cette fenêtre.
- Dans la fenêtre Catalog (Catalogue), développez Databases (Bases de données), puis Output_provided.gdb.
- Cliquez avec le bouton droit sur Training_examples_larger_set et sélectionnez Add To Current Map (Ajouter à la carte actuelle).
Le jeu des échantillons d’entraînement apparaît.
Vous pouvez constater qu’une étendue rectangulaire a été choisir et que des polygones ont été créés pour chaque bâtiment de l’étendue. Vous allez supprimer la couche Exemples_entraînement puisque vous n’en avez plus besoin.
- Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit sur la couche Exemples_entraînement et sélectionnez Remove (Supprimer).
- Appuyez sur Ctrl+S pour enregistrer le projet.
Vous disposez maintenant d’une couche contenant plus de 200 échantillons d’entraînement.
Ajouter un champ de classe
Maintenant que vous avez tracé des polygones d’emprise de bâtiment, vous devez tous les désigner comme appartenant à une classe spécifique. Dans certains processus, les objets étiquetés peuvent appartenir à des classes (ou catégories) différentes, comme des emprises de bâtiments, des arbres ou des voitures. Dans ce didacticiel, il n’existe qu’une seule classe : les emprises de bâtiments. Vous allez ajouter un champ Class (Classe) à la couche Training_examples_larger_set et le renseigner.
- Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit sur la couche Training_examples_larger_set et sélectionnez Attribute Table (Table attributaire).
La table attributaire de la couche apparaît, affichant des informations sur chaque polygone.
- Dans la table attributaire Training_examples_larger_set, cliquez sur Add (Ajouter).
- Sur l’onglet Fields: Training_examples_larger_set (Champs : Training_examples_larger_set), saisissez les informations suivantes dans la dernière ligne de la table :
- Pour Field Name (Nom du champ), saisissez Classe.
- Pour Data Type (Type de données), cliquez sur Long et modifiez-le en Short (Court).
Le type de données Short (Court) contient des valeurs entières.
- Sur le ruban, sous l’onglet Champs, dans le groupe Modifications, cliquez sur Enregistrer.
- Fermez la fenêtre Fields: Training_examples_larger_set (Champs : Training_examples_larger_set).
Maintenant que vous avez créé le champ Classe, vous allez le renseigner avec une valeur numérique. Vous décidez arbitrairement que la classe des emprises de bâtiments sera représentée par la valeur numérique 1.
- Dans la table attributaire Training_examples_larger_set,cliquez sur Calculate (Calculer).
- Dans la fenêtre Calculate Field (Calculer un champ), définissez les valeurs de paramètre suivantes :
- Pour Field Name (Nom du champ), sélectionnez Classe.
- Pour Classe =, saisissez 1.
- Acceptez toutes les autres valeurs par défaut, puis cliquez sur OK.
- Dans la colonne Classe, vérifiez que la valeur 1 a été attribuée à chaque entité surfacique.
Grâce au champ Classe, le modèle saura que tous les exemples d’entraînement sont du même type que l’objet : des emprises de bâtiments représentées par des 1.
- Fermez la table attributaire Training_examples_larger_set.
Découvrir les fragments d’entraînement et découper l’imagerie
Un modèle de Deep Learning ne peut pas s’entraîner sur une grande zone en une seule fois, il ne peut traiter que des découpes plus petites de l’image, appelées fragments. Un fragment est constitué d’une tuile d’image et d’une tuile d’étiquette correspondante qui indique la localisation des objets (dans ce cas, des bâtiments). Ces fragments alimentent le modèle pendant le processus d’entraînement de l’apprentissage par transfert.

Vous allez utiliser l’imagerie Seattle_RGB.tif et la couche Exemples_entraînement pour générer des fragments d’entraînement. Il est primordial de ne pas générer de fragments contenant des bâtiments non étiquetés. De tels fragments équivaudraient à montrer des bâtiments au modèle tout en lui indiquant qu’il ne s’agit pas du tout de bâtiments. Cela génèrerait de la confusion pour le modèle et affecterait ses performances. Pour empêcher cette situation, vous allez créer un découpage de l’imagerie limité à l’étendue dans laquelle se trouvent les échantillons d’entraînement.

- Dans la partie inférieure de la fenêtre Catalog (Catalogue), cliquez sur Geoprocessing (Géotraitement).
- Dans la fenêtre Géotraitement, cliquez sur le bouton Retour.
- Recherchez et ouvrez l’outil Découper le raster.
- Définissez les valeurs de paramètre suivantes pour l’outil Découper le raster :
- Pour Input Raster (Raster en entrée), sélectionnez Seattle_RGB.tif.
- Pour Output Extent (Étendue en sortie), sélectionnez Training_examples_larger_set.
- Pour Jeu de données raster en sortie, cliquez sur le bouton Parcourir. Dans la fenêtre Output Raster Dataset (Jeu de données raster en sortie), accédez à Folders (Dossiers) > Seattle_Building_Detection > Imagery_data, pour Name (Nom), saisissez Seattle_RGB_clip.tif et cliquez sur Save (Enregistrer).
- Cliquez sur Run (Exécuter).
La couche Seattle_RGB_clip.tif apparaît dans la fenêtre Contents (Contenu).
- Dans la fenêtre Contents (Contenu), cliquez sur la case en regard de Seattle_RGB.tif pour désactiver la couche.
Sur la carte, vous ne voyez désormais que la couche découpée et les échantillons d’entraînement. Tous les bâtiments qui apparaissent dans l’imagerie sont associés à un polygone de bâtiment correspondant.
Générer des fragments d’entraînement
Vous allez maintenant générer des fragments d’entraînement. Vous allez d’abord créer un dossier pour le stockage des éléments de données liés au processus d’apprentissage par transfert.
- Cliquez sur l’onglet Catalog (Catalogue) pour changer de fenêtre.
- Si nécessaire, développez Folders (Dossiers) et Seattle_Building_Detection.
- Cliquez avec le bouton droit sur Seattle_Building_Detection, pointez sur New (Nouveau) et sélectionnez Folder (Dossier).
- Pour New Folder (Nouveau dossier), saisissez le nom Données_apprentissage_transfert et appuyez sur Entrée.
- Cliquez sur l’onglet Geoprocessing (Géotraitement) pour changer de fenêtre.
- Dans la fenêtre Géotraitement, cliquez sur le bouton Retour.
- Recherchez et ouvrez l’outil Exporter les données d’entraînement pour le Deep Learning.
- Définissez les valeurs de paramètre suivantes pour l’outil Exporter les données d’entraînement pour le Deep Learning :
- Pour Input Raster (Raster en entrée), sélectionnez Seattle_RGB_clip.tif.
- Pour Output Folder (Dossier en sortie), clique sur le bouton Browse (Parcourir). Dans la fenêtre Output Folder (Dossier en sortie), accédez à Folders (Dossiers) > Seattle_Building_Detection > Données_apprentissage_transfert. Pour Name (Nom), saisissez Fragments_entraînement et cliquez sur OK.
- Pour Input Feature Class (Classe d’entités en entrée), sélectionnez Training_examples_larger_set.
Les fragments générés à partir de l’imagerie découpée et les exemples d’entraînement seront stockés dans un dossier nommé Fragments_entraînement.
- Pour Class Value Field (Champ de valeur de classe), sélectionnez Class.
Comme vous l’avez défini précédemment, le champ Classe indique les objets qui appartiennent à telle ou telle étiquette (dans ce cas, tous les objets appartiennent à la classe 1, qui représente des emprises de bâtiments).
- Pour Tile Size X (Taille de tuile X) et Tile Size Y (Taille de tuile Y), vérifiez que la valeur est 256.
Ces paramètres déterminent la taille du fragment dans les directions X et Y (en pixels). Dans ce cas, la valeur par défaut de 256 est un choix judicieux.
Remarque :
Vous souhaitez que les fragments d’entraînement soient aussi similaires que possible aux fragments utilisés pour entraîner le modèle initial. Le modèle initial a été entraîné sur des fragments de 512 x 512 générés à partir de données dont la résolution est comprise entre 10 et 40 cm. L’imagerie NAIP a une résolution d’un mètre. À cette résolution, un fragment de 256 x 256 pixels couvre environ la même surface qu’un fragment de 512 x 512 pixels à une résolution de 40 cm. Il est donc judicieux de choisir une taille de fragment de 256 x 256.
Un moyen de connaître la taille de fragment initialement utilisée dans le modèle pré-entraîné consiste à examiner le paquetage dlpk. Dans Microsoft File Explorer, créez une copie du fichier usa_building_footprints.dlpk dans un dossier distinct et modifiez son extension .dlpk en .zip. Cliquez avec le bouton droit sur le fichier .zip et procédez à son extraction. Parmi les fichiers extraits, localisez usa_building_footprints.emd et modifiez son extension en .txt. Ouvrez usa_building_footprints.txt dans un éditeur de texte et recherchez les lignes "ImageHeight" et "ImageWidth".
- Pour Stride X (Pas en X) et Stride Y (Pas en Y), saisissez 64.
Ce paramètre contrôle la distance de déplacement dans les directions X et Y (en pixels) lors de la création des fragments d’image suivants. Cette valeur est déterminée par la quantité de données d’entraînement donc vous disposez. Vous pouvez augmenter le nombre de fragments générés en réduisant cette valeur. Vous pouvez essayer avec cette valeur, mais dans le cadre de ce didacticiel, la valeur de 64 a été identifiée comme appropriée.
- Pour Metadata Format (Format des métadonnées), sélectionnez RCNN Masks (Masques RCNN).
Des types différents de modèles de Deep Learning requièrent des formats de métadonnées différents pour les fragments. Précédemment dans le processus, vous avez constaté que le modèle pré-entraîné reposait sur l’architecture MaskRCNN. Ici, vous devez choisir la valeur correspondant à ce modèle.
Conseil :
Pour en savoir plus sur l’un des paramètres de l’outil, pointez sur le paramètre et cliquez sur le bouton d’informations en regard de ce dernier.
- Acceptez toutes les autres valeurs par défaut, puis cliquez sur Run (Exécuter).
Le processus se termine au bout de quelques instants.
Examiner les fragments d’entraînement
Vous allez examiner certains fragments générés.
- Dans la fenêtre Catalog (Catalogue), développez Folders (Dossiers), Seattle_Building_Detection, Données_apprentissage_transfert et Fragments_entraînement.
- Les tuiles d’image se trouvent dans le dossier images et les tuiles d’étiquette dans le dossier labels.
- Développez le dossier images, cliquez avec le bouton droit sur la première image, 000000000000.tif, et sélectionnez Add To Current Map (Ajouter à la carte actuelle). Si vous êtes invité à calculer des statistiques, cliquez sur No (Non).
- Dans la fenêtre Contents (Contenu), désactivez Training_examples_larger_set et Seattle_RGB_clip.tif pour mieux voir la tuile.
- Dans la fenêtre Catalog (Catalogue), réduisez le dossier images, développez les dossiers labels et 1, et ajoutez la première tuile d’étiquette, 000000000000.tif, sur la carte. Si vous êtes invité à calculer des statistiques, cliquez sur No (Non).
Remarque :
Il est possible de reconnaître les paires d’image et d’étiquette par leurs noms identiques.
- Dans la fenêtre Contents (Contenu), cliquez sur la tuile d’étiquette pour l’activer et la désactiver afin de faire apparaître la tuile d’image en-dessous.
- Cliquez sur certains pixels de la tuile d’étiquette pour afficher leurs valeurs dans la fenêtre contextuelle d’informations.
Remarque :
Sur la tuile d’étiquette, les pixels qui ne représentent pas de bâtiment ont pour valeur 0. Tous les pixels qui représentent un bâtiment ont une valeur supérieure à 0. Les valeurs spécifiques proviennent des ID d’objet des polygones de bâtiments initiaux, comme 28 sur l’image de l’exemple précédent.
- Vous pouvez également ajouter davantage de paires de tuiles d’image et d’étiquette à la carte et les examiner.
- Lorsque vous avez terminé, supprimez toutes les tuiles de la fenêtre Contents (Contenu) et activez à nouveau les couches Training_examples_larger_set et Seattle_RGB.tif.
- Dans la fenêtre Catalog (Catalogue), réduisez le dossier Fragments_entraînement.
- Appuyez sur Ctrl+S pour enregistrer votre projet.
Vous avez généré des fragments d’entraînement et vous pouvez désormais commencer le processus d’apprentissage par transfert.
Réaliser l’apprentissage par transfert et extraire des bâtiments
Vous allez maintenant réaliser l’apprentissage par transfert. Vous allez utiliser les fragments que vous avez générés pour entraîner davantage le modèle pré-entraîné usa_building_footprints.dlpk. Vous allez ensuite appliquer le modèle optimisé à votre imagerie Seattle et constater que ses performances sont désormais bien meilleures.
Affiner le modèle
Vous allez d’abord utiliser l’outil Entraîner le modèle de Deep Learning pour affiner le modèle.
- Accédez à la fenêtre Geoprocessing (Géotraitement) et cliquez sur le bouton Back (Retour).
- Dans la fenêtre Geoprocessing (Géotraitement), recherchez et ouvrez l’outil Entraîner le modèle de Deep Learning.
- Définissez les valeurs de paramètre suivantes pour l’outil Entraîner le modèle de Deep Learning :
- Pour Input Training Data (Données d’entraînement en entrée), cliquez sur le bouton Browse (Parcourir). Accédez à Folders (Dossiers) > Seattle_Building_Detection > Transfer_learning_data. Sélectionnez Training_chips et cliquez sur OK.
- Pour Output Model (Modèle en sortie), cliquez sur le bouton Browse (Parcourir). Accédez à Folders (Dossiers) > Seattle_Building_Detection > Imagery_data > Transfer_learning_data. Saisissez Seattle_1m_Building_Footprints_model, puis cliquez sur OK.
Seattle_1m_Building_Footprints_model sera le nom du nouveau modèle affiné généré par le processus d’apprentissage par transfert.
Conseil :
Il est plus simple de se souvenir du modèle qui a été entraîné sur certaines données si vous conservez chaque modèle et ses fragments d’apprentissage correspondants dans le même dossier.
- Développez la section Advanced (Avancé) et définissez les valeurs de paramètre suivantes :
- Pour Pre-trained Model (Modèle pré-entraîné), cliquez sur le bouton Browse (Parcourir). Accédez au dossier dans lequel vous avez enregistré le modèle pré-entraîné usa_building_footprints.dlpk, puis cliquez sur OK.
- Vérifiez que la case Freeze Model (Figer le modèle) est cochée.
L’option Freeze Model (Figer le modèle) permet de s’assurer que seule la couche finale du modèle sera impactée par les nouvelles données d’entraînement, alors que ses couches de base demeurent inchangées. Ce paramètre est choisi dans de nombreux cas d’apprentissage par transfert, car il évite que le modèle risque de désapprendre ses connaissances de base.
Remarque :
Si vous voyez désormais un indicateur d’erreur en regard de l’option Input Training Data (Données d’entraînement en entrée), la version correcte des bibliothèques de Deep Learning n’est pas installée. Appuyez sur les touches Ctrl+S pour enregistrer votre projet, fermez ArcGIS Pro et suivez les instructions permettant d’installer la structure de Deep Learning pour ArcGIS. Si vous avez installé les bibliothèques de Deep Learning auparavant, suivez les instructions répertoriées sous Upgrading From a Previous Version (Mise à niveau depuis une version précédente). Une fois l’installation terminée, vous pouvez rouvrir votre projet ArcGIS Pro et poursuivre le didacticiel.
- Développez la section Model Parameters (Paramètre du modèle) et vérifiez que le paramètre Batch Size (Taille de lot) est défini sur 4.
Conseil :
Pour en savoir plus sur l’un des paramètres de l’outil, cliquez sur le bouton d’informations en regard du paramètre.
- Dans la fenêtre Geoprocessing (Géotraitement), cliquez sur l’onglet Environments (Environnements). Dans Processor Type (Type de processeur), sélectionnez GPU.
Remarque :
Ce didacticiel suppose que votre ordinateur dispose de fonctionnalités GPU. Si vous n’avez pas de GPU, vous pouvez encore exécuter le processus avec votre UC, mais le traitement des données prendra plus longtemps. Dans ce dernier cas, sélectionnez l’option CPU (UC).
- Acceptez toutes les autres valeurs par défaut, puis cliquez sur Run (Exécuter).
L’exécution du traitement peut prendre 10 minutes ou plus.
Conseil :
Si vous obtenez une erreur de mémoire insuffisante, votre ordinateur ne dispose peut-être pas de suffisamment de mémoire pour traiter quatre tuiles simultanément. Essayez de réduire la valeur du paramètre Batch Size (Taille de lot) de 4 à 2 ou 1. La réduction de cette valeur n’affectera pas la qualité du modèle, mais uniquement l’efficacité du processus d’entraînement du modèle.
Vous disposez désormais d’un modèle optimisé, Seattle_1m_Building_Footprints, qui est affiné pour une meilleure exécution sur vos données.
Exécuter l’inférence
À présent que l’apprentissage par transfert est terminé, vous allez utiliser votre modèle affiné pour exécuter l’inférence sur la couche d’imagerie Seattle_RGB.tif et détecter les bâtiments qu’elle contient.
- Dans la fenêtre Géotraitement, cliquez sur le bouton Retour.
- Recherchez l’outil Détecter des objets à l’aide du Deep Learning et ouvrez-le.
- Définissez les valeurs de paramètre suivantes pour l’outil Détecter des objets à l’aide du Deep Learning :
- Pour Input Raster (Raster en entrée), sélectionnez Seattle_RGB.tif.
- Dans Output Detected Objects (Objets détectés en sortie), saisissez Seattle_buildings.
- Pour Model Definition (Définition du modèle), clicquez sur le bouton Browse (Parcourir). Accédez à votre dossier Seattle_Building_Detection, développez Transfer_learning_data et Seattle_1m_Building_Footprints_model, sélectionnez Seattle_1m_Building_Footprints_model.dlpk, puis cliquez sur OK.
Lors du chargement de la définition du modèle, les arguments du modèle sont renseignés automatiquement.
- Pour padding (marge de remplisage), vérifiez que la valeur est 64.
La marge de remplissage désigne une zone de bordure sur chaque fragment d’image qui est ignorée pendant la détection. Si un fragment de bâtiment apparaît sur le bord d’un fragment d’image, la marge de remplissage permet de ne pas en tenir compte dans la détection. La valeur 64 correspond à une marge de remplissage de 64 pixels de largeur sur chaque côté du fragment d’image.
Remarque :
Le modèle adapte le pas à la valeur de la marge de remplissage. À mesure que le modèle progresse vers des zones environnantes, un bâtiment qui apparaissait comme un fragment sur le bord d’un fragment d’image précédent apparaîtra bientôt dans son intégralité au centre de l’un des fragments d’image suivants, où il sera détecté correctement. Pour en savoir plus sur la marge de remplissage (et d’autres paramètres d’inférence), consultez la section Understand parameters for inferencing (Comprendre les paramètres d’inférence) de l’article Deep Learning with ArcGIS Pro Tips & Tricks: Part 2 (Conseils et astuces pour le Deep Learning avec ArcGIS Pro : partie 2).
- Pour batch_size, utilisez la même valeur que pour le processus d’entraînement (4 ou moins).
Ainsi, l’outil peut s’exécuter dans la quantité de mémoire disponible sur votre ordinateur.
- Pour threshold (seuil), vérifiez que la valeur est 0.9 (0,9).
Il s’agit d’une valeur de limite comprise entre 0 et 1. Elle exprime le degré de confiance à affecter au modèle avant qu’il ne déclare un objet en tant que bâtiment. La valeur 0.9 (0,9) indique que le modèle doit avoir un degré de confiance de 90 %.
- Pour tile_size, vérifiez que la valeur est 256.
Elle indique la taille des fragments d’imagerie qui seront utilisés par le modèle pour exécuter l’inférence. Cette valeur doit être identique à la taille des fragments utilisés pour entraîner le modèle.
- Cochez la case Non Maximum Suppression (Suppression non maximale).
Lorsque des doublons d’emprises de bâtiment se chevauchent, l’option Non Maximum Suppression (Suppression non maximale) s’assure que seule l’entité surfacique du bâtiment avec le degré de confiance le plus élevé est conservée et que les autres sont supprimées.
- Dans la fenêtre Geoprocessing (Géotraitement), cliquez sur l’onglet Environments (Environnements).
- Dans Processor Type (Type de processeur), sélectionnez GPU.
À ce stade, vous pouvez exécuter l’outil tel quel : il continuera à détecter les bâtiments dans la totalité de l’image Seattle_RGB.tif, ce qui peut prendre de 10 minutes à une heure, en fonction des spécifications de votre ordinateur. À des fins de concision dans ce didacticiel, vous allez uniquement détecter les bâtiments dans un petit sous-ensemble de l’entrée d’image.
- Sur le ruban, dans l’onglet Map (Carte), dans le groupe Navigate (Naviguer), cliquez sur Bookmarks (Géosignets) et choisissez Inference extent (Étendue d’inférence).
La carte effectue un zoom avant sur une zone plus réduite de Seattle.
- Dans la fenêtre Geoprocessing (Géotraitement), dans l’onglet Environments (Environnements), sous Processing Extent (Étendue de traitement), pour Extent (Étendue), sélectionnez Current Display Extent (Étendue d’affichage actuelle).
- Cliquez sur Run (Exécuter).
Au bout de quelques minutes, le traitement se termine et la couche en sortie Seattle_buildings apparaît dans la fenêtre Contents (Contenu) et sur la carte. Cette fois, vous voyez que presque tous les bâtiments ont été détectés.
Vous avez détecté des bâtiments dans une zone de Seattle en utilisant un modèle pré-entraîné affiné via l’apprentissage par transfert.
Comparer les résultats
Vous allez maintenant comparer deux couches Emprises de bâtiments obtenues à partir de l’exécution du modèle pré-entraîné prêt à l’emploi par rapport au modèle affiné avec l’apprentissage par transfert. Dans les deux cas, elles affichent les résultats pour la totalité de l’étendue de votre imagerie. Alors que vous pourriez générer vous-même les deux couches, en utilisant la technique apprise dans la section précédente, vous allez utiliser les couches préparées pour vous afin de gagner du temps. Pour commencer, vous allez ouvrir une carte contenant ces couches.
- Dans la fenêtre Catalogue, développez Cartes. Cliquez avec le bouton droit sur Full extent results (Résultats de la vue générale) et sélectionnez Open (Ouvrir).
La carte s’affiche. Elle contient deux classes d’entités surfaciques :
- Seattle_buildings_off_the_shelf
- Seattle_buildings_with_transfer_learning
Vous allez utiliser l’outil Balayer pour comparer les deux couches.
- Dans la fenêtre Contents (Contenu), cliquez sur la classe Seattle_buildings_off_the_shelf pour la sélectionner.
- Sur le ruban, sur l’onglet Feature Layer (Couche d’entités), dans le groupe Compare (Comparer), cliquez sur Swipe (Balayer).
- Sur la carte, faites glisser la poignée de balayage de haut en bas ou de part et d’autre de façon répétée, afin d’effacer la couche supérieure et de révéler celle située en dessous.
- Effectuez un zoom avant et arrière, puis déplacez-vous pour examiner les différentes zones et évaluer visuellement la différence de qualité des résultats.
Conseil :
En mode balayage, vous pouvez effectuer un zoom avant et arrière avec la molette de la souris et vous déplacer en appuyant sur la touche C du clavier et en faisant glisser la carte à l’aide de la souris.
Le modèle affiné réussit mieux à identifier les emprises de bâtiments plus petits dans votre imagerie, par rapport au modèle prêt à l’emploi. Vous allez maintenant utiliser l’outil Balayer pour comparer les résultats dans la couche d’apprentissage par transfert avec les bâtiments que vous observez visuellement dans l’imagerie.
- Dans la fenêtre Contents (Contenu), désactivez la couche Seattle_buildings_off_the_shelf et sélectionnez la couche Seattle_buildings_with_transfer_learning.
- Utilisez l’outil Balayer pour comparer les deux couches.
Vous remarquez peut-être que la couche créée à partir du modèle affiné n’est pas encore parfaite et que quelques bâtiments manquent çà et là. L’optimisation d’un modèle avec l’apprentissage par transfert tend à être un processus itératif. Vous pouvez continuer à améliorer les performances de votre modèle en collectant plus d’exemples d’entraînement et en réalisant un autre entraînement avec l’apprentissage par transfert. Pour une vue d’ensemble rapide, les étapes sont les suivantes :
- Observez d’abord le type des bâtiments ignorés par le modèle.
- Collectez de nouveaux exemples de polygones qui ciblent ce type de bâtiments et générez de nouveaux fragments d’apprentissage, en les enregistrant dans un nouveau dossier. Vous devez suivre les mêmes instructions que précédemment, en découpant les images pour vous assurer qu’aucun bâtiment sans étiquette n’est inclus dans les fragments.
- Exécutez une nouvelle session d’entraînement, en commençant par le modèle pré-entraîné prêt à l’emploi et en l’alimentant avec tous les segments créés jusqu’à présent (c’est-à-dire que pour le paramètre Input Training Data (Données d’entraînement en entrée), vous allez répertorier tous les dossiers de vos fragments). Il s’agit de la meilleure pratique pour garantir que le modèle traite tous les fragments d’apprentissage de manière équitable.
- Lorsque vous avez terminé d’explorer les images, sur le ruban, dans le groupe Navigate (Naviguer) de l’onglet Map (Carte), cliquez sur le bouton Explore (Explorer) pour quitter le mode balayage.
- Appuyez sur Ctrl+S pour enregistrer votre projet.
Dans ce didacticiel, vous avez utilisé le Deep Learning pour extraire les emprises de bâtiments à partir des images aériennes dans ArcGIS Pro. Vous avez choisi un modèle pré-entraîné dans ArcGIS Living Atlas et avez constaté l’importance de mettre en adéquation vos données en entrée et les attentes du modèle. Vous avez généré une nouvelle couche d’imagerie avec le nombre attendu de bandes. Vous avez ensuite appliqué l’apprentissage par transfert pour résoudre une non-concordance de résolution et optimiser les performances du modèle sur votre imagerie ; vous avez fourni un petit nombre de nouveaux échantillons d’apprentissage et entraîné davantage le modèle. Vous avez ensuite appliqué le modèle affiné sur un quartier de Seattle et obtenu de meilleurs résultats.