Générer des données d’entraînement

Dans ce processus, vous allez apprendre à entraîner un modèle SAMLoRA pour identifier les entités d’intérêt dans votre imagerie, en l’occurrence, les bâtiments situés dans des zones d’habitation informelles. Pour commencer, vous devez produire une petite quantité de données d’entraînement montrant des exemples de ces bâtiments dans votre imagerie. Vous allez configurer le projet ArcGIS Pro, examiner les exemples fournis et exporter les données d’entraînement au format requis par SAMLoRA.

Configurer le projet

Vous allez télécharger un projet qui contient toutes les données nécessaires à ce didacticiel et les ouvrir dans ArcGIS Pro.

  1. Téléchargez le fichier Alexandra_Informal_Settlements.zip et localisez-le sur votre ordinateur.
    Remarque :

    La plupart des navigateurs Web téléchargent les fichiers dans le dossier Téléchargements de votre ordinateur, par défaut.

  2. Cliquez avec le bouton droit de la souris sur le fichier Alexandra_Informal_Settlements.zip et procédez à son extraction dans un emplacement sur votre ordinateur, par exemple un dossier sur votre lecteur C:.
  3. Ouvrez le dossier Alexandra_Informal_Settlements (Zones d’habitation à Alexandra). Double-cliquez sur Alexandra_Informal_Settlements.aprx pour ouvrir le projet dans ArcGIS Pro.

    Dossier du projet

  4. À l’invite, connectez-vous avec votre compte ArcGIS.
    Remarque :

    Si vous n’avez pas accès à ArcGIS Pro ou ne disposez pas d’un compte d’organisation ArcGIS, consultez les options disponibles pour accéder aux logiciels.

    Le projet s’ouvre.

    Vue d’ensemble initiale

    Sur la carte, une couche d’imagerie de drone représente un quartier du township d’Alexandra, en Afrique du Sud. La résolution de cette imagerie est élevée. Chaque pixel représente un carré d’environ 2 x 2 centimètres au sol. Cette imagerie a été capturée par South Africa Flying Labs. La couche est stockée dans ArcGIS Online en tant que service de tuiles d’image.

    Remarque :

    South Africa Flying Labs est une organisation à but non lucratif qui produit des images par drone en Afrique du Sud et cherche à donner aux communautés locales les connaissances et les compétences nécessaires pour résoudre les problèmes sociaux de ce pays.

    Cette couche d’images ortho vraie est dérivée de plusieurs images de drone originales. Elle a été générée dans l’application Site Scan for ArcGIS et enregistrée dans ArcGIS Online directement à partir de Site Scan.

    Pour appliquer le processus proposé dans ce didacticiel à votre propre imagerie, reportez-vous aux conseils présentés dans la section Appliquer ce processus à votre propre imagerie.

  5. Effectuez des zooms avant et arrière avec la molette de la souris pour observer les zones construites dans l’image.

    Détail des zones construites

    La plupart de ces zones construites sont des zones d’habitation informelles où les bâtiments sont très proches les uns des autres, formant des motifs complexes. Leurs toits sont constitués de tôles ondulées dont la couleur et l’état varient. Pour ces raisons, les modèles de Deep Learning classiques peuvent avoir des difficultés à identifier de tels bâtiments avec une grande précision. L’approche SAMLoRA que vous allez découvrir dans ce didacticiel est une bonne alternative pour obtenir des résultats très qualitatifs sans qu’une grande puissance de calcul ne soit nécessaire.

Explorer les exemples de zone d’habitation informelle

Vous allez examiner les exemples d’entraînement fournis avec votre projet.

  1. Dans la fenêtre Contents (Contenu), cochez la case en regard de la couche Traning_Area (Zone d’entraînement) pour activer la couche.

    Couche Training_Area (Zone d’entraînement) activée

    Un polygone orange apparaît dans la partie ouest de l’imagerie. Il représente la zone choisie pour entraîner le modèle SAMLoRA, afin qu’il puisse reconnaître les zones d’habitation informelles.

    Polygone Training_area dans la partie ouest de l’imagerie

    Remarque :

    Dans ce cas, il n’y a qu’une seule zone d’entraînement, mais il est possible d’en avoir plusieurs, chacune étant représentée par un polygone différent. Vous découvrirez un exemple avec plusieurs zones d’entraînement ultérieurement dans ce didacticiel.

  2. Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit de la souris sur la couche Training_Area (Zone d’entraînement) et sélectionnez Zoom To Layer (Zoom sur la couche).

    Option de menu Zoom to Layer (Zoom sur la couche)

    Un zoom est appliqué sur la carte sur la zone d’entraînement.

  3. Activez la couche Informal_Settlements_Examples (Exemples de zone d’habitation informelle).

    Couche Informal_Settlements_Examples (Exemples de zone d’habitation informelle) activée

    La couche Informal_Settlements_Examples (Exemples de zone d’habitation informelle) représente tous les bâtiments situés dans la zone d’entraînement sous forme de polygones gris clair.

    Couche Informal_Settlements_Examples (Exemples de zone d’habitation informelle) affichée sur la carte

    Remarque :

    La section Préparer des échantillons d’entraînement pour l’apprentissage par transfert du didacticiel Améliorer un modèle de Deep Learning avec l’apprentissage par transfert contient des instructions détaillées pour créer une couche d’échantillons d’entraînement.

    Chaque bâtiment dans la zone d’entraînement a été capturé en tant que polygone. S’il manque ne serait-ce que quelques bâtiments, les informations générées pourront être confuses et empêcher l’entraînement optimal du modèle SAMLoRA. Dans les images fournies à titre d’exemple ci-après, à gauche, le jeu d’entraînement est complet et prêt à être utilisé pour l’entraînement. En revanche, à droite, certains bâtiments manquent, ce qui peut générer des performances d’entraînement médiocres.

    Jeu d’entraînement complet et incomplet

    À présent, vous allez inspecter les champs attributaires de Informal_Settlements_Examples (Exemples de zone d’habitation informelle).

  4. Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit de la souris sur Informal_Settlements_Examples (Exemples de zone d’habitation informelle) et sélectionnez Attribute Table (Table attributaire).

    Option de menu Attribute Table (Table attributaire)

    Chaque ligne de la table représente l’un des polygones de bâtiment. L’attribut Class (Classe) possède la valeur Building (Bâtiment).

    Attribut Class (Classe) avec la valeur Building (Bâtiment)

    Remarque :

    Bien qu’il ne s’agisse pas d’une partie essentielle de ce processus, sachez que la valeur Building (Bâtiment) est en fait une étiquette pour la valeur numérique sous-jacente 1. Reportez-vous à la section Appliquer ce processus à votre propre imagerie plus loin dans ce didacticiel pour plus d’informations à ce sujet.

    Si les échantillons d’entraînement représentent plusieurs types d’entités, le champ Class (Classe) répertorie tous ces types, par exemple Building (Bâtiment), Road (Route) ou Tree (Arbre). Cette approche permet au modèle SAMLoRA d’apprendre à reconnaître les différents types d’entité dans votre imagerie.

  5. Fermez la table.
  6. Dans la Barre d’outils Quick Access (Accès rapide), cliquez sur le bouton Save Project (Enregistrer le projet).

    Bouton Enregistrer le projet

En savoir plus sur les fragments d’entraînement et la taille de cellule

Vous allez utiliser la couche surfacique des exemples et la couche d’imagerie pour générer des données d’entraînement dans un format spécifique. Un modèle de Deep Learning ne peut pas s’entraîner sur une grande zone en un seul passage et ne peut traiter que des découpes plus petites de l’image, appelées fragments. Un fragment est constitué d’une tuile d’image et d’une tuile d’étiquette correspondante qui indique la localisation des objets d’intérêt (en l’occurrence, des bâtiments). Ces fragments alimentent le modèle de Deep Learning au cours du processus d’entraînement.

Fragment d’entraînement avec tuiles d’image et d’étiquette
Fragment d’entraînement, avec sa tuile d’image (à gauche) et sa tuile d’étiquette correspondante (à droite).

Lors de la production de fragments, il est important de déterminer leur taille optimale. Pour détecter les objets proches les uns des autres, comme dans le cas des bâtiments situés dans des zones d’habitation informelles, il est recommandé qu’un fragment comporte entre 6 et 12 entités. En d’autres termes, un fragment doit contenir au moins une ou deux entités complètes au centre et afficher suffisamment de contexte (ou arrière-plan) autour des entités.

L’image fournie à titre d’exemple suivante contient trois fragments de différentes tailles :

  • Le fragment 1 est trop petit. Il ne contient pas d’entités complètes et presque aucun contexte.
  • La taille du fragment 2 est idéale. Il contient deux entités complètes au centre, ainsi que quelques entités incomplètes, et du contexte autour des entités.
  • Le fragment 3 est trop grand. Il contient un grand nombre d’entités (plus de 25).

Fragments de différentes tailles

Comment modifier la taille des fragments ? Il est d’usage d’avoir des fragments qui mesurent 256 x 256 pixels (ou cellules). Vous conserverez donc cette valeur par défaut. Toutefois, vous pouvez obtenir des fragments de différentes tailles en changeant la taille des cellules qui les composent. Par exemple, les trois tuiles affichées ci-dessus ont été générées avec les tailles de cellule suivantes :

  • Fragment 1 : 0,02 mètre (2 centimètres)
  • Fragment 2 : 0,05 mètre (5 centimètres)
  • Fragment 3 : 0,1 mètre (10 centimètres)
Remarque :

Lorsque la taille de cellule d’un fragment est de 5 centimètres, cela signifie que chacune de ses cellules représente un carré de 5 x 5 centimètres au sol.

La taille de fragment optimale dépend de la taille des entités à identifier. Par exemple, des champs, des maisons, des voitures et des panneaux solaires auront des tailles très différentes. Pour trouver la taille de fragment optimale, vous pouvez procéder par tâtonnements. Vous pouvez choisir une taille de cellule, générer les fragments, puis évaluer les fragments visuellement. D’autres approches plus avancées permettent de choisir les tailles de fragment et de cellule, mais elles ne sont pas présentées dans ce didacticiel. Pour ce didacticiel, il a été déterminé qu’une taille de cellule de 5 centimètres permet de générer des fragments dont la taille est optimale pour identifier les bâtiments situés dans des zones d’habitation informelles.

Exporter les données d’entraînement

À présent, vous allez générer les fragments d’entraînement à l’aide de l’outil Export Training Data For Deep Learning (Exporter les données d’entraînement pour le Deep Learning).

  1. Sur le ruban, cliquez sur l’onglet Analysis (Analyse). Dans le groupe Geoprocessing (Géotraitement), cliquez sur Tools (Outils).

    Bouton Outils

  2. Dans la fenêtre Geoprocessing (Géotraitement), recherchez Export Training Data For Deep Learning (Exporter les données d’entraînement pour le Deep Learning). Dans la liste des résultats, cliquez sur Export Training Data For Deep Learning (Exporter les données d’entraînement pour le Deep Learning).

    Recherche de l’outil Export Training Data For Deep Learning (Exporter les données d’entraînement pour le Deep Learning)

  3. Définissez les paramètres suivants de l’outil :
    • Pour Input Raster (Raster en entrée), sélectionnez Alexandra_Orthomosaic (Orthomosaïque_Alexandra).
    • Pour Output Folder (Dossier en sortie), saisissez Informal_Settlements_256_5cm. (Un sous-dossier dans lequel conserver les données d’entraînement sera créé dans votre projet.)
    • Pour Input Feature Class Or Classified Raster or Table (Classe d’entités, raster classé ou table en entrée), sélectionnez Informal_Settlements_Examples (Exemples de zone d’habitation informelles).
    • Pour Class Value Field (Champ de valeur de classe), sélectionnez Class.
    • Pour Input Mask Polygons (Polygones de masque en entrée), sélectionnez Training_Area (Zone d’entraînement).

    Paramètres de l’outil Exporter les données d’entraînement pour Deep Learning

    La spécification de la couche Training_Area (Zone d’entraînement) en tant que masque est essentielle car elle garantit que les fragments d’image seront créés uniquement dans la zone dans laquelle les bâtiments sont étiquetés.

    Remarque :

    Si vous devez créer une couche Training_Area (Zone d’entraînement) pour vos propres données, vous pouvez utiliser l’outil de géotraitement Create Feature Class (Créer une classe d’entités). Une fois la classe d’entités créée, sur le ruban, dans l’onglet Edit (Mise à jour), cliquez sur l’outil Create (Créer) pour tracer un ou plusieurs polygones rectangulaires délimitant les zones dans lesquelles mettre à disposition des échantillons d’entraînement.

  4. Pour Tile Size X (Taille de tuile X) et Tile Size Y (Taille de tuile Y), conservez les valeurs par défaut de 256 pixels.

    Valeurs des paramètres Tile Size X (Taille de tuile X) et Tile Size Y (Taille de tuile Y)

  5. Dans le champ Metadata Format (Format des métadonnées), choisissez Classified Tiles (Tuiles classées).

    Paramètre Metadata Format (Format des métadonnées) défini sur Classified Tiles (Tuiles classées)

    Classified Tiles (Tuiles classées) est le format des métadonnées requis pour entraîner un modèle SAMLoRA.

    Remarque :

    Pour en savoir plus sur les formats des métadonnées pris en charge pour différents types de modèle de Deep Learning, reportez-vous à la page Architectures des modèles de Deep Learning. Pour en savoir plus sur les paramètres répertoriés dans l’outil, reportez-vous à la page de documentation Exporter les données d’entraînement pour le Deep Learning.

  6. Dans la fenêtre de l’outil, cliquez sur l’onglet Environments (Environnements).

    Onglet Environments (Environnements)

  7. Pour Cell Size (Taille de cellule), saisissez 0.05.

    Taille de cellule définie sur 0,05

    Cette taille de cellule est de 0,05 mètre, ou 5 centimètres. Comme indiqué dans la section précédente, cette taille de cellule garantit que la taille des tuiles générées sera adaptée pour l’identification des bâtiments situés dans des zones d’habitation informelles.

    Remarque :

    Le choix de la taille de cellule pour vos fragments d’image ne change pas la résolution d’origine de l’imagerie en entrée. L’outil rééchantillonne les données à la volée pour produire des fragments d’image de la taille de cellule souhaitée.

    Reportez-vous à la section Appliquer ce processus à votre propre imagerie plus loin dans ce didacticiel pour plus d’informations sur l’identification des propriétés de votre imagerie, notamment sa taille de cellule. Découvrez également des informations sur la taille de cellule et la résolution de l’imagerie dans le didacticiel Explorer l’imagerie – Résolution spatiale.

  8. Cliquez sur Run (Exécuter).

    Au bout d’un moment, l’exécution de l’outil se termine.

Examiner les données d’entraînement

À présent, vous allez examiner les fragments d’entraînement que vous avez générés. Pour commencer, vous allez désactiver la couche des exemples de bâtiment afin de réduire l’encombrement sur la carte.

  1. Dans la fenêtre Contents (Contenu), décochez la case en regard de Informal_Settlements_Examples (Exemples de zone d’habitation informelle) pour désactiver la couche.

    Couche Informal_Settlements_Examples (Exemples de zone d’habitation informelle) désactivée

    Vous allez accéder au dossier dans lequel sont stockés les fragments d’image et d’étiquette.

  2. Sur le ruban, cliquez sur l'onglet Vue. Dans le groupe Windows (Fenêtres), cliquez sur Catalog Pane (Fenêtre Catalogue).

    Bouton Catalog Pane (Fenêtre Catalogue)

  3. Dans la fenêtre Catalog (Catalogue), développez Folders (Dossiers), Alexandra_Informal_Settlements (Zones d’habitation à Alexandra) et Informal_Settlements_256_5cm (Zones d’habitation informelles – 256 pixels – 5 cm).

    Dossier Informal_Settlements_256_5cm (Zones d’habitation informelles – 256 pixels – 5 cm) développé

    Le dossier Informal_Settlements_256_5cm (Zones d’habitation informelles – 256 pixels – 5 cm) contient les dossiers images et labels (étiquettes).

  4. Développez le dossier labels (étiquettes).

    Dossier labels (étiquettes)

    Ce dossier contient 128 tuiles d’étiquette au format TIFF.

  5. Cliquez avec le bouton droit de la souris sur 000000000000.tif et sélectionnez Add To Current Map (Ajouter à la carte actuelle).

    Option de menu Add To Current Map (Ajouter à la carte actuelle)

  6. Si vous êtes invité à calculer les statistiques, cliquez sur Yes (Oui).

    La tuile d’étiquette apparaît sur la carte. Il s’agit d’un raster dans lequel chaque cellule peut avoir la valeur 0 ou 1. Les cellules dont la valeur est 1 apparaissent en blanc et représente les zones contenant des bâtiments. Les cellules dont la valeur est 0 apparaissent en noir et représentent les zones ne contenant pas de bâtiments.

    Tuile d’étiquette sur la carte

  7. Dans la fenêtre Catalog (Catalogue), développez le dossier images.

    Dossier images

    Ce dossier contient 128 tuiles d’image au format TIFF. À chaque tuile d’étiquette correspond une tuile d’image. Par exemple, la tuile d’image 000000000000.tif est une petite découpe de l’imagerie qui correspond à la tuile d’étiquette 000000000000.tif, comme illustré dans l’image fournie à titre d’exemple ci-après :

    Exemple de tuile d’image

    Le modèle de Deep Learning SAMLoRA utilise les tuiles étiquetées pour apprendre à reconnaître les bâtiments et leur localisation.

  8. Si vous le souhaitez, désactivez la couche Alexandra_Orthomosaic (Orthomosaïque_Alexandra) et ajoutez des tuiles d’image à la carte pour les examiner. Vous pouvez aussi ajouter d’autres tuiles d’étiquette à la carte.
  9. Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit de la souris sur la tuile d’étiquette 000000000000.tif et sélectionnez Remove (Supprimer). Supprimez les autres tuiles d’étiquette et d’image que vous avez ajoutées à la carte.
    Conseil :

    Pour voir davantage d’informations numériques sur les tuiles d’étiquette, dans la fenêtre Catalog (Catalogue), sous le dossier labels (étiquettes), cliquez avec le bouton droit de la souris sur le fichier stats.txt et sélectionnez Show In File Explorer (Afficher dans l’explorateur de fichiers). Ce fichier contient des statistiques, telles que le nombre minimum, mean (en moyenne) et maximum d’entités (en l’occurrence, des bâtiments) par fragment.

  10. Dans ArcGIS Pro, appuyez sur Ctrl+S pour enregistrer le projet.

Jusqu’à présent, vous avez configuré le projet, exploré une couche surfacique représentant des exemples de zone d’habitation informelle, découvert les fragments d’entraînement et la taille de cellule, généré des fragments d’entraînement d’étiquette et d’image, et examiné la sortie.


Entraîner un modèle de zone d’habitation informelle SAMLoRA

À présent, vous allez utiliser les données d’entraînement que vous avez générées pour entrainer le modèle de fondation de Deep Learning SAMLoRA et lui apprendre à identifier les bâtiments situés dans des zones d’habitation informelles dans votre imagerie. Ensuite, vous allez inspecter le modèle entraîné pour mieux le comprendre.

Entraîner le modèle SAMLoRA

Pour commencer, vous allez entraîner le modèle avec l’outil Train Deep Learning Model (Entraîner le modèle de Deep Learning).

  1. Au bas de la fenêtre Catalog (Catalogue), cliquez sur l’onglet Geoprocessing (Géotraitement).

    Onglet Geoprocessing (Géotraitement)

  2. Dans la fenêtre Geoprocessing (Géotraitement), cliquez sur le bouton Back (Retour) jusqu’à ce que vous reveniez dans a zone de recherche.

    Bouton Retour

  3. Recherchez l’outil Train Deep Learning Model (Entraîner le modèle de Deep Learning) et ouvrez-le.

    Recherche de l’outil Train Deep Learning Model (Entraîner le modèle de Deep Learning)

  4. Pour Input Training Data (Données d’entraînement en entrée), cliquez sur le bouton Browse (Parcourir). Accédez à Folders (Dossiers) > Alexandra_Informal_Settlements, sélectionnez Informal_Settlements_256_5cm, puis cliquez sur OK.
  5. Pour Output Folder (Dossier en sortie), saisissez Informal_Settlements_256_5cm_SAMLoRA.

    Ce paramètre crée un sous-dossier dans votre projet (sous Folders (Dossiers) > models) dans lequel stocker le modèle entraîné obtenu.

  6. Dans Max Epochs (Nombre maximal d’époques), saisissez 50.

    Une époque correspond à un passage complet du jeu de données d’entraînement entier.

  7. Pour Model Type (Type de modèle), sélectionnez SAMLoRA (Pixel classification) (SAMLoRA [Classification des pixels]).

    Paramètres de l’outil Train Deep Learning Model (Entraîner le modèle de Deep Learning)

  8. Développez Data Preparation (Préparation des données). Pour Batch Size (Taille de lot), si la mémoire dédiée du GPU NVIDIA est de 4 Go, saisissez 2. Si elle est de 8 Go, saisissez 4.

    Section Data Preparation (Préparation des données)

    La taille de lot change uniquement la vitesse du processus d’entraînement et non la qualité de la sortie.

    Conseil :

    Pour choisir la valeur de Batch Size (Taille de lot), il est recommandé de commencer par une taille de lot moitié moins élevée que la mémoire dédiée du GPU, en Go. Par exemple, si la mémoire dédiée du GPU est de 16 Go, vous pouvez commencer par une taille de lot de 8. Si vous ne connaissez pas la taille de la mémoire dédiée du GPU, commencez par 2.

    Pour être plus précis, vous pouvez examiner l’utilisation en temps réel de la mémoire du GPU. Ouvrez l’invite de commande depuis le menu de démarrage Windows et collez la commande nvidia-smi -l -5. Lorsque vous exécutez des outils de Deep Learning, observez la quantité de mémoire que vous utilisez.

    Utilisation de la mémoire du GPU

    Si vous n’atteignez pas le maximum, vous pourrez augmenter la taille de lot à la prochaine exécution de l’outil.

  9. Développez Advanced (Avancé). Pour Backbone Model (Modèle de backbone), sélectionnez ViT-B.

    B signifie Basique. Cette option entraîne le modèle SAMLoRA sur un réseau neuronal (basique) plus petit.

  10. Pour Monitor Metric (Métrique surveillée), vérifiez que le paramètre Validation loss (Perte de validation) est sélectionné.

    Cette métrique mesure la capacité du modèle à généraliser ce qu’il a appris par rapport à de nouvelles données.

  11. Vérifiez que l’option Stop when model stops improving (Arrêter lorsque le modèle ne s’améliore plus) est sélectionnée pour éviter le surajustement du modèle.
    Remarque :

    Si vous disposez d’un jeu de données d’entraînement plus volumineux et que la mémoire dédiée du GPU est d’au moins 8 Go, vous pouvez envisager d’entraîner le modèle de Deep Learning sur un modèle de backbone de plus grande taille, spécifié dans Backbone Model (Modèle de backbone), tel que ViT-L (grande taille) ou ViT-H (très grande taille).

    Section Advanced (Avancé)

    Vous êtes maintenant prêt à exécuter l’outil.

    Remarque :

    Ce didacticiel recommande l’utilisation d’un GPU NVIDIA avec au moins 8 Go de mémoire dédiée. Selon que votre ordinateur comporte un GPU et en fonction des spécifications du GPU, ce traitement peut prendre moins de 2 minutes à 20 minutes ou plus. Vous pouvez également utiliser un modèle qui a déjà été entraîné pour vous. Dans ce cas, n’exécutez pas l’outil et lisez l’intégralité de cette section. Des instructions permettant d’extraire le modèle mis à disposition sont fournies ultérieurement.

    Si vous ne savez pas si votre ordinateur comporte un GPU et quelles sont les spécifications du GPU, reportez-vous à la section Vérifier la disponibilité de la GPU dans le didacticiel Se préparer au Deep Learning dans ArcGIS Pro.

  12. Si vous choisissez d’exécuter le traitement vous-même, cliquez sur Run (Exécuter). Lorsque l’outil s’exécute, cliquez sur View Details (Afficher les détails) pour voir plus d’informations sur le processus d’entraînement.

    Bouton Run (Exécuter) et lien View Details (Afficher les détails)

    Conseil :

    Vous pouvez extraire les mêmes informations dans la fenêtre History (Historique). Sur le ruban, dans le groupe Geoprocessing (Géotraitement) de l’onglet Analysis (Analyse), cliquez sur History (Historique). Dans la fenêtre History (Historique), cliquez avec le bouton droit de la souris sur le traitement Train Deep Learning Model (Entraîner le modèle de Deep Learning) et sélectionnez View Details (Afficher les détails).

  13. Dans la fenêtre des détails, cliquez sur l’onglet Messages et surveillez la métrique validation loss (perte de validation).

    Onglet Messages

    Plus la valeur de validation loss (perte de validation) est faible, mieux c’est. Elle diminue progressivement avec chaque époque au fur et à mesure que le modèle améliore sa capacité à identifier correctement les zones contenant des bâtiments. Lorsque sa valeur ne change plus de manière significative, l’entraînement s’arrête. En parallèle, les métriques accuracy (précision) et Dice (Segmenter) (troisième et quatrième colonnes) augmentent régulièrement. Ces métriques mesurent les performances du modèle.

    Remarque :

    Étant donné que l’entraînement avec le Deep Learning est un traitement non déterministe, les informations que vous obtenez dans l’onglet Messages peuvent être différentes de celles qui figurent dans les images fournies à titre d’exemple.

  14. Une fois l’entraînement terminé, vérifiez les nombres figurant dans accuracy (précision) et Building precision (Précision pour les bâtiments).

    Nombres figurant dans accuracy (précision) et Building precision (Précision pour les bâtiments)

    Dans l’image fournie à titre d’exemple, la précision globale est 8.9250e-01 (8,9250e-01) ou 89.25 (89,25) pour cent. Pour ce cas d’utilisation, elle devrait être comprise entre 85 et 95 pour cent. Comme vous vous intéressez spécifiquement à l’identification des bâtiments, la valeur precision (précision) pour Building (Bâtiment) est la meilleure mesure des performances du modèle. Dans ce cas, elle est de 0.8913 (0,8913) ou89.13 (89,13) pour cent. (Les valeurs que vous obtenez peuvent être différentes.)

  15. Fermez la fenêtre de détails.

Inspecter le modèle SAMLoRA entraîné

Pour en savoir plus sur votre modèle SAMLoRA entraîné, vous pouvez l’examiner à l’aide de l’outil Review Deep Learning Models (Inspecter les modèles de Deep Learning).

  1. Dans le ruban, cliquez sur l’onglet Imagerie. Dans le groupe Image Classification (Classification des images), cliquez sur Deep Learning Tools (Outils de Deep Learning) et sélectionnez Review Deep Learning Models (Inspecter les modèles de Deep Learning).

    Option de menu Review Deep Learning Models (Inspecter les modèles de Deep Learning)

  2. Dans la fenêtre Deep Learning Model Reviewer (Inspecteur de modèles de Deep Learning), pour Model (Modèle), cliquez sur le bouton Browse (Parcourir).

    Bouton Parcourir

  3. Accédez à Folders (Dossiers) > Alexandra_Informal_Settlements > models, sélectionnez Informal_Settlements_256_5cm_SAMLoRA, puis cliquez sur OK.

    Informal_Settlements_256_5cm_SAMLoRA (Zones d’habitation informelles – 256 pixels – 5 cm – SAMLoRA) sélectionné

  4. Dans la fenêtre Deep Learning Model Reviewer (Inspecteur de modèles de Deep Learning), localisez le graphique sous Training and Validation Loss (Perte d’entraînement et de validation).

    Graphique de la perte d’entraînement et de validation

    Ce graphique illustre l’apprentissage du modèle en détail. Training Loss (Perte d’entraînement) (en bleu) représente l’étendue de l’apprentissage du modèle avec les données d’entraînement et Validation Loss (Perte de validation) (en orange) représente la capacité du modèle à généraliser ce qu’il a appris par rapport à de nouvelles données. (Votre graphique peut être différent.) Dans la dernière partie de l’entraînement, les courbes de perte d’entraînement et de validation forment des lignes asymptotiques.

    Lignes asymptotiques

    Ce phénomène est appelé convergence. Si l’entraînement continue au-delà de cette phase, le modèle peut devenir plus performant avec des données d’entraînement plutôt qu’avec des données de validation, ce qui signifie qu’il surajuste les données d’entraînement et qu’il perd sa capacité de généralisation par rapport aux nouvelles données.

  5. Prenez connaissance des autres informations fournies dans la fenêtre, notamment les informations figurant dans Model Type (Type de modèle), Backbone, Accuracy (Précision) (globale) et Epochs Details (Détails des époques).
    Remarque :

    Pour en savoir plus sur les informations figurant dans cette fenêtre, reportez-vous à la page de documentation Révision des modèles de Deep Learning.

  6. Une fois que vous avez pris connaissance des informations relatives au modèle, fermez la fenêtre Deep Learning Model Reviewer (Inspecteur de modèles de Deep Learning).
  7. Appuyez sur Ctrl+S pour enregistrer le projet.

Vous avez entraîné le modèle de fondation de Deep Learning de SAMLoRA pour lui apprendre à identifier les bâtiments situés dans des zones d’habitation informelles.


Classer et extraire les zones d’habitation informelles avec SAMLoRA

À présent, vous êtes prêt à extraire les zones d’habitation informelles de votre imagerie. Pour commencer, vous allez appliquer le modèle SAMLoRA entraîné à votre imagerie afin de classer les pixels en tant que bâtiment ou non. Ce traitement s’appelle l’inférence. Ensuite, vous allez générer des polygones d’emprise de bâtiment. Enfin, vous allez explorer les résultats développés afin de comprendre la puissance de l’approche SAMLoRA pour extraire différents types d’objet pour de plus grandes étendues.

Classer les zones d’habitation informelles

Pour commencer, vous allez appliquer le modèle SAMLoRA entraîné à votre imagerie à l’aide de l’outil Classify Pixels Using Deep Learning (Classer des pixels à l’aide du Deep Learning). Pour accélérer le processus dans ce didacticiel, vous exécuterez le traitement sur une petite étendue seulement. Toutefois, dans la réalité, vous pouvez traiter des imageries de très grande taille.

  1. Sur le ruban, cliquez sur l’onglet Map (Carte). Dans le groupe Navigate (Naviguer), cliquez sur Bookmarks (Géosignets), puis sélectionnez le géosignet Inferencing Area (Zone d’inférence).

    Géosignet Inferencing Area (Zone d’inférence)

    La carte applique un zoom au géosignet.

    Zone d’inférence

  2. Dans la fenêtre Géotraitement, cliquez sur le bouton Retour. Recherchez l’outil Classify Pixels Using Deep Learning (Classer des pixels à l’aide du Deep Learning) et ouvrez-le.

    Recherche de l’outil Classify Pixels Using Deep Learning (Classer des pixels à l’aide du Deep Learning)

  3. Définissez les paramètres suivants de l’outil :
    • Pour Input Raster (Raster en entrée), sélectionnez Alexandra_Orthomosaic (Orthomosaïque_Alexandra).
    • Pour Output Raster Dataset (Jeu de données raster en sortie), saisissez Informal_Settlements_Raster (Raster des zones d’habitation informelles).
    • Pour Model Definition (Définition de modèle), cliquez sur le bouton Browse (Parcourir). Accédez à Folders (Dossiers) > Alexandra_Informal_Settlements > models > Informal_Settlements _256_5cm_SAMLoRA, sélectionnez Informal_Settlements _256_5cm_SAMLoRA.dlpk, puis cliquez sur OK.
    • Pour batch_size, saisissez la même valeur que précédemment (par exemple 2 si la mémoire dédiée du GPU est de 4 Go).
    Remarque :

    Si vous n’avez pas entraîné le modèle vous-même, pour Model Definition (Définition de modèle), utilisez le modèle fourni qui se trouve dans Folders (Dossiers) > Alexandra_Informal_Settlements > Provided_Data > models > Informal_Settlements _256_5cm_SAMLoRA.

    Paramètres de l’outil Classify Pixels Using Deep Learning (Classer des pixels à l’aide du Deep Learning)

  4. Dans la fenêtre de l’outil, cliquez sur l’onglet Environments (Environnements).
  5. Sous Processing Extent (Étendue de traitement), cliquez sur le bouton Current Display Extent (Étendue d’affichage actuelle).

    Bouton Current Display Extent (Étendue d’affichage actuelle)

    Ce paramètre garantit que seul la zone actuellement affichée sur la carte sera traitée.

  6. Pour Cell Size (Taille de cellule), saisissez 0.05, qui correspond à la taille de cellule que vous avez utilisée lors de l’entraînement de SAMLoRA.

    Taille de cellule définie sur 0,05

    Remarque :

    Ce traitement de l’outil peut prendre moins d’une minute à 15 minutes, selon que vous utilisez un processeur graphique et en fonction des spécifications de ce processeur graphique. Si vous préférez ne pas exécuter le traitement vous-même, vous pouvez utiliser l’une des sorties mises à disposition. Dans la fenêtre Catalog (Catalogue), accédez à Databases (Bases de données) > Provided_Data.gdb, cliquez avec le bouton droit de la souris sur Informal_Settlements_Raster (Raster des zones d’habitation informelles), puis sélectionnez Add To Current Map (Ajouter à la carte actuelle).

  7. Si vous avez choisi d’exécuter le traitement vous-même, cliquez sur Run (Exécuter).

    Une fois le traitement terminé, la nouvelle couche raster apparaît sur la carte.

    Couche Informal_Settlements_Raster (Raster des zones d’habitation informelles) sur la carte

    Chaque pixel dans l’imagerie pour l’étendue que vous avez choisie est classé et le résultat est capturé dans le raster en sortie : la valeur 1 est attribuée aux zones appartenant à un bâtiment situé dans une zone d’habitation informelle (en orange clair) et la valeur 0 est attribuée aux zones n’appartenant pas à un bâtiment (transparentes).

    Remarque :

    La couleur est attribuée aléatoirement et peut varier.

Générer et nettoyer les polygones d’emprise de bâtiment

Maintenant que vous avez généré un raster en sortie à l’aide d’outils GeoAI, vous allez le post-traiter. L’objectif est d’obtenir une couche représentant les emprises de bâtiment sous forme de polygones. Vous allez utiliser un outil personnalisé qui inclut les étapes principales suivantes :

Pour commencer, vous allez extraire une boîte à outils contenant cet outil et qui est hébergée dans ArcGIS Online.

  1. Dans la fenêtre Catalog (Catalogue), cliquez sur l’onglet Portal (Portail), puis cliquez sur le bouton ArcGIS Online. Saisissez Post_Deep_Learning_Workflows owner:Esri_Tutorials dans la zone de recherche et appuyez sur Entrée.

    Recherche de boîte à outils

    Dans les résultats de la recherche, cliquez avec le bouton droit de la souris sur Post_Deep_Learning_Workflows et sélectionnez Add To Project (Ajouter au projet).

    Option de menu Add To Project (Ajouter au projet)

    La boîte à outils est téléchargée dans votre projet local.

  2. Dans la fenêtre Catalog (Catalogue), cliquez sur l’onglet Project (Projet). Développez Toolboxes (Boîtes à outils) et PostDeepLearning.pyt.

    La boîte à outils contient plusieurs outils, y compris un pour post-traiter les bâtiments.

    Remarque :

    L’outil permettant de post-traiter les bâtiments fonctionne pour tous les types de bâtiment, pas seulement pour les zones d’habitation informelles.

    Si vous le souhaitez, vous pouvez examiner le code source de cet outil personnalisé sur GitHub.

  3. Cliquez avec le bouton droit de la souris sur Post Processing Buildings from Raster Output (Post-traitement des bâtiments à partir d’une sortie raster) et sélectionnez Open (Ouvrir).

    Option de menu Open (Ouvrir)

  4. Pour Input Raster (Raster en entrée), sélectionnez Informal_Settlements_Raster (Raster des zones d’habitation informelles).
  5. Pour Field Name for Raster to Polygon (Nom de champ pour l’outil Raster vers polygones), sélectionnez Class (Classe).

    Ce champ contient la valeur de classe Building (Bâtiment).

  6. Pour Unique Value of Selected Field (Valeur unique du champ sélectionné), sélectionnez Building (Bâtiment).

    L’outil ciblera uniquement les cellules raster possédant cette valeur.

  7. Pour Output Feature Class (Classe d’entités en sortie), saisissez Informal_Settlements_Final (Zones d’habitation informelles finales).

    Cette sortie sera la classe d’entités en sortie finale. Elle sera enregistrée dans la base de données par défaut du projet.

    Paramètres de l’outil Post Processing Buildings from Raster Output (Post-traitement des bâtiments à partir d’une sortie raster)

    Remarque :

    Si votre raster en entrée ne contient pas d’attribut Class (Classe), pour Field Name for Raster to Polygon (Nom de champ pour l’outil Raster vers polygones), choisissez Value (Valeur), et pour Unique Value of Selected Field (Valeur unique du champ sélectionné), choisissez le numéro correspondant aux entités de votre choix (1, par exemple).

  8. Cliquez sur Run (Exécuter).

    La couche en sortie apparaît. Vous attribuerez à la couche la même symbologie que celle de la couche Informal_Settlements_Examples (Exemples de zone d’habitation informelle) que vous avez utilisée précédemment dans le processus.

  9. Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit de la souris sur Informal_Settlements_Examples (Exemples de zone d’habitation informelle) et sélectionnez Copy (Copier).

    Option de menu Copy (Copier)

  10. Cliquez avec le bouton droit de la souris sur Informal_Settlements_Final (Zones d’habitation informelles finales) et sélectionnez Paste Properties (Coller les propriétés).

    Option de menu Paste Properties (Coller les propriétés)

    La couche est mise à jour avec la symbologie gris clair. Vous allez désactiver la couche raster pour réduire l’encombrement sur la carte.

  11. Dans la fenêtre Contents (Contenu), désactivez la couche Informal_Settlements_Raster (Raster des zones d’habitation informelles).

    Couche Informal_Settlements_Raster (Raster des zones d’habitation informelles) désactivée

    Vous allez utiliser l’outil Swipe (Balayer) pour comparer la couche en sortie finale à l’imagerie originale.

  12. Dans la fenêtre Contents (Contenu), cliquez sur la couche Informal_Settlements_Final (Zones d’habitation informelles finales) pour la sélectionner.

    Couche Informal_Settlements_Final (Zones d’habitation informelles finales) sélectionnée

  13. Sur le ruban, cliquez sur l’onglet Feature Layer (Couche d’entités). Dans le groupe Compare (Comparer), cliquez sur Swipe (Balayer).

    Bouton Balayer

  14. Sur la carte, glissez du haut vers le bas pour retirer la couche Informal_Settlements_Final (Zones d’habitation informelles finales) et révéler l’imagerie Alexandra_Orthomosaic (Orthomosaïque_Alexandra) qui se trouve en dessous.

    Curseur de balayage

    Les polygones d’emprise de bâtiment correspondent très précisément aux bâtiments présents dans l’imagerie.

  15. Sur le ruban, cliquez sur l’onglet Map (Carte). Dans le groupe Navigate (Naviguer), cliquez sur le bouton Explore (Explorer).

    Bouton Explorer

Explorer les résultats développés

Jusqu’à présent, vous avez extrait des zones d’habitation informelles pour une petite étendue afin d’accélérer le processus. À présent, vous allez examiner la sortie pour l’étendue de l’imagerie de drone entière. Vous examinerez également la possibilité d’extraire plusieurs types d’entité avec l’approche SAMLoRA. Dans ce cas, les entités suivantes ont été extraites :

  • Différents types de bâtiments, des bâtiments informels et plus petits aux bâtiments standards et plus grands.
  • Différents types de routes, des routes étroites et non goudronnées aux routes plus larges et goudronnées.

Pour commencer, vous allez ouvrir une carte contenant ces exemples.

  1. Dans la fenêtre Catalog (Catalogue), développez Maps (Cartes). Cliquez avec le bouton droit de la souris sur Explore Outputs (Explorer les sorties), puis sélectionnez Open (Ouvrir).

    Option de menu Open (Ouvrir)

    La carte Explore Outputs (Explorer les sorties) apparaît. Pour le moment, la couche d’imagerie Alexandra_Orthomosaic (Orthomosaïque_Alexandra) est activée. Vous allez activer d’autres couches et les examiner.

  2. Dans la fenêtre Contents (Contenu), activez les couches Expanded_Training_Areas (Zones d’entraînement développées) et Buildings_and_Roads_Examples (Exemples de bâtiment et de route).

    Couches Expanded_Training_Areas (Zones d’entraînement développées) et Buildings_and_Roads_Examples (Exemples de bâtiment et de route) activées

    Cette fois, plusieurs polygones orange apparaissent. Ils délimitent chacun une zone d’entraînement différente. Dans ces zones d’entraînement, les exemples en gris capturent différents types de bâtiments et de routes.

    Couches Expanded_Training_Areas (Zones d’entraînement développées) et Buildings_and_Roads_Examples (Exemples de bâtiment et de route) affichées sur la carte

  3. Effectuez un zoom avant et déplacez-vous pour observer les exemples de bâtiment et de route.
  4. Dans la fenêtre Contents (Contenu), cliquez avec le bouton droit de la souris sur Buildings_and_Roads_Examples (Exemples de bâtiment et de route) et sélectionnez Attribute Table (Table attributaire).

    Option de menu Attribute Table (Table attributaire)

  5. Faites défiler la table attributaire Buildings_and_Roads_Examples (Exemples de bâtiment et de route) pour examiner les valeurs de l’attribut Class (Classe).

    Attribut Class (Classe)

    Dans ce cas, deux valeurs sont possibles : Building (Bâtiment) et Road (Route). SAMLoRA utilisera ces informations pour apprendre à identifier ces deux types d’entités.

  6. Fermez la table.

    Ces exemples ont été utilisés comme entrées pour générer des données d’entraînement, en suivant le même processus que celui décrit dans ce didacticiel. Ensuite, le modèle SAMLoRA a été entraîné pour apprendre à identifier ces entités. Le modèle a été appliqué à l’imagerie entière et finalement, des couches d’entités pour les bâtiments et les routes ont été générées. Vous allez examiner les sorties obtenues.

  7. Dans la fenêtre Contents (Contenu), désactivez les couches Expanded_Training_Areas (Zones d’entraînement développées) et Buildings_and_Roads_Examples (Exemples de bâtiment et de route).

    Couches Expanded_Training_Areas (Zones d’entraînement développées) et Buildings_and_Roads_Examples (Exemples de bâtiment et de route) désactivées

  8. Activez la couche Buildings_and_Roads_Raster_Full_Extent.

    Couche Buildings_and_Roads_Raster_Full_Extent activée

    Le raster en sortie identifie les zones appartenant à des bâtiments (en orange clair) et les routes (en bleu marine).

    Couche Buildings_and_Roads_Raster_Full_Extent sur la carte

  9. Effectuez un zoom avant et déplacez-vous pour observer la couche raster.

    La variété de bâtiments et de routes identifiés est impressionnante. Le modèle peut être appliqué à une étendue d’imagerie beaucoup plus grande, couvrant par exemple l’intégralité d’une ville ou d’une région.

    À présent, vous allez examiner les deux couches d’entités générées :

    • Une couche surfacique pour les bâtiments, générée à l’aide de l’outil Post Processing Buildings from Raster Output (Post-traitement des bâtiments à partir d’une sortie raster) que vous avez utilisé précédemment.
    • Une couche surfacique pour les routes, générée à l’aide de l’outil Post Processing Roads from Raster Output (Post-traitement des routes à partir d’une sortie raster) également inclus dans la boîte à outils Post Deep Learning Workflows (Processus de Deep Learning pour le post-traitement).
  10. Dans la fenêtre Contents (Contenu), désactivez Buildings_and_Roads_Raster_Full_Extent. Activez Buildings_Full_Extent (Vue générale des bâtiments) et Roads_Full_Extent (Vue générale des routes).

    Couche Building_and_Roads_Raster_Full_Extent désactivée, couches Buildings_Full_Extent et Roads_Full_Extent activées

  11. Effectuez un zoom avant et déplacez-vous pour observer les couches d’entités des bâtiments et des routes.

    Couches Buildings_Full_Extent (Vue générale des bâtiments) et Roads_Full_Extent (Vue générale des routes) sur la carte

    Ce type de carte détaillée peut être utile à une organisation locale à but non lucratif pour proposer de meilleurs services à la communauté.

  12. Appuyez sur Ctrl+S pour enregistrer le projet.

Appliquer ce processus à votre propre imagerie — Facultatif

Pour appliquer ce processus à votre propre imagerie, gardez les conseils suivants à l’esprit.

  • Emplacement de stockage de l’imagerie : dans ce didacticiel, vous avez utilisé une couche d’images générée dans Site Scan for ArcGIS à partir d’une imagerie de drone brute haute résolution et enregistrée dans ArcGIS Online directement depuis Site Scan. Lorsque vous utilisez vos propres données, vous pouvez également les héberger dans ArcGIS Online. Reportez-vous à la page de documentation Publier des couches d’imagerie hébergées pour en savoir plus. Vous pouvez également utiliser une imagerie stockée sur votre ordinateur local.
  • Utilisation d’une imagerie cohérente dans l’ensemble du processus : lorsque vous utilisez le modèle SAMLoRA, veillez à utiliser une imagerie similaire pour entraîner le modèle et pour l’appliquer. Plus précisément, les bandes spectrales (comme les bandes rouge, verte et bleue), l’espace par pixel (par exemple 8 bits) et la taille de cellule doivent être identiques.
  • Recherche des propriétés de votre imagerie : si vous ne connaissez pas les propriétés de votre imagerie, dans la fenêtre Contents (Contenu), cliquez avec le bouton droit de la souris sur la couche d’imagerie et sélectionnez Properties (Propriétés). Dans la fenêtre Properties (Propriétés), cliquez sur la fenêtre Source. Sous Raster Information (Informations raster), recherchez les valeurs pour Number of Bands (Nombre de bandes), Cell Size X (Taille de cellule X), Cell Size Y (Taille de cellule Y) et Pixel Depth (Espace par pixel).
  • Adaptation de votre imagerie en entrée : si vous devez adapter votre imagerie afin de l’utiliser comme entrée dans un modèle SAMLoRA déjà entraîné (par exemple choisir un sous-ensemble de bandes ou changer l’espace par pixel), reportez-vous à la section Sélectionner les bandes d’imagerie pertinentes dans le didacticiel Améliorer un modèle de Deep Learning avec l’apprentissage par transfert pour des instructions détaillées. Vous pouvez également apprendre à rééchantillonner votre imagerie (ou à changer la taille de cellule de votre imagerie) dans le didacticiel Explorer l’imagerie – Résolution spatiale.
  • Création d’une couche surfacique d’échantillons d’entraînement : suivez les instructions détaillées de la section Préparer des échantillons d’entraînement pour l’apprentissage par transfert du didacticiel Améliorer un modèle de Deep Learning avec l’apprentissage par transfert.
  • Utilisation d’un domaine attributaire : dans la couche surfacique des échantillons d’entraînement, la valeur de Building (Bâtiment) dans l’attribut Class (Classe) est en fait une étiquette pour la valeur numérique sous-jacente 1. Bien qu’il ne s’agisse pas d’une partie essentielle du processus, sachez qu’elle est implémentée avec un domaine attributaire. Pour en savoir plus sur cette technique, suivez le didacticiel Appliquer des sous-types et des domaines aux sentiers de randonnée de Vienne. Vous pouvez aussi utiliser des valeurs numériques pour vos classes. La sortie sera également numérique et les entités extraites seront nommées 1 au lieu de Building (Bâtiment).
  • Création d’une couche de zone d’entraînement : vous pouvez utiliser l’outil de géotraitement Créer une classe d’entités. Ensuite, sur le ruban, dans l’onglet Edit (Mise à jour), cliquez sur l’outil Create (Créer) pour tracer un ou plusieurs polygones rectangulaires délimitant les zones dans lesquelles mettre à disposition des échantillons d’entraînement.
  • Choix de la taille de cellule : comme expliqué dans la section En savoir plus sur les fragments d’entraînement et la taille de cellule, testez différentes tailles de cellule afin de générer des tuiles optimisées pour les entités que vous prévoyez d’extraire.
  • Expérimenter une petite étendue : lorsque vous effectuez des essais, vous pouvez limiter le traitement à une petite étendue afin d’obtenir les résultats plus rapidement. Dans l’onglet Environments (Environnements), sous Processing Extent (Étendue de traitement), cliquez sur le bouton Draw Extent (Dessiner l’étendue) et dessinez un petit polygone sur la carte. Vous pouvez aussi effectuer un zoom avant sur la carte et cliquer sur le bouton Current Display Extent (Étendue d’affichage actuelle).

Au cours de ce didacticiel, vous avez utilisé l’approche SAMLoRA pour identifier les zones d’habitation informelles dans votre imagerie. Vous avez généré des données d’entraînement, que vous avez utilisées pour entraîner le modèle de fondation. Vous avez appliqué le modèle entraîné pour classer les zones d’habitation informelles dans votre imagerie, puis avez généré et nettoyé les polygones d’emprise de bâtiment. Enfin, vous avez exploré les résultats développés.

Vous trouverez d’autres didacticiels comme ceux-ci dans la série Essayer le Deep Learning avec ArcGIS.

Vous trouverez d’autres didacticiels dans la bibliothèque des didacticiels.