Vorbereitungen für die Deep-Learning-Analyse treffen
Im ersten Teil des Lernprogramms richten Sie das ArcGIS Pro-Projekt ein, wählen ein vortrainiertes Deep-Learning-Modell aus, bereiten Bilddaten für das Modell vor und erfahren, wann Transfer Learning notwendig ist.
Das Projekt einrichten
Zunächst laden Sie das Projekt herunter, das alle Daten für dieses Lernprogramm enthält, und öffnen es in ArcGIS Pro. Anschließend fügen Sie der Projektkarte Bilddaten hinzu.
- Laden Sie die Datei Seattle_Building_Detection.zip herunter, und navigieren Sie zur heruntergeladenen Datei auf Ihrem Computer.
Hinweis:
In den meisten Webbrowsern werden heruntergeladene Dateien standardmäßig im Ordner "Downloads" gespeichert.
- Klicken Sie mit der rechten Maustaste auf die Datei "Seattle_Building_Detection.zip", und extrahieren Sie sie an einem Speicherort auf dem Computer, beispielsweise in einem Ordner auf Laufwerk C:.
- Öffnen Sie den extrahierten Ordner Seattle_Building_Detection, und doppelklicken Sie auf Seattle_Building_Detection.aprx, um das Projekt in ArcGIS Pro zu öffnen.
- Melden Sie sich bei Ihrem ArcGIS-Organisationskonto oder mit einem Named-User-Konto bei ArcGIS Enterprise an, falls Sie dazu aufgefordert werden.
Hinweis:
Wenn Sie über keinen Zugriff auf ArcGIS Pro oder über kein ArcGIS-Organisationskonto verfügen, informieren Sie sich über die Optionen für den Zugriff auf die Software.
Das Projekt wird geöffnet.
Die Karte enthält nur die standardmäßige topographische Grundkarte. In diesem Workflow verwenden Sie Luftbilddaten, um Gebäude zu erkennen. Jetzt fügen Sie diese Bilddaten der Karte hinzu.
- Klicken Sie auf dem Menüband auf die Registerkarte Ansicht. Klicken Sie in der Gruppe Fenster auf den Bereich "Katalog".
Der Bereich Katalog wird angezeigt.
- Blenden Sie im Bereich Katalog die Einträge Ordner, Seattle_Building_Detection und Imagery_data ein.
- Klicken Sie mit der rechten Maustaste auf Seattle_imagery.jp2, und wählen Sie Zu aktueller Karte hinzufügen aus.
- Wenn Sie aufgefordert werden, die Statistiken zu berechnen, klicken Sie auf Ja.
Statistiken sind notwendig, damit bestimmte Tasks für die Bilddaten durchgeführt werden können, z. B. das Rendering mit einer Streckung. Die Bilddaten werden auf der Karte angezeigt. Sie stellen einen Bereich von Seattle dar.
Hinweis:
Diese Luftbilddaten stammen von der Website des U.S. National Agriculture Imagery Program (NAIP). NAIP-Bilddaten der gesamten Vereinigten Staaten können von der Website USGS Earth Explorer heruntergeladen werden.
- Vergrößern Sie die Ansicht, und schwenken Sie, um die Bilddaten zu untersuchen. Achten Sie darauf, dass dieses Bild viele Gebäude enthält.
Ein vortrainiertes Modell auswählen und überprüfen
Sie möchten mithilfe von Deep Learning Gebäude-Footprints aus den Luftbilddaten extrahieren. Wenn Ihnen kein Deep-Learning-Modell zur Verfügung steht, müssen Sie zunächst ein Modell von Grund auf trainieren und ihm zahlreiche Beispiele bereitstellen, um ihm zu zeigen, was ein Gebäude ist. Leistungsfähige Modelle müssen möglicherweise mit Zehntausenden von Beispielen trainiert werden. Alternativ können Sie ein bereits trainiertes Modell verwenden. Sie rufen ein solches Modell ab und erhalten Informationen zu den Spezifikationen.
Hinweis:
Die Verwendung der Deep-Learning-Werkzeuge in ArcGIS Pro setzt voraus, dass Sie die richtigen Deep-Learning-Bibliotheken auf Ihrem Computer installiert haben. Falls Sie diese Dateien nicht installiert haben, speichern Sie Ihr Projekt, schließen Sie ArcGIS Pro, und führen Sie die unter Auf Deep Learning in ArcGIS Pro vorbereiten beschriebenen Schritte aus. In diesen Anweisungen erfahren Sie neben weiteren nützlichen Tipps, wie Sie überprüfen können, ob Ihr Computer die Hardware- und Softwareanforderungen zum Ausführen von Deep-Learning-Workflows erfüllt. Anschließend können Sie Ihr Projekt erneut öffnen und mit dem Lernprogramm fortfahren.
- Wechseln Sie zur Website ArcGIS Living Atlas of the World.
- Geben Sie im Suchfeld den Begriff Pretrained model ein, und drücken Sie die EINGABETASTE.
- Navigieren Sie in der Ergebnisliste, um die über 50 verfügbaren vortrainierten Modelle zu sehen.
- Geben Sie im Suchfeld den Begriff Building Footprint Extraction ein, und drücken Sie die EINGABETASTE.
Die Ergebnisliste enthält vortrainierte Deep-Learning-Modelle für verschiedene Regionen der Welt. Da Ihr Interessenbereich in den Vereinigten Staaten liegt, wählen Sie das für diesen Bereich trainierte Modell aus.
- Klicken Sie in der Ergebnisliste auf Building Footprint Extraction – USA.
Die Beschreibungsseite für das Modell wird angezeigt. Sie enthält eine Reihe relevanter Informationen zu dem Modell. Am wichtigsten ist, dass Sie verstehen, welchen Eingabetyp das Modell erwartet. Wenn die Eingabedaten dem Typ der Daten, mit denen das Modell trainiert wurde, nicht ähnlich genug sind, erhalten Sie mit dem Model weniger gute Ergebnisse.
- Nehmen Sie sich Zeit, den Inhalt dieser Seite zu lesen. Lesen Sie vor allem den Abschnitt in der folgenden Beispielabbildung:
Sie lernen einige Fakten zum Modell kennen:
- Eingabe: Das Modell erwartet als Eingabe hochauflösende (10–40 cm) Bilddaten (8-Bit, 3-Band). Sie müssen die Daten weiter untersuchen, um herauszufinden, ob sie diesen Vorgaben entsprechen. Dazu kommen Sie im weiteren Verlauf des Lernprogramms.
- Ausgabe: Das Modell erstellt eine Feature-Class, die Gebäude-Footprints enthält. Eine Ausgabe aus Gebäude-Footprint-Polygonen ist genau das, was Sie suchen.
- Eignung für Geographien: Das Modell eignet sich gut für die Vereinigten Staaten. Das ist perfekt, da Ihr Interessenbereich in den Vereinigten Staaten liegt.
- Modellarchitektur: Das Modell verwendet die MaskRCNN-Modellarchitektur. Notieren Sie sich diese Informationen. Sie benötigen sie später im Workflow.
Da sich das Modell gut für das Projekt zu eignen scheint, laden Sie es herunter.
- Klicken Sie unter Übersicht auf Herunterladen.
Kurz darauf ist der Download abgeschlossen.
- Suchen Sie die heruntergeladene Datei usa_building_footprints.dlpk auf Ihrem Computer.
Tipp:
In den meisten Webbrowsern werden heruntergeladene Dateien standardmäßig im Ordner Downloads gespeichert.
- Erstellen Sie im Ordner Seattle_Building_Detection einen Ordner mit dem Namen Pretrained_model.
- Verschieben Sie die Modelldatei usa_building_footprints.dlpk aus dem Download-Speicherort in den Ordner Pretrained_model.
Eigenschaften von Bilddaten untersuchen
Als Nächstes untersuchen Sie, inwieweit die Daten den optimalen hochauflösenden (10–40 cm) Eingabebilddaten (8-Bit, 3-Band) entsprechen.
- Navigieren Sie zurück zum Projekt Seattle_Building_Detection in ArcGIS Pro.
- Klicken Sie im Bereich Inhalt mit der rechten Maustaste auf Seattle_imagery.jp2, und wählen Sie Eigenschaften aus.
- Klicken Sie im Fenster Layer-Eigenschaften auf Quelle, und blenden Sie Raster-Information ein.
- Suchen Sie das Feld Anzahl an Bändern.
Der Wert lautet 4. Das NAIP-Programm erfasst multispektrale Bilddaten, die aus vier Spektralbändern bestehen: Rot, Grün, Blau und Nahinfrarot. Das Nahinfrarotband wird oft zum Visualisieren des Vegetationszustands verwendet. Das Modell erwartet stattdessen drei Bänder (Rot, Grün und Blau). Sie müssen diese Abweichung beheben.
- Suchen Sie die Felder Zellengröße X und Zellengröße Y.
Der Wert lautet in beiden Fällen 1. Das bedeutet, dass jede Zelle (bzw. jedes Pixel) in den Bilddaten 1 Meter auf 1 Meter misst. Das NAIP-Bild wurde tatsächlich mit einer Auflösung von 1 Meter erfasst. Diese Auflösung ist niedriger als die vom Modell empfohlene hohe Auflösung von 10–40 cm. Sie müssen auch dieses Problem beheben.
- Suchen Sie das Feld Pixeltiefe.
Der Wert lautet 8 Bit, was den für das Modell erforderlichen 8 Bit entspricht.
- Klicken Sie auf OK, um das Fenster Layer-Eigenschaften zu schließen.
Sie lernen eine weitere Methode zum Visualisieren der Anzahl der Bänder kennen.
- Klicken Sie im Bereich Inhalt mit der rechten Maustaste auf Seattle_imagery.jp2, und wählen Sie Symbolisierung aus.
- Klicken Sie im Bereich Symbolisierung für Rot auf Band_1, um die Dropdown-Liste einzublenden.
Vier Bänder sind aufgeführt. Beim Anzeigen eines multispektralen Bildes können nur jeweils drei Bänder über die Kanäle für Rot, Grün und Blau angezeigt werden. Dabei werden die drei ausgewählten Bänder zu einem RGB-Kompositbild kombiniert. Sie können jedoch sehen, dass im Bild vier Bänder vorhanden sind und zu verschiedenen Analysezwecken verwendet werden können.
- Schließen Sie den Bereich Symbolisierung.
Sie haben bei zwei Kriterien einen Konflikt zwischen den Bilddaten und den Erwartungen des vortrainierten Modells festgestellt: bei der Anzahl der Bänder und bei der Auflösung. Im weiteren Verlauf dieses Workflow erfahren Sie, wie Sie diese beiden Probleme beheben.
Relevante Bilddatenbänder auswählen
Jetzt beheben Sie den Konflikt bezüglich der Bänder. Die Bilddaten weisen vier Spektralbänder auf:
- Band 1: Rot
- Band 2: Grün
- Band 3: Blau
- Band 4: Nahinfrarot
Das Modell erwartet in der Eingabe drei Bänder (Rot, Grün, Blau). Um Abhilfe zu schaffen, müssen Sie einen neuen Layer erstellen, der nur die ersten drei Bänder der NAIP-Bilddaten enthält und damit mehr den Erwartungen des Modells entspricht. Dieser Schritt ist wichtig. Wenn Sie ihn überspringen, leidet die Performance des Modells.
Hinweis:
Es ist unerlässlich, dass Sie die genaue Reihenfolge der Bänder in den Bilddaten kennen. In anderen Bilddatentypen beispielsweise können die Bänder in einer anderen Reihenfolge vorliegen: Band 1 (Blau), Band 2 (Grün) und Band 3 (Rot). Diese Informationen finden Sie entweder in den Eigenschaften der Bilddaten oder in der zugehörigen Dokumentation.
Sie erstellen den neuen Drei-Band-Layer mit einer Raster-Funktion.
- Klicken Sie im Menüband auf der Registerkarte Bilddaten in der Gruppe Analyse auf die Schaltfläche Raster-Funktionen.
- Geben Sie im Bereich Raster-Funktionen im Suchfeld den Begriff Extract Bands ein. Klicken Sie unter Datenmanagement auf Bänder extrahieren.
- Legen Sie für den Parameter Bänder extrahieren die folgenden Werte fest:
- Wählen Sie für Raster, die Option Seattle_imagery.jp2 aus.
- Vergewissern Sie sich unter Kombination, dass der Wert 1 2 3 lautet, was den Bändern 1 (Rot), 2 (Grün) und 3 (Blau) entspricht.
- Wählen Sie für Fehlende Bandaktion die Option Fehler aus.
Fehlende Bandaktion gibt die Aktion an, die ausgeführt wird, wenn eines der aufgeführten Bänder nicht verfügbar ist. Fehler bedeutet, dass die Raster-Funktion abgebrochen wird und fehlschlägt. Sie wählen diese Option aus, da zum erfolgreichen Durcharbeiten des Lernprogramms zwingend alle drei Bänder vorhanden sein müssen.
- Klicken Sie auf Neuen Layer erstellen.
Im Bereich Inhalt wird ein neuer Layer mit dem Namen Extract Bands_Seattle_imagery.jp2 angezeigt. Mit Raster-Funktionen erstellte Layer werden dynamisch berechnet und nicht auf der Festplatte gespeichert. In diesem Fall möchten Sie den resultierenden Layer als TIFF-Datei dauerhaft auf dem Computer speichern. Dazu verwenden Sie Raster exportieren.
- Klicken Sie mit der rechten Maustaste auf Extract Bands_Seattle_imagery.jp2, und wählen Sie Daten und Raster exportieren aus.
- Klicken Sie im Bereich Raster exportieren für Ausgabe-Raster-Dataset auf die Schaltfläche Durchsuchen.
- Navigieren Sie im Fenster Ausgabeverzeichnis zu Ordner > Seattle_Building_Detection > Imagery_data, geben Sie für Name die Zeichenfolge Seattle_RGB.tif ein, und klicken Sie auf Speichern.
- Übernehmen Sie alle anderen Standardwerte im Fenster Ausgabeverzeichnis, und klicken Sie auf Exportieren.
Hinweis:
Für 16-Bit-Bilddaten wäre dieser Schritt Raster exportieren ein guter Zeitpunkt, sie in die vom Modell erwartete Tiefe von 8 Bit zu konvertieren. Wählen Sie für Pixeltyp den Typ 8 Bit ohne Vorzeichen aus, und aktivieren Sie das Kontrollkästchen Pixelwert skalieren. Mit Pixelwert skalieren wird sichergestellt, dass die Werte tatsächlich in den 8-Bit-Maßstab konvertiert werden (statt hohe Werte zu löschen). Geben Sie für NoData-Wert den NoData-Wert des ursprünglichen Bildes ein, z. B. 0.
Um diesen NoData-Wert zu finden, klicken Sie im Bereich Inhalt mit der rechten Maustaste auf das ursprüngliche Bild, wählen Sie Eigenschaften aus, und navigieren Sie zu Quelle > Raster-Informationen > NoData-Wert.
Der neue Layer Seattle_RGB.tif wird im Bereich Inhalt angezeigt.
- Schließen Sie den Bereich Raster exportieren.
Jetzt überprüfen Sie die Anzahl der Bänder.
- Klicken Sie im Bereich Inhalt mit der rechten Maustaste auf Seattle_RGB.tif, und wählen Sie Eigenschaften aus.
- Klicken Sie im Fenster Layer-Eigenschaften auf Quelle, und blenden Sie Raster-Information ein.
- Suchen Sie das Feld Anzahl an Bändern.
Der Wert des Feldes lautet 3, das heißt, der Layer weist jetzt genau wie vom vortrainierten Modell erwartet drei Bänder auf.
- Schließen Sie das Fenster Layer-Eigenschaften.
Jetzt entfernen Sie die Bilddaten-Layer, die Sie im Rest des Workflow nicht benötigen.
- Klicken Sie im Bereich Inhalt mit der rechten Maustaste auf Extract Bands_Seattle_imagery.jp2, und wählen Sie Entfernen aus.
- Entfernen Sie entsprechend auch Seattle_imagery.jp2.
Sie speichern das Projekt.
- Klicken Sie auf der Symbolleiste für den Schnellzugriff auf die Schaltfläche Speichern.
Sie haben jetzt wie vom vortrainierten Modell erwartet einen Bilddaten-Layer mit drei Bändern.
Informationen zum Bedarf für Transfer Learning
Jetzt müssen Sie den Auflösungskonflikt beheben, der darin besteht, dass das Modell eine höhere Auflösung von 10–40 cm erwartet, während die NAIP-Bilddaten mit einer niedrigeren Auflösung von 1 Meter erfasst wurden. Wenn Sie das vortrainierte Modell Building Footprint Extraction – USA direkt auf den Layer Seattle_RGB.tif anwenden würden, würden Sie wie im folgenden Beispielbild unzureichende Ergebnisse erhalten:

In diesem Bild werden die erkannten Gebäude in Rosa angezeigt. Aufgrund des Auflösungskonflikts konnte das Modell die größeren Gebäude erkennen, hatte aber Schwierigkeiten, die kleineren zu identifizieren.
Hinweis:
Ein Workflow-Beispiel für den direkten und erfolgreichen Einsatz eines vortrainierten Modells finden Sie im Lernprogramm Objekte mit einem vortrainierten Deep-Learning-Modell erkennen.
Ein Ansatz zum Beheben dieses Problems ist die Verwendung von Transfer Learning. Transfer Learning ist eine Methode für maschinelles Lernen, bei der durch einen Task erworbenes Wissen wiederverwendet wird, um die Performance bei einem verwandten Task zu steigern. Hier bestand der ursprüngliche Task darin, Gebäude in Bilddaten mit einer Auflösung von 10–40 cm zu erkennen, während bei dem neuen Task Gebäude in Bilddaten mit einer Auflösung von 1 Meter erkannt werden sollen.
Hinweis:
Transfer Learning kann auch aus anderen Gründen als Auflösungskonflikten bei Bilddaten verwendet werden. Sie können zum Beispiel von einem Modell ausgehen, das für das Erkennen von Gebäuden in einem bestimmten Land trainiert wurde, und dem Modell mit Transfer Learning beibringen, Gebäude in einem anderen Land zu erkennen.
Ein wesentlicher Vorteil von Transfer Learning besteht darin, dass im Vergleich zum Trainieren eines Modells von Grund auf eine relativ kleine Menge an Trainingsdaten und eine kurze Trainingsdauer erforderlich ist.
Hinweis:
Die Möglichkeiten von Transfer Learning sind begrenzt, wenn der Konflikt zwischen den Bilddaten und der erwarteten Eingabe zu groß ist. Wenn Sie beispielsweise Satellitenbilder mit einer Auflösung von 30 Meter hätten, in denen die kleineren Gebäude kaum zu sehen sind, wäre es unrealistisch, zu erwarten, dass das Modell für eine erfolgreiche Verwendung mit diesen Bilddaten optimiert werden könnte. Je stärker der neue Task vom ursprünglichen abweicht, umso weniger effektiv ist Transfer Learning.
Vorsicht:
Transfer Learning funktioniert nicht für alle vortrainierten Deep-Learning-Modelle. Modelle, die SAM und DeepForest nutzen, unterstützen Transfer Learning beispielsweise nicht. Sehen Sie sich die Beschreibung des vortrainierten Modells auf der ArcGIS Living Atlas-Website an, um herauszufinden, ob es SAM oder DeepForest verwendet.
Im Rest des Lernprogramms erfahren Sie, wie Sie Transfer Learning ausführen, um das vortrainierte Modell so zu optimieren, dass sich bei Ihren Daten eine bessere Performance ergibt.
Trainingsgebiete für das Transfer Learning erstellen
Um Transfer Learning durchführen zu können, müssen Sie zunächst Trainingsbeispiele erstellen, um dem Modell zu zeigen, wie ein Gebäude in Ihren Daten aussieht. Wenn Sie ein Modell von Grund auf neu erstellen würden, wären mehrere Zehntausend Beispielgebäude erforderlich. Für die Transfer-Learning-Methode werden nur einige Hundert benötigt. In diesem Teil des Lernprogramms erfahren Sie etwas über die Erstellung der Trainingsbeispiele. Als Erstes erstellen Sie eine leere Feature-Class, in der die Beispiele gespeichert werden. Anschließend zeichnen Sie Polygone, die Gebäude darstellen, und fügen diese zur Feature-Class hinzu. Abschließend exportieren Sie die Feature-Class und die Bilddaten in Bildschnipsel für das Training, die für das Transfer Learning verwendet werden.
Eine Feature-Class erstellen
Erstellen Sie zuerst eine Feature-Class.
- Klicken Sie auf dem Menüband auf der Registerkarte Ansicht in der Gruppe Fenster auf Geoprocessing.
Daraufhin wird der Bereich Geoverarbeitung angezeigt.
- Geben Sie im Bereich Geoverarbeitung in das Suchfeld Feature-Class erstellen ein. Klicken Sie in der Liste der Suchergebnisse auf Feature-Class erstellen, um das Werkzeug zu öffnen.
- Legen Sie die folgenden Parameterwerte fest:
- Geben Sie unter Feature-Class-Name den Namen Training_examplesein.
- Prüfen Sie, ob unter Geometrietyp die Option Polygon ausgewählt ist.
- Wählen Sie als Koordinatensystem Seattle_RGB.tif aus.
- Übernehmen Sie alle anderen Standardwerte, und klicken Sie auf Ausführen.
Die neue Feature-Class Training_examples wird im Bereich Inhalt angezeigt. Er ist aktuell leer.
Trainingsbeispiele zeichnen
Nun zeichnen Sie Gebäude-Footprints, die als Polygon-Features im Layer Training_examples gespeichert werden.
- Klicken Sie hierzu im Menüband auf der Registerkarte Bearbeiten in der Gruppe Features auf Erstellen.
Der Bereich Features erstellen wird angezeigt.
- Klicken Sie im Bereich Features erstellen auf Training_examples und dann auf die Schaltfläche Polygon.
Die Werkzeugleiste "Konstruktion" wird auf der Karte angezeigt. Sie ist standardmäßig auf den Modus Linien eingestellt, in welchem Geraden gezeichnet werden.
- Klicken Sie auf der Werkzeugleiste "Konstruktion" auf die SchaltflächeRechtwinklige Linie.
- Im Modus Rechtwinklige Linie werden alle Linien als Geraden und alle Winkel als rechte Winkel gezeichnet. Dies ist beim Zeichen von Gebäude-Footprints hilfreich, weil die meisten Gebäude 90-Grad-Ecken aufweisen. Sie können beim Zeichnen nach Belieben zwischen diesem und dem Modus Line wechseln.
- Klicken Sie auf dem Menüband auf der Registerkarte Karte in der Gruppe Navigieren auf Lesezeichen, und wählen Sie Labeling extent aus.
In diesem Bereich beginnen Sie mit dem Zeichnen von Polygonen zum Abgrenzen von Gebäuden. Dieser Prozess wird auch "Beschriftung" bezeichnet, da Sie dem Modell die Lage relevanter Objekte im Bild vermitteln.
Hinweis:
Wenn Sie sich überlegen, wo in Ihrem Bild Trainingsbeispiele erstellt werden sollen, wählen Sie ein Gebiet, das typische Gebäude für Ihren geografischen Standort aufweist.
- Wählen Sie auf der Karte ein bestimmtes Gebäude aus und klicken Sie auf eine Ecke (oder einen Stützpunkt).
- Klicken Sie im Uhrzeigersinn auf alle Ecken.
- Doppelklicken Sie auf die letzte Ecke, um das Polygon fertig zu stellen.
Hinweis:
Die Farbe der Feature-Class (hier hellgrün) wird zufällig zugewiesen und kann von Ihrem Projekt abweichen.
- Erstellen Sie analog zwei oder drei weitere Polygone im selben Gebiet.
Tipp:
Wenn Ihnen ein Polygon nicht gefällt, können Sie es löschen. Klicken Sie auf dem Menüband auf der Registerkarte Bearbeiten in der Gruppe Auswahl auf Auswählen. Klicken Sie auf der Karte auf das Polygon. Klicken Sie auf der Registerkarte Bearbeiten in der Gruppe Features auf Löschen.
Speichern Sie die Polygon-Features in der Feature-Class.
- Klicken Sie auf der Konstruktionswerkzeugleiste auf Fertig stellen.
- Klicken Sie auf dem Menüband auf der Registerkarte Bearbeiten in der Gruppe Änderungen verwalten auf Speichern.
- Schließen Sie den Bereich Features erstellen.
In einem realen Projekt müssten Sie mindestens 200-300 Gebäude skizzieren. Der Kürze dieses Lernprogramms entsprechend verwenden Sie ca. 200 verschiedene Trainingsgebiete, die bereits für Sie vorbereitet wurden.
- Klicken Sie unten im Bereich Geoverarbeitung auf die Registerkarte Katalog, um den Bereich "Katalog" zu öffnen.
- Blenden Sie im Bereich Katalog Datenbanken und Output_provided.gdb ein.
- Klicken Sie mit der rechten Maustaste auf Training_examples_larger_set, und wählen Sie Zu aktueller Karte hinzufügen aus.
Die Trainingsgebiete werden angezeigt.
Sie sehen, dass eine rechteckige Ausdehnung ausgewählt und für jedes darin enthaltene Gebäude Polygone erstellt wurden. Da Sie den Layer Training_examples nicht mehr benötigen, können Sie ihn entfernen.
- Klicken Sie im Bereich Inhalt mit der rechten Maustaste auf den Layer Training_examples, und wählen Sie Entfernen aus.
- Drücken Sie Strg+S, um das Projekt zu speichern.
Sie haben nun einen Layer mit über 200 Trainingsbeispielen.
Ein Feld "Class" hinzufügen
Sie haben Polygone für Gebäude-Footprints gezeichnet und müssen diese nun einer bestimmten Klasse zuordnen. In einigen Workflows können beschriftete Objekte zu unterschiedlichen Klassen (oder Kategorien) gehören, z. B. Gebäude-Footprints, Bäume oder Autos. In diesem Lerprogramm gibt es lediglich eine Klasse: Gebäude-Footprints. Fügen Sie ein Feld Class zum Layer Training_examples_larger_set hinzu und füllen Sie es aus.
- Klicken Sie im Bereich Inhalt mit der rechten Maustaste auf den Layer Training_examples_larger_set und wählen Sie Attributtabelle aus.
Die Attributtabelle für den Layer wird angezeigt; sie enthält Informationen zu den einzelnen Polygonen.
- Klicken Sie in der Attributtabelle Training_examples_larger_set auf Hinzufügen.
- Geben Sie in die letzte Tabellenzeile der Registerkarte Fields: Training_examples_larger_set folgende Informationen ein:
- Geben Sie als Feldname Class ein.
- Klicken Sie unter Datentyp auf Long und ändern Sie den Wert in Short.
Der Datentyp Short enthält ganze Zahlen.
- Klicken Sie auf dem Menüband auf der Registerkarte Felder in der Gruppe Änderungen auf Speichern.
- Schließen Sie das Fenster Fields: Training_examples_larger_set.
Sie haben das Feld Class erstellt und füllen es nun mit einem numerischen Wert. Sie entscheiden willkürlich, dass die Gebäude-Footprint-Class durch die Zahl 1 dargestellt werden soll.
- Klicken Sie in der Attributtabelle Training_examples_larger_set auf Berechnen.
- Legen Sie im Fenster Feld berechnen die folgenden Parameterwerte fest:
- Wählen Sie unter Feldname die Option Class aus.
- Geben Sie unter Class = den Wert 1 ein.
- Übernehmen Sie alle anderen Standardwerte, und klicken Sie auf OK.
- Prüfen Sie in der Spalte Class, ob jedem Polygon-Feature der Wert 1 zugewiesen wurde.
Anhand des Feldes Class erkennt das Modell, dass alle Trainingsbeispiele dasselbe Objekt darstellen: Gebäude-Footprints, die durch die Zahl 1 dargestellt werden.
- Schließen Sie die Attributtabelle Training_examples_larger_set.
Weitere Informationen zu Bildschnipseln für das Training und Ausschneiden der Bilddaten
Das Trainieren eines Deep-Learning-Modells für einen größeren Bereich erfolgt nicht in einem Durchgang; es können jeweils nur kleinere Ausschnitte, so genannte "Bildschnipsel" verarbeitet werden. Ein Bildschnipsel besteht aus einer Bildkachel und einer entsprechenden Beschriftungskachel, auf der die Lage der Objekte (in diesem Fall Gebäude) angezeigt wird. Diese Bildschnipsel werden während des auf Transfer Learning basierenden Trainingsprozesses in das Modell eingespeist.

Für die Erzeugung der Bildschnipsel für das Training verwenden Sie die Bilddaten Seattle_RGB.tif und den Layer Training_examples. Es ist wichtig, keine Bildschnipsel mit unbeschrifteten Gebäuden zu erstellen. Mit solchen Bildschnipseln würden dem Modell Gebäude präsentiert, die gar keine Gebäude sind. Das würde zu Verwirrung führen und die Performance des Modells beeinträchtigen. Um dies zu verhindern, beschränken Sie den Bildschnipsel auf die Ausdehnung, die die Trainingsbeispiele enthält.

- Klicken Sie am unteren Rand des Bereichs Katalog auf Geoverarbeitung.
- Klicken Sie im Bereich Geoverarbeitung auf die Schaltfläche Zurück.
- Navigieren Sie zum Werkzeug Raster ausschneiden, und öffnen Sie es.
- Legen Sie die folgenden Werte für den Parameter Raster ausschneiden fest:
- Wählen Sie für Eingabe-Raster die Option Seattle_RGB.tif aus.
- Wählen Sie für Ausgabeausdehnung die Option Training_examples_larger_set aus.
- Klicken Sie auf die Schaltfläche Durchsuchen, um zum Ausgabe-Raster-Dataset zu gelangen. Navigieren Sie im Fenster Ausgaber-Raster-Dataset zu Ordner > Seattle_Building_Detection > Imagery_data, geben Sie unter Name den Wert Seattle_RGB_clip.tif ein und klicken Sie auf Speichern.
- Klicken Sie auf Ausführen.
Im Bereich Inhalt wird der Layer Seattle_RGB_clip.tif angezeigt.
- Aktivieren Sie im Bereich Inhalt das Kontrollkästchen neben Seattle_RGB_clip.tif, um den Layer zu deaktivieren.
Sie sehen auf der Karte nur den ausgeschnittenen Layer und die Trainingsbeispiele. Alle Gebäude, die in den Bilddaten angezeigt werden, weisen ein entsprechendes Gebäude-Polygon auf.
Bildschnipsel für das Training generieren
Sie werden nun Bildschnipsel für das Training generieren. Als Erstes erstellen Sie einen Ordner, in dem Sie die Datenelemente für den Transfer-Learning-Prozess speichern.
- Klicken Sie auf die Registerkarte Katalog, um den Bereich zu wechseln.
- Blenden Sie gegebenenfalls Ordner und Seattle_Building_Detection ein.
- Klicken Sie mit der rechten Maustaste auf Seattle_Building_Detection, zeigen Sie auf Neu und wählen Sie Ordner aus.
- Geben Sie unter Neuer Ordner den Namen Transfer_learning_data ein und drücken Sie die Eingabetaste.
- Klicken Sie auf die Registerkarte Geoverarbeitung, um den Bereich zu wechseln.
- Klicken Sie im Bereich Geoverarbeitung auf die Schaltfläche Zurück.
- Navigieren Sie zum Werkzeug Trainingsdaten für Deep Learning exportieren, und öffnen Sie es.
- Legen Sie für das Werkzeug Trainingsdaten für Deep Learning exportieren die folgenden Parameter fest:
- Wählen Sie unter Eingabe-Raster den Layer Seattle_RGB_clip.tif aus.
- Klicken Sie unter Ausgabeordner auf die Schaltfläche Navigieren. Navigieren Sie im Fenster Ausgabeordner zu Ordner > Seattle_Building_Detection > Transfer_learning_data. Geben Sie unter Name, Training_chips ein und klicken Sie auf OK.
- Wählen Sie unter Eingabe-Feature-Class Training_examples_larger_set aus.
Die aus den ausgeschnittenen Bilddaten und den Trainingsbeispielen erstellten Bildschnipsel werden im Ordner Training_chips gespeichert.
- Wählen Sie für Klassenwertefeld die Option Class aus.
Wie zuvor definiert, wird durch das Feld Class angegeben, welche Objekte zu welchen Beschriftungen gehören (in diesem Fall gehören alle Objekte zur Klasse 1, die Gebäude-Footprints darstellen).
- Legen Sie für die Parameter Kachelgröße X und Kachelgröße Y den Wert 256 fest.
Durch diese Parameter wird die Größe des Bildschnipsels in X- und Y-Richtung (in Pixeln) bestimmt. Hier empfiehlt sich der Wert 256.
Hinweis:
Die Bildschnipsel für das Training sollten den für das Training des ursprünglichen Modells verwendeten Bildschnipseln so ähnlich wie möglich sein. Das ursprüngliche Modell wurde mit Bildschnipseln der Größe 512 x 512 trainiert, die aus Daten mit einer Auflösung zwischen 10 und 40 cm erzeugt wurden. Die NAIP-Bilddaten weisen eine Auflösung von 1 m auf. Ein 256 x 256 Pixel großer Bildschnipsel deckt in etwa denselben Bereich ab wie ein 512 x 512 Pixel großer Bildschnipsel bei einer Auflösung von 40 cm. Demnach sind 256 x 256 Pixel eine geeignete Wahl.
Die Größe des Bildschnipsels, der ursprünglich im vortrainierten Modell verwendet wurde, lässt sich unter anderem durch Untersuchung des DLPK-Pakets herauszufinden. Fertigen Sie in Microsoft File Explorer, eine Kopie der Datei usa_building_footprints.dlpk in einem separaten Ordner an und ändern Sie die Erweiterung von .dlpk in .zip. Klicken Sie mit der rechten Maustaste auf die .zip-Datei und extrahieren Sie sie. Suchen Sie in den extrahierten Dateien nach der Datei usa_building_footprints.emd und ändern Sie die Erweiterung in .txt. Öffnen Sie die Datei usa_building_footprints.txt in einem Text-Editor und suchen Sie die Zeilen "ImageHeight" und "ImageWidth".
- Geben Sie unter Stride X und Stride Y den Wert 64 ein.
Dieser Parameter steuert die Verschiebung in X- und Y-Richtung (in Pixeln) bei Erstellung der nächsten Bildschnipsel. Dieser Wert ist von der Menge der Trainingsdaten abhängig. Wenn Sie ihn verkleinern, wird die Anzahl der erzeugten Bildschnipsel maximiert. Für dieses Lernprogramm hat sich 64 als geeignet erwiesen; trotzdem können Sie ruhig ein wenig mit dem Wert experimentieren.
- Wählen Sie unter Metadatenformat die Option RCNN-Masken aus.
Für die Bildschnipsel sind je nach Deep-Learning-Modell unterschiedliche Metadatenformate erforderlich. Sie haben zu Beginn des Workflows festgestellt, dass das vortrainierte Modell auf der MaskRCNN-Architektur basiert. Hier müssen Sie den dem Modell entsprechenden Wert auswählen.
Tipp:
Weitere Informationen zu den Parametern des Werkzeugs erhalten Sie, indem Sie auf den Parameter zeigen und auf die blaue Informationsschaltfläche daneben klicken.
- Übernehmen Sie alle anderen Standardwerte, und klicken Sie auf Ausführen.
Der Vorgang wird innerhalb weniger Augenblicke abgeschlossen.
Bildschnipsel für das Training untersuchen
Im Folgenden untersuchen Sie einige der generierten Bildschnipsel.
- Blenden Sie im Bereich Katalog die Einträge Ordner, Seattle_Building_Detection, Transfer_learning_data und Training_chips ein.
- Die Bildkacheln befinden Sie sich im Ordner images und die Beschriftungskacheln im Ordner labels.
- Blenden Sie den Ordner images ein, klicken Sie mit der rechten Maustaste auf das erste Bild, 000000000000.tif, und wählen Sie Zu aktueller Karte hinzufügen aus. Wenn Sie aufgefordert werden, die Statistiken zu berechnen, klicken Sie auf Nein.
- Deaktivieren Sie im Bereich Inhalt die Layer Training_examples_larger_set und Seattle_RGB_clip.tif, um die Kachel besser sehen zu können.
- Blenden Sie im Bereich Katalog den Ordner images aus, blenden Sie die Ordner labels und 1 ein, und fügen Sie der Karte die erste Beschriftungskachel, 000000000000.tif, hinzu. Wenn Sie aufgefordert werden, die Statistiken zu berechnen, klicken Sie auf Nein.
Hinweis:
Bild-/Beschriftungspaare sind an ihren identischen Namen zu erkennen.
- Aktivieren und Deaktivieren Sie im Bereich Inhalt die Beschriftungskachel, um die die darunter befindliche Bildkachel sichtbar zu machen.
- Klicken Sie auf die Pixel der Beschriftungskachel, um ihre Werte im Informations-Pop-up anzuzeigen.
Hinweis:
Auf der Beschriftungskachel weisen Pixel, die kein Gebäude darstellen, den Wert 0 auf. Alle Pixel, die ein Gebäude darstellen, haben einen Wert größer als 0. Die Werte werden aus den Objekt-IDs der ursprünglichen Gebäude-Polygone übernommen, im vorherigen Beispielbild z. B. 28.
- Sie können optional weitere Bild-/Beschriftungspaare zur Karte hinzufügen und untersuchen.
- Wenn Sie fertig sind, entfernen Sie alle Kacheln aus dem Bereich Inhalt und aktivieren Sie die Layer Training_examples_larger_set und Seattle_RGB.tif wieder.
- Blenden Sie im Bereich Katalog den Ordner Training_chips aus.
- Drücken Sie Strg+S, um Ihr Projekt zu speichern.
Sie haben Bildschnipsel für das Training erzeugt und können nun den Übertragungsprozess starten.
Transfer Learning ausführen und Gebäude extrahieren
Sie führen jetzt Transfer Learning aus. Sie verwenden die Schnipsel, die Sie generiert haben, um das vortrainierte Modell usa_building_footprints.dlpk weiter zu trainieren. Anschließend wenden Sie das optimierte Modell auf die Seattle-Bilddaten an und sehen, dass die Performance jetzt deutlich besser ist.
Das Modell optimieren
Zuerst verwenden Sie das Werkzeug Deep-Learning-Modell trainieren, um das Modell zu optimieren.
- Wechseln Sie zum Bereich Geoverarbeitung, und klicken Sie auf die Schaltfläche Zurück.
- Suchen Sie im Bereich Geoverarbeitung nach dem Werkzeug Deep-Learning-Modell trainieren, und öffnen Sie es.
- Legen Sie für das Werkzeug Deep-Learning-Modell trainieren die folgenden Parameter fest:
- Klicken Sie für Eingabe-Trainingsdaten auf die Schaltfläche Durchsuchen. Navigieren Sie zu Ordner > Seattle_Building_Detection > Transfer_learning_data. Wählen Sie Training_chips aus, und klicken Sie auf OK.
- Klicken Sie für Ausgabemodell auf die Schaltfläche Durchsuchen. Navigieren Sie zu Ordner > Seattle_Building_Detection > Imagery_data > Transfer_learning_data. Geben Sie Seattle_1m_Building_Footprints_model ein, und klicken Sie auf OK.
Seattle_1m_Building_Footprints_model wird als Name für das neue optimierte Modell verwendet, das aus dem Transfer-Learning-Prozess resultiert.
Tipp:
Sie können sich leichter merken, welches Modell mit welchen Daten trainiert wurde, wenn Sie jedes Modell und die entsprechenden Trainingsschnipsel im gleichen Ordner aufbewahren.
- Blenden Sie den Abschnitt Erweitert ein, und legen Sie die folgenden Parameterwerte fest:
- Klicken Sie für Vortrainiertes Modell auf die Schaltfläche Durchsuchen. Navigieren Sie zu dem Ordner, in dem Sie das vortrainierte Modell usa_building_footprints.dlpk gespeichert haben, wählen Sie es aus, und klicken Sie auf OK.
- Vergewissern Sie sich, dass das Kontrollkästchen Modell fixieren aktiviert ist.
Mit der Option Modell fixieren wird sichergestellt, dass sich die neuen Trainingsdaten nur auf den endgültigen Layer des Modells auswirken, während die Kern-Layer unverändert bleiben. Diese Einstellung wird in vielen Transfer-Learning-Fällen ausgewählt, da dabei nicht das Risiko besteht, dass das Modell sein Kernwissen verlernt.
Hinweis:
Wenn jetzt neben Eingabe-Trainingsdaten ein Fehler angezeigt wird, ist nicht die richtige Version der Deep-Learning-Bibliotheken installiert. Drücken Sie STRG+S, um das Projekt zu speichern, schließen Sie ArcGIS Pro, und folgen Sie den Anweisungen zum Installieren des Deep-Learning-Frameworks für ArcGIS. Wenn Sie die Deep-Learning-Bibliotheken bereits installiert haben, folgen Sie den Anweisungen unter Upgrading From a Previous Version. Nach Abschluss der Installation können Sie das ArcGIS Pro-Projekt wieder öffnen und mit dem Lernprogramm fortfahren.
- Blenden Sie den Abschnitt Modellparameter ein, und vergewissern Sie sich, dass Batch-Größe auf 4 festgelegt ist.
Tipp:
Weitere Informationen zu den Parametern des Werkzeugs erhalten Sie durch Klicken auf die blaue Informationsschaltfläche neben den Parametern.
- Klicken Sie im Bereich Geoverarbeitung auf die Registerkarte Umgebungen. Wählen Sie für Prozessortyp die Option GPU aus.
Hinweis:
In diesem Lernprogramm wird davon ausgegangen, dass der Computer über GPU-Funktionen verfügt. Wenn Sie keine GPU haben, können Sie den Prozess mit der CPU ausführen. Die Verarbeitung der Daten dauert dann jedoch länger. Wählen Sie in diesem Fall die Option CPU aus.
- Übernehmen Sie alle anderen Standardwerte, und klicken Sie auf Ausführen.
Die Ausführung des Prozesses kann 10 Minuten oder mehr in Anspruch nehmen.
Tipp:
Wenn eine Fehlermeldung zu nicht ausreichendem Speicher angezeigt wird, verfügt der Computer möglicherweise nicht über genug Speicher, um vier Kacheln gleichzeitig zu verarbeiten. Verringern Sie den Wert für Batch-Größe von 4 auf 2 oder 1. Das Verringern dieses Wertes wirkt sich nicht auf die Qualität des Modells, sondern nur auf die Effizienz des Trainingsprozesses aus.
Sie haben jetzt ein verbessertes Modell, Seattle_1m_Building_Footprints, das optimiert ist und bessere Ergebnisse für die Daten liefern sollte.
Inferenz ausführen
Nachdem Sie das Transfer Learning abgeschlossen haben, verwenden Sie jetzt das optimierte Modell zum Ausführen einer Inferenz für den Bilddaten-Layer Seattle_RGB.tif und zum Erkennen der enthaltenen Gebäude.
- Klicken Sie im Bereich Geoverarbeitung auf die Schaltfläche Zurück.
- Suchen und öffnen Sie das Werkzeug Objekte mit Deep Learning erkennen.
- Legen Sie für das Werkzeug Objekte mit Deep Learning erkennen die folgenden Parameterwerte fest:
- Wählen Sie für Eingabe-Raster die Option Seattle_RGB.tif aus.
- Geben Sie für Ausgabe der erkannten Objekte den Namen Seattle_buildings ein.
- Klicken Sie für Modelldefinition auf die Schaltfläche Durchsuchen. Navigieren Sie zum Ordner Seattle_Building_Detection, blenden Sie Transfer_learning_data und Seattle_1m_Building_Footprints_model ein, wählen Sie Seattle_1m_Building_Footprints_model.dlpk aus, und klicken Sie auf OK.
Beim Laden der Modelldefinition werden die Argumente des Modells automatisch gefüllt.
- Vergewissern Sie sich, dass der Wert für padding auf 64 festgelegt ist.
Padding bezeichnet einen Randbereich in jedem Bildchip, der bei der Erkennung ignoriert wird. Wenn ein Gebäudefragment am Rand eines Bildchips angezeigt wird, sorgt das Padding dafür, dass es bei der Erkennung nicht berücksichtigt wird. Ein Wert von 64 bedeutet, dass das Padding auf jeder Seite des Bildchips 64 Pixel breit ist.
Hinweis:
Das Modell passt den Stride so an, dass er dem Padding-Wert entspricht. Wenn sich das Modell in benachbarte Bereiche ausbreitet, wird ein Gebäude, das als Fragment am Rand eines vorherigen Bildchips angezeigt wurde, kurz darauf in seiner Gesamtheit in der Mitte eines der nächsten Bildchips erscheinen, wo es erfolgreich erkannt wird. Erfahren Sie mehr über Padding (und andere Inferencing-Parameter) im Artikel Deep Learning with ArcGIS Pro Tips & Tricks: Part 2, im Abschnitt "Understand parameters for inferencing".
- Verwenden Sie für batch_size den gleichen Wert wie für den Trainingsprozess (4 oder kleiner).
Dadurch wird sichergestellt, dass das Werkzeug mit der auf dem Computer verfügbaren Speichermenge ausgeführt werden kann.
- Vergewissern Sie sich, dass der Wert für threshold auf 0,9 festgelegt ist.
Dies ist ein Grenzwert zwischen 0 und 1. Er drückt aus, wie sicher das Modell sein muss, damit es ein Objekt als Gebäude deklariert. Der Wert 0,9 bedeutet, dass das Modell eine Konfidenz von 90 Prozent aufweisen muss.
- Vergewissern Sie sich, dass der Wert für tile_size auf 256 festgelegt ist.
Dieser Wert gibt die Größe der Bilddatenschnipsel an, die das Modell zum Ausführen der Inferenz verwendet. Der Wert sollte dem für die Größe der zum Trainieren des Modells verwendeten Schnipsel entsprechen.
- Aktivieren Sie das Kontrollkästchen für Non Maximum Suppression.
Bei überlappenden Gebäude-Footprint-Duplikaten wird mit der Option Non Maximum Suppression sichergestellt, dass nur das Gebäude-Polygon-Feature mit der höchsten Konfidenz beibehalten wird und die anderen gelöscht werden.
- Klicken Sie im Bereich Geoverarbeitung auf die Registerkarte Umgebungen.
- Wählen Sie für Prozessortyp die Option GPU aus.
Jetzt könnten Sie das Werkzeug ohne weitere Änderungen ausführen: Es würde Gebäude im gesamten Bild Seattle_RGB.tif erkennen. Dies könnte je nach Spezifikation des Computers 10 Minuten bis eine Stunde in Anspruch nehmen. Damit dieses Lernprogramm nicht zu lang wird, erkennen Sie nur Gebäude in einer kleinen Teilmenge des Eingabebildes.
- Klicken Sie auf dem Menüband auf der Registerkarte Karte in der Gruppe Navigieren auf Lesezeichen, und wählen Sie Inference extent aus.
Die Karte wird auf einen kleineren Bereich von Seattle gezoomt.
- Wählen Sie im Bereich Geoverarbeitung auf der Registerkarte Umgebungen unter Verarbeitungsausdehnung für den Parameter Ausdehnung die Option Aktuelle Anzeigeausdehnung aus.
- Klicken Sie auf Ausführen.
Nach ein paar Minuten ist der Prozess abgeschlossen, und der Ausgabe-Layer Seattle_buildings wird im Bereich Inhalt und auf der Karte angezeigt. Dieses Mal können Sie sehen, dass fast alle Gebäude erkannt wurden.
Sie haben erfolgreich Gebäude in einem Bereich von Seattle erkannt und dazu ein mit Transfer Learning optimiertes vortrainiertes Modell verwendet.
Die Ergebnisse vergleichen
Jetzt vergleichen Sie zwei Gebäude-Footprint-Layer, die Sie durch Ausführen des unveränderten vortrainierten Modells bzw. des durch Transfer Learning optimierten Modells erhalten haben. In beiden Fällen werden Ergebnisse für die gesamte Ausdehnung der Bilddaten angezeigt. Sie könnten beide Layer mit der Methode aus dem vorherigen Abschnitt selbst generieren, aber aus Zeitgründen verwenden Sie bereits vorbereitete Layer. Zuerst öffnen Sie eine Karte, in der diese Layer enthalten sind.
- Erweitern Sie im Bereich Katalog die Option Karten. Klicken Sie mit der rechten Maustaste auf Full extent results, und wählen Sie Öffnen aus.
Die Karte wird angezeigt. Die Karte enthält zwei Polygon-Feature-Classes:
- Seattle_buildings_off_the_shelf
- Seattle_buildings_with_transfer_learning
Sie verwenden das Werkzeug Vergleichen, um die beiden Layer zu vergleichen.
- Klicken Sie im Bereich Inhalt auf Seattle_buildings_off_the_shelf, um den Layer auszuwählen.
- Klicken Sie auf dem Menüband auf der Registerkarte Feature-Layer in der Gruppe Vergleichen auf Ausblenden.
- Ziehen Sie auf der Karte den Ziehpunkt wiederholt von oben nach unten oder von einer Seite zur anderen, um den oberen Layer auszublenden und den unteren anzuzeigen.
- Vergrößern und verkleinern Sie die Ansicht, und schwenken Sie verschiedene Bereiche, um sie zu untersuchen und den Unterschied in der Qualität der Ergebnisse visuell zu bewerten.
Tipp:
Sie können im Vergleichsmodus mit dem Mausrad vergrößern und verkleinern und durch Drücken der Taste C auf der Tastatur und Ziehen mit der Maus schwenken.
Das optimierte Modell identifiziert die Gebäude-Footprints kleinerer Gebäude in den Bilddaten wesentlich besser als das unveränderte Modell. Jetzt verwenden Sie das Werkzeug Vergleichen, um die Ergebnisse im Transfer-Learning-Layer mit den Gebäuden zu vergleichen, die Sie visuell in den Bilddaten betrachten können.
- Deaktivieren Sie im Bereich Inhalt den Layer Seattle_buildings_off_the_shelf, und wählen Sie den Layer Seattle_buildings_with_transfer_learning aus.
- Vergleichen Sie die beiden Layer mithilfe des Werkzeugs Vergleichen.
Möglicherweise stellen Sie fest, dass der aus dem optimierten Modell resultierende Layer immer noch nicht perfekt ist und dass hier und da ein paar Gebäude fehlen. Das Optimieren eines Modells mit Transfer Learning ist ein iterativer Prozess. Sie können die Performance des Modells weiter verbessern, indem Sie weitere Trainingsbeispiele sammeln und ein weiteres Transfer-Learning-Training durchführen. Kurz zusammengefasst führen Sie dazu die folgenden Schritte aus:
- Betrachten Sie zuerst die Typen der Gebäude, die das Modell übersehen hat.
- Sammeln Sie neue Beispiel-Polygone für diese Gebäudetypen, und generieren Sie neue Trainingsschnipsel. Speichern Sie diese in einem neuen Ordner. Halten Sie sich an die gleichen Richtlinien wie bisher, das heißt, beschneiden Sie die Bilddaten, um sicherzustellen, dass die Schnipsel keine unbeschrifteten Gebäude enthalten.
- Führen Sie eine neue Trainingssitzung aus. Beginnen Sie dabei mit dem unveränderten vortrainierten Modell, und stellen Sie ihm alle bis jetzt erstellten Schnipsel bereit (das heißt, listen Sie für den Parameter Eingabe-Trainingsdaten alle Ordner mit Schnipseln auf). Dies ist eine bewährte Methode, um sicherzustellen, dass das Modell alle Trainingsschnipsel gleich behandelt.
- Wenn Sie mit dem Erkunden der Bilder fertig sind, klicken Sie im Menüband auf der Registerkarte Karte in der Gruppe Navigieren auf Erkunden, um den Vergleichsmodus zu beenden.
- Drücken Sie Strg+S, um Ihr Projekt zu speichern.
In diesem Lernprogramm haben Sie Deep Learning verwendet, um Gebäude-Footprints aus Luftbilddaten in ArcGIS Pro zu extrahieren. Sie haben ein vortrainiertes Modell aus ArcGIS Living Atlas ausgewählt und gelernt, wie wichtig es ist, die Eingabedaten an die Erwartungen des Modells anzupassen. Sie haben einen neuen Bilddaten-Layer mit der erwarteten Anzahl von Bändern erstellt. Dann haben Sie Transfer Learning angewendet, um einen Auflösungskonflikt zu beheben und die Performance des Modells für die Bilddaten optimiert: Sie haben eine kleine Anzahl neuer Trainingsgebiete bereitgestellt und das Modell weiter trainiert. Anschließend haben Sie das optimierte Modell in einem Stadtviertel von Seattle getestet und bessere Ergebnisse erhalten.