Das Projekt einrichten

Zunächst laden Sie das Projekt herunter, das alle Daten für dieses Lernprogramm enthält, und öffnen es in ArcGIS Pro.

  1. Laden Sie das Paket Boat_Detection herunter.

    Die Datei Boat_Detection.ppkx wird auf Ihren Computer heruntergeladen.

    Hinweis:

    Eine .ppkx-Datei ist ein ArcGIS Pro-Projektpaket und kann Karten, Daten und weitere Dateien, die Sie in ArcGIS Pro öffnen können, enthalten. Weitere Informationen zum Verwalten von .ppkx-Dateien erhalten Sie in dieser Anleitung.

  2. Suchen Sie die heruntergeladene Datei auf Ihrem Computer.
    Tipp:

    In den meisten Webbrowsern werden Dateien in den Ordner "Downloads" heruntergeladen.

  3. Doppelklicken Sie auf Boat_Detection.ppkx, um das Paket in ArcGIS Pro zu öffnen. Wenn Sie dazu aufgefordert werden, melden Sie sich mit Ihrem ArcGIS-Konto an.
    Hinweis:
    Wenn Sie über keinen Zugriff auf ArcGIS Pro oder über kein ArcGIS-Organisationskonto verfügen, informieren Sie sich über die Optionen für den Zugriff auf die Software.

    Für Text-SAM-Workflows ist ArcGIS Pro 3.2 oder höher erforderlich.

    Eine auf den Stadtteil Tuborg Havn in Kopenhagen zentrierte Karte wird geöffnet. Auf der topografischen Grundkarte wird der Bild-Layer Tuborg_Havn.tif angezeigt.

    Erster Überblick

  4. Vergrößern Sie die Ansicht, und schwenken Sie, um die Bilddaten zu untersuchen.

    Schauen Sie sich die zahllosen Boote in den Jachthäfen und Kanälen an. Diese Luftbilddaten wurden orthorektifiziert, um Verzerrungen zu entfernen. Es handelt sich um hochauflösende Bilder (jedes Pixel entspricht einer Fläche von 20 mal 20 Quadratzentimetern auf dem Boden), auf denen Boote und weitere Features recht deutlich zu erkennen sind. Sie liegen im TIFF-Format mit den drei Bändern Rot, Grün und Blau vor, wodurch ein Bild in natürlichen Farben entsteht. Die Pixeltiefe beträgt 8 Bit.

    Es wäre sehr zeitaufwändig, alle Boote auf diesem Bild und darüber hinaus in allen Jachthäfen und Kanälen Kopenhagens manuell zu identifizieren. Stattdessen verwenden Sie das GeoAI-Modell "Text SAM" zur automatischen Erkennung.

Das Modell "Text SAM" herunterladen

Um das Modell Text SAM zu verwenden, müssen Sie es zunächst auf Ihren Computer herunterladen. Text-SAM ist im ArcGIS Living Atlas of the World, der verlässlichen GIS-Datensammlung von Esri, die auch eine wachsende Bibliothek von Deep-Learning-Modellen enthält, verfügbar.

  1. Öffnen Sie ArcGIS Living Atlas im Webbrowser.
  2. Geben Sie auf der ArcGIS Living Atlas-Startseite im Suchfeld den Text Text SAM ein.

    Suche nach "Text SAM"

  3. Klicken Sie in der Liste der Ergebnisse auf Text SAM, um die entsprechende Elementseite zu öffnen.

    "Text SAM" in der Liste der Ergebnisse

  4. Lesen Sie auf der Text-SAM-Elementseite Teile der Beschreibung, und erkunden Sie die Seite.

    Text-SAM ist ein Mehrzweck-Modell, das mithilfe von frei formulierten Textvorgaben zur Extraktion verschiedener Arten von Features aus Bilddaten aufgefordert werden kann. Mögliche Textvorgaben wären beispielsweise airplane zum Erkennen von Flugzeugen, panel zum Erkennen von Solarkollektoren oder red car zum Erkennen von roten Autos. Die Ausgabe ist ein Polygon-Layer, der den ungefähren Umriss der erkannten Objekte repräsentiert.

    Textvorgabe "Flugzeug"

    Die Seite enthält auch nützliche Informationen zur erwarteten Eingabe, bei der es sich um 8-Bit-, 3-Band-RGB-Bilddaten handeln sollte.

    Erwartete Eingabe

    Für die in diesem Lernprogramm verwendeten Bilddaten von Kopenhagen ist das Modell gut geeignet.

    Tipp:

    Weitere Informationen zu Text-SAM finden Sie im Artikel Text SAM: Extracting GIS Features Using Text Prompts und in der Anleitung Text SAM: Use the model.

    Wenn Sie diesen Workflow für eigene Bilddaten ausführen möchten, beachten Sie die Tipps zum Konvertieren Ihrer Daten in das erwartete Eingabeformat im letzten Abschnitt dieses Lernprogramms.

  5. Klicken Sie oben auf der Seite unter Übersicht auf Herunterladen.

    Schaltfläche "Herunterladen"

    Die Modelldatei wird auf den Computer heruntergeladen.

    Hinweis:

    Die Modelldatei hat eine Größe von 1,75 GB, und das Herunterladen kann einige Minuten dauern.

  6. Suchen Sie die heruntergeladene Datei TextSAM.dlpk auf dem Computer, und verschieben Sie sie an einen Speicherort, der leicht zu finden ist, z. B. C:\GeoAI_models.
    Tipp:

    Sie können Text-SAM auch direkt in einem ArcGIS Pro-Geoverarbeitungswerkzeug verwenden, ohne das Modell vorher zu speichern. Allerdings lädt das Werkzeug dann bei jeder Ausführung eine neue Kopie des Modells herunter. Aus diesem Grund kann es sinnvoll sein, das Modell lokal zu speichern.

Boote mit Text-SAM erkennen

Sie führen nun die Erkennung von Booten auf dem Bild von Kopenhagen durch. Sie verwenden das Werkzeug Objekte mit Deep Learning erkennen, und für einen der Parameter verweisen Sie auf die Kopie des heruntergeladenen Modells "Text SAM".

Hinweis:

Die Verwendung der Deep-Learning-Werkzeuge in ArcGIS Pro setzt voraus, dass Sie die richtigen Deep-Learning-Bibliotheken auf Ihrem Computer installiert haben. Falls Sie diese Dateien nicht installiert haben, speichern Sie Ihr Projekt, schließen Sie ArcGIS Pro, und führen Sie die unter Auf Deep Learning in ArcGIS Pro vorbereiten beschriebenen Schritte aus. In diesen Anweisungen erfahren Sie neben weiteren nützlichen Tipps, wie Sie überprüfen können, ob Ihr Computer die Hardware- und Softwareanforderungen zum Ausführen von Deep-Learning-Workflows erfüllt. Anschließend können Sie Ihr Projekt erneut öffnen und mit dem Lernprogramm fortfahren.

  1. Klicken Sie auf dem Menüband auf der Registerkarte Ansicht in der Gruppe Fenster auf Geoverarbeitung.

    Schaltfläche "Geoverarbeitung"

  2. Geben Sie im Bereich Geoverarbeitung im Suchfeld den Text Objekte mit Deep Learning erkennen ein. Klicken Sie in der Liste der Ergebnisse auf das Werkzeug Objekte mit Deep Learning erkennen, um es zu öffnen.

    Suche nach dem Werkzeug "Objekte mit Deep Learning erkennen"

  3. Wählen Sie im Werkzeug Objekte mit Deep Learning erkennen die folgenden Parameterwerte aus:
    • Wählen Sie für Eingabe-Raster die Option Tuborg_Havn.tif aus.
    • Geben Sie für Ausgabe der erkannten Objekte den Namen Detected_Boats ein.
    • Klicken Sie für Modelldefinition auf die Schaltfläche Durchsuchen.

    Parameter des Werkzeugs "Objekte mit Deep Learning erkennen"

    Nun rufen Sie das Modell "Text SAM" ab.

  4. Navigieren Sie im Fenster Modelldefinition zu dem Speicherort, an dem Sie das Modell "Text SAM" gespeichert haben, klicken Sie auf TextSAM.dlpk und dann auf OK.

    Fenster "Modelldefinition"

    Nach wenigen Augenblicken werden die Modellargumente automatisch geladen. Sie wählen eine Textvorgabe entsprechend den zu erkennenden Objekten aus.

  5. Geben Sie unter Argumente für text_prompt den Text boat ein.

    Argument "Text_prompt"

    Tipp:

    Sie könnten der Textvorgabe weitere durch Komma getrennte Wörter hinzufügen, z. B. boat, yacht, canoe. In diesem Fall werden jedoch mit dem einzelnen Wort boat ausgezeichnete Ergebnisse erzielt.

  6. Suchen Sie das Argument "batch_size".

    Die Deep-Learning-Objekterkennung kann nicht in einem Durchlauf am gesamten Bild durchgeführt werden. Das Werkzeug schneidet das Bild stattdessen in kleine Stücke, die als Bildschnipsel bezeichnet werden. Eine Batch-Größe von 4 bedeutet, dass das Werkzeug vier Bildschnipsel auf einmal verarbeitet. Wenn bei der Ausführung des Werkzeugs eine Fehlermeldung zu nicht ausreichendem Speicher angezeigt wird, verfügt der Computer möglicherweise nicht über genug Speicher für diese Verarbeitungsebene. In diesem Fall sollten Sie den Wert des Arguments batch_size für die Batch-Größe von 4 auf 2 oder sogar 1 verringern. Wenn Sie über einen leistungsstarken Computer verfügen, könnten Sie den Wert für batch_size auch erhöhen, um die Verarbeitung zu beschleunigen. Änderungen des Wertes batch_size wirken sich nicht auf die Qualität des Modells, sondern nur auf die Effizienz des Erkennungsprozesses aus.

    Zunächst behalten Sie den Standardwert 4 bei.

  7. Für das Argument nms_overlap geben Sie 0,7 ein.

    Argument "nms_overlap"

    Manchmal erkennt das Modell ein Objekt mehr als einmal. Non Maximum Suppression (NMS) ist ein optionaler Prozess, der einige der erkannten Objekte unterdrückt, wenn sie als Duplikate identifiziert wurden. Das Objekt, das mit der höchsten Konfidenz erkannt wurde, bleibt erhalten, und die anderen Objekte werden entfernt. Im folgenden Beispielbild wurde das Boot dreimal erkannt. Mit NMS wird nur eines der drei Polygone beibehalten.

    Dreimal erkanntes Boot

    Das Argument nms_overlap bestimmt, wie groß die Überlappung zwischen zwei erkannten Objekten sein muss, damit sie als Duplikate voneinander betrachtet werden und für die Anwendung von NMS infrage kommen. Die möglichen Werte für dieses Argument liegen zwischen 0 und 1. Ein Wert von 0,7 bedeutet beispielsweise, dass die Überlappung mindestens 70 Prozent betragen muss.

  8. Aktivieren Sie das Kontrollkästchen neben Non Maximum Suppression.

    Kontrollkästchen "Non Maximum Suppression"

    Beim Modell "Text SAM" haben Sie die Möglichkeit, NMS während der Text-SAM-Objekterkennung anzuwenden (über das Argument nms_overlap) oder als Nachbearbeitungsschritt auszuführen (über das Kontrollkästchen Non Maximum Suppression). Durch Ausprobieren wurde festgestellt, dass Sie bei diesem speziellen Anwendungsfall die besten Ergebnisse erhalten, wenn Sie einen hohen Wert (0,7) für das Argument nms_overlap festlegen und die Nachbearbeitungsoption Non Maximum Suppression mit den Standardeinstellungen anwenden.

    Hinweis:

    Der Parameter Max. Überlappungsrate unter Non Maximum Suppression gibt die Überlappung für den NMS-Nachbearbeitungsschritt an. Genau wie bei nms_overlap liegt der Wertebereich zwischen 0 und 1. Der Standardwert 0 bedeutet, dass zwei Polygone als Duplikate betrachtet werden, sobald ihre Überlappung größer als 0 ist.

  9. Lassen Sie die Standardwerte für alle anderen Argumente unverändert.
    Hinweis:

    Weitere Informationen über die Rolle der verschiedenen Argumente finden Sie in der Anleitung zu Text-SAM.

  10. Klicken Sie auf die Registerkarte Umgebung.

    Registerkarte "Umgebungen"

    Jetzt könnten Sie das Werkzeug ohne weitere Änderungen ausführen, und es würde Boote im gesamten Bild Tuborg_Havn.tif erkennen. Dies könnte je nach Spezifikation des Computers 30 Minuten bis eine Stunde in Anspruch nehmen. Damit dieses Lernprogramm nicht zu lang wird, erkennen Sie nur Boote in einem kleinen Teil des Eingabebildes.

  11. Klicken Sie auf dem Menüband auf der Registerkarte Karte in der Gruppe Navigieren auf Lesezeichen, und wählen Sie Detection area aus.

    Lesezeichen "Detection area"

    Die Karte wird auf einen kleineren Bereich des Jachthafens von Tuborg Havn gezoomt.

    Erkennungsbereich

  12. Klicken Sie im Bereich Geoverarbeitung auf der Registerkarte Umgebungen unter Verarbeitungsausdehnung auf die Schaltfläche Aktuelle Anzeigeausdehnung.

    Schaltfläche "Aktuelle Anzeigeausdehnung"

    Die Koordinaten Oben, Links, Rechts und Unten werden so aktualisiert, dass sie der aktuellen Ausdehnung auf der Karte entsprechen.

  13. Wählen Sie für Prozessortyp die Option GPU aus. Geben Sie als GPU-ID den Wert 0 ein.
    Hinweis:

    In diesem Lernprogramm wird davon ausgegangen, dass Ihr Computer über eine NVIDIA-GPU verfügt. Ist dies nicht der Fall, wählen Sie die Option CPU aus. Die Verarbeitung der Daten dauert dann jedoch wesentlich länger. Weitere Informationen über GPUs und ihre Verwendung für Deep-Learning-Prozesse finden Sie im Abschnitt GPU-Verfügbarkeit prüfen des Lernprogramms Auf Deep-Learning-Workflows in ArcGIS Pro vorbereiten.

    Prozessortyp

  14. Übernehmen Sie alle anderen Standardwerte, und klicken Sie auf Ausführen.

    Sie können den Fortschritt unter der Schaltfläche Ausführen beobachten, und über Details anzeigen weitere Informationen aufrufen.

    Link "Details anzeigen"

    Nach ein paar Minuten wird der Ergebnis-Layer Detected_Boats im Bereich Inhalt und auf der Karte angezeigt. Es handelt sich um einen Feature-Layer, in dem jedes Polygon ein Boot darstellt.

    Tipp:

    Wenn eine Fehlermeldung zu nicht ausreichendem Speicher angezeigt wird, dann sollten Sie den Wert des Argumentes batch_size für die Batch-Größe von 4 auf 2 oder sogar 1 verringern und den Prozess erneut ausführen.

    Sie haben mit Text-SAM erfolgreich Boote in einem Gebiet von Tuborg Havn erkannt.

    Initiale Ergebnisse

    Hinweis:

    Der Deep-Learning-Algorithmus von Text-SAM ist nicht deterministisch. Die Ergebnisse können daher bei jeder Ausführung des Werkzeugs leicht abweichen.

    Ferner wird die Farbe nach dem Zufallsprinzip zugewiesen und kann daher variieren.

  15. Klicken Sie auf der Symbolleiste für den Schnellzugriff auf die Schaltfläche Speichern, um das Projekt zu speichern.

    Schaltfläche "Speichern"

Dem Ergebnis-Layer einen Style zuweisen

Nun können Sie die Ergebnisse im Layer Detected_Boats untersuchen und optimieren. Zunächst ändern Sie die Symbolisierung des Layers, um die erkannten Objekte besser sehen zu können.

  1. Klicken Sie im Bereich Inhalt auf das Symbol Detected_Boats, um den Bereich Symbolisierung anzuzeigen.

    Symbol "Detected_Boats"

  2. Klicken Sie ggf. im Bereich Symbolisierung auf die Registerkarte Eigenschaften.

    Registerkarte "Symbolisierungseigenschaften"

  3. Legen Sie unter Darstellung die folgenden Parameter fest:
    • Wählen Sie als Farbe die Einstellung Keine Farbe aus.
    • Wählen Sie als Umrissfarbe ein helles Rot aus, z. B. Feuerrot.
    • Wählen Sie für Umrissbreite den Wert 2 Pkt aus.

    Parameter für das Aussehen

  4. Klicken Sie auf Übernehmen.

    Der Layer wird mit der neuen Symbolisierung dargestellt.

    Ergebnis-Layer mit der neuen Symbolisierung

  5. Vergrößern und schwenken Sie die Karte, und sehen Sie sich den Layer Detected_Boats genauer an.

    Sie können feststellen, dass das Modell die Boote erfolgreich erkannt hat und ein ungefährer Umriss jedes Bootes angezeigt wird. Es gibt jedoch einige falsch positive Ergebnisse. Dies sind die Stellen, an denen das Modell wie in der folgenden Abbildung zu sehen irrtümlicherweise ein Boot gefunden hat, das dort nicht vorhanden ist.

    Beispiel für ein falsch positives Ergebnis

Die Ergebnisse optimieren

Nun erfahren Sie, wie Sie die Ergebnisse optimieren und die falsch positiven Ergebnisse entfernen.

  1. Klicken Sie im Bereich Inhalt mit der rechten Maustaste auf den Layer Detected_Boats, und wählen Sie Attributtabelle aus.

    Menüoption "Attributtabelle"

    In der Attributtabelle Detected_Boats entspricht jede Zeile einem erkannten Boot-Feature. Derzeit sind 76 Features vorhanden.

    Attributtabelle "Detected_Boats"

    Hinweis:

    Die Anzahl Ihrer Ergebnis-Features kann hiervon leicht abweichen.

    Sie richten Ihr Augenmerk auf die beiden folgenden Felder:

    • Confidence: In diesem Feld wird angegeben, mit welchem Konfidenzniveau das Modell die einzelnen Features als Boot identifiziert hat (Prozentsatz).
    • Shape_Area: In diesem Feld ist die Fläche jedes Features (in Quadratmetern) angegeben.

    Felder "Confidence" und "Shape_Area"

    Zunächst untersuchen Sie Features, die möglicherweise zu klein sind, um Boote zu sein.

  2. Doppelklicken Sie auf den Feldnamen Shape_Area, um die Attributtabelle nach diesem Feld zu sortieren.

    Sortieren nach dem Feld "Shape_Area"

    Die Features werden nun aufsteigend von der kleinsten zur größten Fläche aufgeführt.

  3. Doppelklicken Sie auf den Zeilenkopf für das erste Feature, um auf die entsprechende Position auf der Karte zu zoomen und das Feature zu untersuchen.

    Zeilenkopf für das erste Feature

    Auf der Karte können Sie sehen, dass dieses Feature nur wenige Pixel breit ist und es sich nicht um ein Boot handelt.

    Kleines Feature, das kein Boot ist

  4. Prüfen Sie auf die gleiche Weise einige weitere Features in der Liste, um festzustellen, welche Fläche ausreichend groß für tatsächliche Boote ist.

    Der Schwellenwert scheint bei einer Fläche von 9 Quadratmetern zu liegen. Als Nächstes untersuchen Sie Features mit dem niedrigsten Konfidenzniveau.

  5. Doppelklicken Sie auf den Feldnamen Confidence, um die Attributtabelle nach diesem Feld zu sortieren.

    Sortieren nach dem Feld "Confidence"

    Die Features werden nun aufsteigend vom niedrigsten zum höchsten Konfidenzniveau aufgeführt. Die ersten Features in der Liste weisen ein Konfidenzniveau von etwa 20 Prozent auf, was sehr niedrig ist.

  6. Doppelklicken Sie auf die ersten Features, um auf die entsprechenden Position zu zoomen und das Feature zu untersuchen.

    Feature mit niedrigen Konfidenzniveau, das kein Boot ist

  7. Untersuchen Sie weitere Features, um festzustellen, ab welchem Konfidenzniveau diese tatsächlich Boote repräsentieren.

    Sie stellen fest, dass ein Konfidenzniveau von etwa 28 Prozent der Schwellenwert zu sein scheint. Nun erstellen Sie eine Kopie des Layers Detected_Boats, die nur die Features enthält, die ein ausreichend hohes Konfidenzniveau aufweisen und groß genug sind, um Boote zu sein.

    Tipp:

    Sie könnten die unerwünschten Features manuell aus dem Layer Detected_Boats löschen. Es kann jedoch sinnvoll sein, diesen Layer intakt zu lassen und stattdessen einen neuen Layer abzuleiten, falls Sie Ihre ursprünglichen Ergebnisse weiter untersuchen möchten.

  8. Klicken Sie auf dem Menüband auf der Registerkarte Karte in der Gruppe Auswahl auf Aufheben, um die Auswahl aller Features aufzuheben.

    Schaltfläche "Auswahl aufheben"

  9. Klicken Sie im Bereich Inhalt mit der rechten Maustaste auf Detected_Boats, klicken Sie auf Daten, und wählen Sie ‏‏Features exportieren‏ aus.

    Optionen des Menüs "Features exportieren"

  10. Geben Sie im Bereich Features exportieren für Ausgabe-Feature-Class den Namen Detected_Boats_Cleaner ein.

    Parameter "Ausgabe-Feature-Class"

  11. Blenden Sie Filter ein, und bilden Sie den Ausdruck Wobei gilt: Confidence ist größer als 28.

    Ausdruck "Wobei gilt: Confidence ist größer als 28"

  12. Klicken Sie auf Klausel hinzufügen, und erstellen Sie den zweiten Ausdruck Und Shape_Area ist größer als 9.

    Ausdruck "Und Shape_Area ist größer als 9"

  13. Klicken Sie auf OK.

    Der neue Layer wird zur Karte hinzugefügt.

  14. Klicken Sie im Bereich Inhalt auf das Kontrollkästchen neben Detected_Boats‏, um den Layer zu deaktivieren.

    Deaktivieren Sie "Detected_Boats".

  15. Schließen Sie die Attributtabelle Detected_Boats, um die Karte zu vergrößern.

    Schließen Sie die Attributtabelle "Detected_Boats".

  16. Klicken Sie auf der Registerkarte Karte auf Lesezeichen, und wählen Sie das Lesezeichen Detection area aus, um zur vollen Erkennungsausdehnung zurückzukehren.
  17. Sehen Sie sich den Layer Detected_Boats_Cleaner‏ auf der Karte an.

    Layer "Detected_Boats_Cleaner‏" auf der Karte

    Die meisten der falsch positiven Ergebnisse sind nun nicht mehr vorhanden.

    Hinweis:

    Sie wissen nun, dass der optimale Schwellenwert für das Konfidenzniveau der Daten 28 Prozent beträgt. Wenn Sie das Werkzeug erneut ausführen möchten, können Sie das Modellargument box_threshold im Werkzeug Objekte mit Deep Learning erkennen von 0,2 auf 0,28 ändern. Auf diese Weise werden die falsch positiven Ergebnisse mit einem Konfidenzniveau zwischen 20 und 28 Prozent aus den Ergebnissen entfernt. (Mit dem Argument box_threshold wird der minimale in der Ausgabe akzeptierte Wert für Confidence festgelegt.)

    Für den Flächenschwellenwert gibt es jedoch keine Entsprechung, sodass dieser Schritt im Rahmen der Nachbearbeitung durchgeführt werden muss.

  18. Klicken Sie im Bereich Inhalt mit der rechten Maustaste auf den Layer Detected_Boats_Cleaner‏, und wählen Sie ‏Attributtabelle aus.

    Nun sind noch 66 Boote im Layer vorhanden.

    66 Features im Layer

    Angenommen, Sie verwenden Text SAM, um Boote in jedem Kopenhagener Stadtteil zu erkennen, könnten Sie die Anzahl der Boote nach Stadtteil in einem Diagramm zusammenfassen. Der Layer Detected_Boats‏ könnte auch zum Erstellen einer Hot-Spot-Karte verwendet werden, die die Konzentration von Booten in der gesamten Stadt anzeigt. Schließlich könnte diese Analyse regelmäßig mit neuen Bilddaten wiederholt werden, um Muster und Veränderungen im Laufe der Zeit zu erkennen.

  19. Drücken Sie Strg+S, um Ihr Projekt zu speichern.

Text-SAM auf eigene Bilddaten anwenden

Wenn Sie Text-SAM auf eigene Daten anwenden möchten, finden Sie im Folgenden einige Tipps für die erfolgreiche Umsetzung.

  • Vorbereiten der Bilddaten: Das Modell "Text SAM" erwartet Dreiband-Bilddaten (Rot, Grün und Blau oder RGB). Wenn Ihre Bilddaten mehr als drei Bänder enthalten, sollten Sie die relevanten Bänder extrahieren, bevor Sie Text-SAM anwenden. Das Modell erwartet außerdem Bilddaten mit einer Pixeltiefe von 8 Bit. Falls Ihre Bilddaten eine andere Pixeltiefe aufweisen, z. B. 16 Bit, sollten Sie sie in 8 Bit konvertieren. Schritt-für-Schritt-Anleitungen zum Implementieren dieser Änderungen finden Sie im Abschnitt Relevante Bilddatenbänder auswählen des Lernprogramms Ein Deep-Learning-Modell mit Transfer Learning verbessern.
  • Suchen nach Informationen zu Ihren Bilddaten: Wenn Sie nicht sicher sind, welche Eigenschaften Ihre Bilddaten haben (z. B. Anzahl der Bänder, Pixeltiefe oder Zellengröße), klicken Sie im Bereich Inhalt mit der rechten Maustaste auf den Bilddaten-Layer, und wählen Sie Eigenschaften aus. Klicken Sie im Bereich Eigenschaften auf den Bereich ‏Quelle. Unter Raster-Informationen‏‏ finden Sie die Anzahl der Bänder‏, die Zellengröße X, die Zellengröße Y und die Pixeltiefe.
  • Ursprünglicher Workflow: Wenn die Bilddaten für den Objekterkennungsprozess bereit sind, können Sie zuerst den Text-SAM-Workflow verwenden, den Sie in diesem Lernprogramm kennengelernt haben. Dies ist die einfachste Methode, mit der Sie möglicherweise sehr schnell Ergebnisse hoher Qualität erhalten.
  • Ändern der Zellengröße: Wenn Sie mit den ersten Ergebnissen nicht ganz zufrieden sind, können Sie den Wert Zellengröße in den Umgebungsparametern von Objekte mit Deep Learning erkennen variieren. Die Zellengröße (in Meter) sollte so gewählt werden, dass die Sichtbarkeit der relevanten Objekte innerhalb der ausgewählten Ausdehnung maximiert wird. Sie könnten eine größere Zellengröße zum Erkennen größerer Objekte und eine kleiner Zellengröße zum Erkennen kleinerer Objekte verwenden. Beispiel: Legen Sie die Zellengröße für die Erkennung von Wolken auf 10 Meter und für die Erkennung von Autos auf 0,3 Meter (30 Zentimeter) fest. Dadurch ändert sich das Eingabebild nicht, aber das Werkzeug führt während der Verarbeitung ein Resampling der Daten durch. Weitere Informationen zur Zellengröße finden Sie unter Multiresolution Object Detection with Text SAM und Pixelgröße von Bild- und Raster-Daten.
    Parameter "Zellengröße‏"‏
  • Verwenden einer Maske: Bei der Erkennung von Objekten in bestimmten Interessenbereichen – z. B. Booten, die nur auf Wasserflächen vorkommen – kann es sinnvoll sein, in den Umgebungsparametern für Objekte mit Deep Learning erkennen eine Maske festzulegen. Eine Maske ist ein Polygon-Layer (oder Raster-Layer), der die Interessenbereiche für die Analyse abgrenzt, etwa die Grenzen von Wasserflächen in ganz Kopenhagen oder bestimmte Jachthäfen, falls nur diese Gegenstand der Untersuchung sind. Bei der Ausführung des Werkzeugs werden nur Positionen verarbeitet, die innerhalb der Maske liegen. Dadurch können Zeiteinsparungen erzielt und falsch positive Ergebnisse außerhalb der Maske vermieden werden.
    Maskenparameter
  • Verwenden eines objektspezifischen vortrainierten Modells: Neben der Verwendung von Text-SAM gibt es eine weitere zeitsparende Möglichkeit, Objekte mit GeoAI in ArcGIS zu erkennen: Sie können eines der vielen von Esri veröffentlichten vortrainierten Modelle verwenden, die jeweils auf einen einzelnen Objekttyp ausgerichtet sind, beispielsweise auf Bäume, Gebäude oder Solarkollektoren. Weitere Informationen finden Sie im Lernprogramm Objekte mit einem vortrainierten Deep-Learning-Modell erkennen.
  • Landbedeckung und andere Typen der Klassifizierung auf Pixelebene: Text-SAM dient zur Erkennung von diskontinuierlichen Objekten, die relativ kompakt und sind und sich von ihrer Umgebung unterscheiden (z. B. von Wasser umgebene Boote). Wenn Sie Informationen zur Landnutzung und Landbedeckung (LULC) extrahieren oder andere Arten der Klassifizierung auf Pixelebene durchführen möchten, sollten Sie nicht Text-SAM (oder andere ähnliche Modelle wie SAM‏) verwenden. Verwenden Sie stattdessen gegebenenfalls andere vortrainierte Modelle aus dem ArcGIS Living Atlas, beispielsweise High Resolution Land Cover Classification – USA oder Land Cover Classification (Sentinel-2).

In diesem Lernprogramm haben Sie das GeoAI-Modell "Text SAM" von der ArcGIS Living Atlas-Website heruntergeladen und zur Erkennung von Booten auf einem Bild verwendet. Anschließend haben Sie Attributfilter verwendet, um falsch positive Features zu entfernen. Schließlich haben Sie einige Tipps für die erfolgreiche Anwendung dieses Workflows auf eigene Bilddaten kennengelernt.

Weitere vergleichbare Lernprogramme finden Sie in der Reihe Deep Learning in ArcGIS testen.