Tuesday

FERNERKUNDUNG

Heutzutage ist es ganz normal, sich bei Google Maps, seinen Wunschort für die Urlaubsplanung bereits vorher anzuschauen. Mittlerweile ist die ganze Welt kartographiert. Die Entwicklung der Kartographie scheint parallel mit der Menschheitsentwicklung vonstatten gegangen zu sein. Denn es war schon immer nötig z.B. Routen für Händler festzulegen oder Herrschaftsgebiete zu markieren. Für die Realisierung großer Projekte wie beispielsweise Google Maps ist die Fernerkundung nötig. Diese hat sich mittlerweile zu einer eigenständigen Wissenschaft herausgebildet, welche sich mit der berührungsfreien, bildgebenden Aufnahme der Erdoberfläche befasst, sowie mit der Analyse und Interpretation dieser Daten.



Video 1: Luftbilder von David Maisel (Quelle: davidmaisel.com)


Die gängigen Methoden dafür sind Satellitenaufnahmen, Luftaufnahmen, Lidarbilder und Radarbilder. Voraussetzung für viele Verfahren ist die Elektromagnetische Strahlung, welche von der Sonne ausgeht. Diese Strahlung hat verschiedene Wellenlängen und gelangt auf die Erdoberfläche. Dort wird sie entweder Transmitiert, Absorbiert oder Reflektiert. Über verschiedene Sensoren in Satelliten werden dann bestimmte Spektralbereiche, der reflektierten Strahlung, in sogenannten Kanälen aufgenommen. Die Unterscheidung macht deshalb Sinn, da Körper auf der Erde Elektromagnetische Strahlung in verschiedenen Wellenlängen unterschiedlich stark reflektieren, wie man an der folgenden Abbildung erkennen kann.

Abbildung 1:
Sichtbares Lichtspektrum (Quelle: www.geoberg.de)

Die Reflektanz kann dann in Digital Numbers umgerechnet werden, womit jedes Pixel einen gewissen Grauwert bekommt. Wenn nun noch verschiedene Kanäle übereinander gelegt werden entstehen mehrfarbige Bilder. Neben dieser passiven Aufnahmemethode gibt es noch die aktive Methoden wobei die Strahlung vom Gerät aus kommt, und die Zeit gemessen wird, bis diese wieder beim Gerät ankommt.


Abbildung 2: Falschfarbenkomposit (Quelle: Eigene Darstellung)

Die folgenden Erklärungen zur Georeferenzierung, unüberwachter und überwachter Klassifikation, Changedetection und zur topographischen Analyse werden alle anhand des Programms Erdas Imagine gemacht.


GEOREFERENZIERUNG

Die Georeferenzierung hat das Ziel durch Fernerkundung erhaltenes digitales Bild- und Datenmaterial einen geographischen Raumbezug zu verleihen, um dieses mit einem GIS nutzen zu können. Jedem Pixel des Bildes soll eine kartographische Koordinate zugeordnet werden, indem ein geodätisches Bezugssystem, oder auch ein bereits georeferenziertes Bild des Gebietes, gewählt wird und über Ground Contol Points Punkte im Bild als auch in der Karte eindeutig identifiziert werden. Verzerrungen, die bei Fernerkundungsaufnahmen unvermeidbar sind, sollen entzerrt werden, damit z.B. Strecken und Hangneigungen , je nach Darstellung und Modell, der Realität im Raum entsprechen, um eine genaue Berechnung von Strecken und Flächen zu ermöglichen. Über Georeferenzierung lässt sich jeder Punkt auf der Erde eindeutig identifizieren.

Abb. 1: Verzerrung bei Luftaufnahmen


(Quelle: Vorlesungsskript Einführung GIS, Fernerkundung und Kartographie WS 2009/10 FU Berlin)

Eine möglichst genaue Georeferenzierung wird über ein ausreichend große Anzahl von Ground Control Points gewährleistet, die gut verteilt und möglichst genau lokalisiert werden können, um eine Beziehung zwischen Pixel und Geländepunkt herzuleiten. Die Verzerrungen sind am Bildrand sind am größten, so dass dieser Bereich genügend Ground Control Points aufweisen sollte.

Abb. 2: Georeferenziertes Bild


(http://www.dlr.de/caf/en/Portaldata/36/Resources/images/technologie/algorithmen/Lichtenau-Sommer-klein.JPG)


Besonders gut eignen sich Punkte, die trotz der oftmals geringen Auflösung der Bilder gut zu erkennen sind, wie Straßenkreuzungen, Denkmäler, große Gebäude, die nicht wie z.B. Flüsse und Uferstreifen von den Jahreszeiten und vom Klima beeinflusst werden. Bei geringen Auflösungen kann sich die Auswahl als schwieriges Unterfangen darstellen, da z.B. ein Pixel im Bild 30x30 Meter auf dar er Erdoberfläche darstellt. Viele Punkte werden daher über einige wenige Pixel unscharf dargestellt.
Diese Punkte werden in ERDAS manuell bestimmt und mit den geodätischen Koordinaten verknüpft.
Durch die Auswahl eines geeigneten mathematischen Modells – dem Ableiten einer Transformationskurve – werden die Pixel aus der Bildmatrix in eine neue Position im Referenzgitter übertragen.
Bei der Transformation des zweidimensionalen Raumes sind das Versetzen des Urprungs, die Skalenänderung und die Rotation der Achsen die drei grundsätzlichen Änderungen des Koordinatensystems. Weitere Veränderungen sind Kombinationen der Grundtypen und werden als affine Transformation bezeichnet.

Def.: Affine Transformation
Geometrische Transformation von einem euklidischen
Koordinatensystem in ein anderes (z.B. von Digitizerkoordinaten in
Landeskoordinaten), wobei als Faktoren Rotation, Translation und
Skalierung wirken. Die Ähnlichkeit (Form) von geometrischen
Figuren bleibt erhalten. (Quelle: Vorlesungsskript von Dr. Hans-Peter Thamm: Einführung GIS, Kartographie, Fernerkundung. WS 2009/10 FU Berlin)


Um Bildverzerrungen zu beseitigen und um Größenverhältnisse zu korrigieren sind Koordinatentransformationen der Bildpunkte notwendig, die zu einer Translation, Skalierung oder Rotation der Bilder führen.
Der Grad der affinen Transformation wird über die Anzahl der Ground Control Points bestimmt, so benötigt ein Polynom 1. Grades, wie z.B. für kleinere Gebiete, mindestens 3 Punkte, während ein Polynom 3. Grades bei komplexen Verzerrungen mindestens 10-15 Punkte benötigt.


Die Lage des Koordinatensystems beeinflusst die Abbildung von Objekten bei der Berechnung der neuen Grauwerte.


Die im Seminar behandelten Resampling-Methoden sind:

1. "nearest neighbour": Diese Methode führt zu blockigen Bildern, da der Grauwert des Pixels im Ausgangsbild übernommen wird, der die größte Überdeckung im neuen Bild hat, bzw. den neu berechneten (x,y)-Koordinaten am nächsten liegt.

2. "bilinear convolution": Die Grauwerte werden interpoliert, so wird ein blockiges Erscheinungsblid vermieden. Der neue Grauwert entsteht aus dem gewichteten Mittelwert der 4 nächsten Zellwerte. Durch die Interpolation werden allerdings die Grauwertgrenzen abgeschwächt und somit die Signaturdifferenzen zwischen Objektklassen unscharf.

3. "bicubic convolution": Bei dieser rechenintensiven Methode werden die Grauwerte aus dem gewichteten Mittelwert von 4x4 Pixeln interpoliert. Die neu berechneten Grauwerte ergeben ein hohe Lagegenauigkeit.

Um die Qualität der Transformation zu überprüfen, wird das Maß des RMS Error (Root means square) benutzt, um die "closeness of fit", also in wie weit die Punkte in beiden Bildern übereinstimmen.

- Georeferenzierung mit ERDAS

Aufgabe: Fertigen Sie eine Georeferenzierung eines Satellitenbildes auf Grundlage eines anderen, bereits georeferenzierten Bildes an.

Mit dem Tool „Data Prep“ kann die Menüauswahl zur Geometrischen Korrektur („Image Geometric Correction...“) geöffnet werden. Zunächst muss das zu korrigierende Bild angeben werden, ist es bereits in einem Viewer geöffnet, kann es durch „Select Viewer“ und einen Klick in das entsprechende Fenster ausgewählt werden. Anschließend stehen verschiedene Transformationsmethoden zur Auswahl: „Polynomial“ ermöglicht die freie Entzerrung in allen Dimensionen auf Grundlage mehrerer definierter Passpunkte. Da eine einfache polynomiale Transformation ausreichend ist, kann das folgende Fenster zu den Eigenschaften des Transformationsalgorythmus geschlossen werden. Abschließend muss die Quelle der Referenzpunkte angegeben werden, hier wird die bereits georeferenzierte Datengrundlage ausgewählt. Wurde alles richtig gemacht, sollten Projektion und Spheroid im folgenden Infofenster korrekt angegeben sein.

Nun kann mit dem Setzen der Passpunkte begonnen werden. Über den GCP-Editor des nun erscheinenden Geo Correction Tools lassen sich beliebig viele Ground Control Points in beiden Bildern definieren, wobei jedem GCP der indexgleiche Passpunkt des anderen Bildes zugeordnet wird. Nachdem ein Punkt grob im Hauptviewer gesetzt wurde, kann er im kleinen Kontrollfenster am oberen Bildschirmrand so exakt wie möglich verschoben werden. Die Position des Kontrollfensterausschnitts kann dabei über den Rahmen im Hauptfenster versetzt werden, klicken und verschieben in den Ecken des Rahmens skaliert den Ausschnitt.

Da drei Punkte für eine einfache polynomiale Transformation ausreichen, wird der Referenzpunkt bei zusätzlichen GCP’s automatisch an die aus allen bisherigen Punkten berechnete Position versetzt.

Abb.1: Georeferenzierung (Quelle: Eigene Darstellung)


Je weniger diese Position korrigiert werden muss, desto besser ist die Georeferenzierung und desto geringer sind die RMS-Error-Werte, die nun auch in der Punktetabelle angezeigt werden.

Wurde eine ausreichende Anzahl von Referenzpunkten definiert, kann das korrigierte Bild berechnet werden. Das zugehörige Menü öffnet sich über „Display Resample Image Dialog...“ im Geo Correction Tool. Neben der zu erstellenden Ausgabedatei muss auch eine der drei Resampling-Methoden gewählt werden.

Nach der Berechnung kann der Erfolg direkt verglichen werden, in dem das neue Bild über das bereits georeferenzierte Bild geladen und die Übereinstimmung beispielsweise mit dem Blendwerkzeug (Utility – Blend...) sichtbar gemacht wird.

CHANGE DETECTION

Durch Klimaveränderunngen, Schwankungen der Erde in seiner Umlaufbahn oder ähnliches kam es immer zu Veränderungen auf der Erdoberfläche bezüglich der Topographie und des Bewuchses. Aber auch der Mensch nimmt großen Einfluss auf die Veränderung der Erdoberfläche, in dem er z.B. Wälder abholzt, Monokulturen anbaut oder Siedlungen errichtete. Es gibt also eine stetige Veränderung der Erdoberfläche.



(Quelle: http://www.glowa-volta.de/land_use.html)


Um die Prozesse auf der Erdoberfläche begreifen zu können, muss die räumliche Veränderung in gewissen Zeitabschnitten untersucht werden. Dies ist mit Hilfe der Veränderungsdetektion oder auch Change Detection möglich, welches eine Art von Spektraloperation ist. Es gibt verschiedene Möglichkeiten eine Veränderungsdetektion zu machen, es könnten verschiedene Satellitendaten addiert, subtrahiert, dividiert oder multipliziert werden. Dabei werden immer aus mehreren Datensätzen, ein neuer synthetischer. Dadurch kann nun eine bestimmte Bildinformation hervorgehoben werden. Je nach dem welche Veränderung von Interesse ist, macht es Sinn die Change Detection für gewisse Kanäle durch zuführen. Beim Landsat bietet sich beispielsweise der 4 Kanal an um Veränderungen bei der Vegetation nachvollziehen zu können.

Beim Band Differencing wird wie der Name schon sagt ein Datensatz von einem anderen abgezogen, bzw. die Reflektanzen der Pixel werden subtrahiert. Sind die Reflektanzen nun zu beiden Zeiträumen relativ gleich, kommt als Ergebnis eine Zahl heraus, die annähernd null ist. Je nachdem welcher Zeitraum von welchen subtrahiert wird, sind Objekt zunahmen oder abnahmen mit hohen und niedrigen Werten gekennzeichnet. Vorteilhaft an dieser Methode ist, dass es sehr schnell und relativ einfach qualitative Veränderungen angezeigt werden.






Bei der Addition von Datensätzen können panchromatische Bilder erzeugt werden, sodass ähnliche Spektralbereiche zusammen gefasst werden. Oder es können zusätzlich Karten als geographische Rasterdaten mit den Satelliten Bildern kombiniert werden.

Durch das Band Rationing lassen sich die Veränderungen prozentual anzeigen. Hierbei wird der eine Rasterdatensatz des einen Zeitraums mit dem anderen dividiert. Ähnlich wie beim Band Differencing ist auch diese Methode relativ einfach und schnell zu machen, sie gibt einen Überblick über Veränderungen und ist auch mit nicht kalibrierten Bildern möglich.

Außerdem gibt es noch das Post Klassifikation Verfahren. Dabei werden 2 fertige Klassifikationen miteinander verglichen z.B. über Subtraktion oder Division der Datensätze. Nun muss noch eine Change Matrix erstellt werden. Dabei werden die Klassen in einen Tabellenkopf sowie links in die Spalten geschrieben. Nach dem Differencing verfahren ist dann genau zu erkennen welche Klasse zu welcher geworden ist. Damit es nicht zu Verdopplungen in den Werten kommt werden die Werte der Klassen im Tabellenkopf einfach mit 10 multipliziert. Vereinfacht könnte eine solche Change Matrix wie folgt aussehen:




Anhand dieser Werte lässt sich jetzt genau bestimmen, Welcher Pixel, der Post Klassifikation, sich wie entwickelt hat. Besitzt ein Pixel beispielsweise der Wert 9, war es vorher Wald und ist es jetzt immer noch. Besitzt er aber den Wert 8, war es vorher Wald ist aber nun eine Siedlung usw..

Der Vorteil dieser Methode ist die eindeutige Bestimmung der Entwicklung, aber die Post Klassifikation kann nur so genau sein, wie die vorherigen Klassifikationen. Bei geringen Veränderungen kann es also sein das fast nur die Ungenauigkeit der Klassifikation angezeigt wird.

KLASSIFIKATION

Ist ein digitaler Fernerkundungsdatensatz erst einmal korrigiert und georeferenziert, steht der Informationsextraktion, also dem eigentlichen Anliegen der Analyse von Fernerkundungsdaten zur Erstellung von Karten oder dem Verknüpfen der gewonnenen Informationen mit anderen Geodaten, nichts mehr im Wege. Dieser Prozess wird als Klassifikation bezeichnet und kann manuell oder automatisiert erfolgen.
Um ein digitales Bild manuell zu klassifizieren, müssen Formen und Gebilde des Bildes interpretiert werden können. Gleiche Erscheinungen werden zu bestimmten Klassen geordnet, wodurch aus umfangreichen digitalen Informationen leicht verständliche semantische Begriffe werden. Ein einfaches Beispiel ist die manuelle Klassifikation eines Satellitenbildes von Berlin, aus dem beispielsweise Seen, Stadtviertel, Parks oder Waldgebiete digitalisiert werden können (Abb. 3.1).
Im Gegensatz dazu stehen automatische Verfahren, bei denen die Klassen durch mathematische Berechnungen aus dem spektralen Profil jedes Objekts ermittelt werden und die meist bessere und wesentlich schneller Ergebnisse liefern. Zudem sind sie unabhängig von den bearbeitenden Personen, daher sind die Ergebnisse objektiv und reproduzierbar. Unterschieden werden dabei „überwachte“ und „unüberwachte“ Klassifikationen.
Jedes Pixel eines digitalen, multispektralen Bildes lässt sich durch seine Lage in einem mehrdimensionalen Merkmalsraum („feature space“) beschreiben, der aus den Reflektanzen des Bildpunktes in den verschiedenen Kanälen des Datensatzes gebildet wird. Ein ganzes Objekt besteht aus mehreren Pixeln, die auf Grund ihrer ähnlichen spektralen Eigenschaften in einem solchen Merkmalsraum eine „Pixelwolke“ bilden. Abbildung 3.2. stellt ein zweidimensionales „feature space image“ dar, dessen Achsen durch die Reflektanzen eines Bildpunktes in den Kanälen 3 und 4 des ETM+-Sensors des Satelliten gebildet werden. Jedes Pixel des Bildes ist in diesem Merkmalsraum repräsentiert, die spektralen Eigenschaften in den gelben und roten Gebieten kommen dabei besonders häufig vor.


Es lassen sich deutlich von einander abgetrennte Bereiche erkennen, in denen sich besonders viele Pixel konzentrieren. Bereich 1 stellt beispielsweise die spektralen Eigenschaften der Wasserflächen des Bildes dar: Sowohl im Bereich des sichtbaren roten Lichts (x-Achse) als auch im nahen Infrarot (y-Achse) reflektiert Wasser wenig Strahlung. Vegetation dagegen reflektiert mehr Strahlung im nahen Infrarot, vegetationsreiche Flächen sind daher vor allem in Bereich 2 repräsentiert.
Ein Algorithmus zur Erzeugung einer unüberwachten Klassifikation würde nun nach statistischen Gesichtspunkten Klassen ähnlicher spektraler Eigenschaften der enthaltenen Bildpunkte berechnen. Werden die Bereiche 2 und 3 verglichen, fällt jedoch auf, dass eine Zuordnung in manchen Bereichen nicht mehr so leicht möglich ist, da sich die Punktwolken verschiedener Objekte überschneiden können und „Mischpixel“ auftreten. Um ein genaueres Ergebnis zu erzielen, wird daher oft auf eine überwachte Klassifikation zurückgegriffen: Die spektralen Klasseneigenschaften werden dabei aus den Eigenschaften manuell digitalisierter „Trainingsgebiete“ berechnet. Die Trainingsgebiete spiegeln dabei die Spektralsignaturen der Klassen, die sie repräsentieren, besonders gut wieder.

- Manuelle Informationsextraktion mit ERDAS

Aufgabe: „Erstellen Sie ein Polygonshapefile, in dem sie insgesamt mindestens 25 Polygone unterschiedlicher Landnutzungen auf der Grundlage eines Satellitenbildes sorgfältig digitalisieren und in den Attribut-Tabellen entsprechen benennen. 
Gestalten sie die Polygone optisch ansprechend.“


Abb 1: Manuelle Klassifikation (Quelle: Eigene Darstellung)


Manuell extrahierte Daten können über Shapefiles gespeichert werden. Nach dem das zu klassifizierende Bild geöffnet wurde, sollte also zunächst über File – New – Vector Layer ein neuer Vektordatensatz mit dem Datentyp „Shapefile (*.shp)“ erstellt werden. Anschließend sollte „Polygon Shape“ gewählt werden, da sich die Landnutzung am Besten durch Flächenelemente darstellen lässt.
Ist das Shapefile erstellt, öffnet sich die „Vector“-Toolbox. Über die Schaltfläche zur Flächenerstellung können nun über das Setzen von Stützpunkten auf dem Bild interpretierbare Landnutzungsformen digitalisiert werden.
Als einfachste Formen bieten sich Gewässerflächen zur Digitalisierung an, aber auch Wälder, Parks oder Vegetationsstufen auf Feldern lassen sich besonders bei einem Falschfarbenkomposit unter Verwendung des nahen infraroten Spektralbereichs leicht erkennen und extrahieren. Im innerstädtischen Bereich Berlins heben sich neben Flughäfen teilweise auch ganze Stadtviertel auf Grund der Versiegelungsdichte ab, so sind beispielsweise das dicht bebaute Wohngebiet Hohenschönhausen oder die lockere Siedlungsbauweise Frohnaus auszumachen.
Daten zur genaueren Beschreibung der gewonnenen Klassen können in der Attribut-Tabelle des Shapefiles gespeichert werden. Diese wird über Vector – Attributes... geöffnet. Unter Edit – Column Attributes... können die Attribute verwaltet werden. Bei der Erstellung neuer Spalten sollte auf den richtigen Datentyp („String“ für Zeichenketten, „Integer“ für Ganzzahlen und „Real“ für Dezimalzahlen) und auf die maximale Titellänge der Spalte von acht Zeichen geachtet werden. Neben den Standard-Spalten „AREA“ (Flächeninhalt des Polygons), „PERIMETER“ (Umfang) und einer eindeutigen ID für jede Zeile sollte unbedingt eine Spalte für das Festhalten der Landnutzungsklasse erstellt werden. Hier werden die verschiedenen Flächen über semantische Begriffe in Beziehung gestellt, zum Beispiel könnten der Wannsee und der Müggelsee einer Landnutzungsklasse „Gewässer“ zugeordnet werden. Daneben eignen sich auch andere Informationen wie der Name, den ein digitalisiertes Objekt trägt oder der Bezirk, in dem es sich befindet.


Nach dem die gewünschten Flächen digitalisiert und mit Attributen versehen wurden, können sie unter Verwendung einer geeigneten Symbologie ansprechender dargestellt werden. Die Umgebung zur Erstellung findet sich unter Vector – Symbology.... Aus der Attribut-Tabelle können mit Automatic – Unique Values automatisch Standard-Symbolklassen gelesen werden, wobei das Attribut, nach dem diese erstellt werden sollen, ausgewählt werden muss.

- Unüberwachte Klassifikation mit ERDAS

Aufgabe: „Erstellen Sie eine unüberwachte Klassifikation mit 4 Klassen sowie eine weitere mit mindestens 10 Klassen. Weisen Sie den Klassifikationen entsprechende „Real World“-Klassen zu und versehen Sie sie mit einer ansprechenden Farbgebung.“

Um automatische Klassifikationen mit ERDAS zu erstellen, wird das „Classification“-Tool genutzt. Mit der Schaltfläche „Unsupervised Classification“ öffnet sich ein Fenster, in dem alle Einstellungen für die Berechnung der Klassen vorgenommen werden können. Zunächst sollten die Eingangsdatei („Input Raster File“) sowie die Ausgabedatei definiert werden. Wird ein signature set angegeben, werden die erzeugten Klassen direkt nach den entsprechenden Signaturen dargestellt. Im Feld „Number of Classes“ wird die gewünschte Klassenzahl eingestellt.
Im Folgenden können noch Parameter der Klassenberechnung angepasst werden. Die dahinterstehende Rechenmethode (der ISODATA Cluster-Algorithmus) lässt sich am anschaulichsten mit einem Punktwolkenmodell erklären: In mehreren Durchläufen wird versucht, die Klassen so in den Merkmalsraum einzupassen, dass sie einen möglichst großen Teil der einzelnen Punkte umfassen, gleichzeitig aber nur möglichst wenige Punkte ausschließen. Die prozentuale Überdeckung, die angestrebt wird, kann nach „Convergence Threshold“ eingestellt werden, die Anzahl der Durchläufe, nach der die Berechnung spätestens abgebrochen werden soll wenn die Überdeckung noch nicht erreicht wurde, entspricht dem Wert nach „Maximum Iterations“. Je nach Datensatz kann die Überdeckung mehr oder weniger hoch eingestellt werden, oft wird schon nach weniger als zehn Iterationen eine Übereinstimmung von 99% erreicht.
Schon mit vier Klassen lässt sich ein erstaunliches Ergebnis liefern und differenzierte Aussagen über die Landnutzung treffen. Die Klassen werden automatisch in verschiedenen Grautönen eingefärbt und können nun manuell signiert werden. In der Attribut-Tabelle (Raster – Attributes...) sind alle Klassen aufgeführt, hier kann ihnen auch ein Klassenname zugewiesen werden. Zur besseren Übersicht kann die Reihenfolge der Spalten über Edit – Column Properties... verändert werden, sodass beispielsweise der Spaltenname nach vorn geschoben werden kann.


Abb. 1: Unüberwachte Klassifikation (Quelle: Eigene Darstellung)

Im Gegensatz zu einer Klassifikation mit wenigen Klassen, bei der eine Bezeichnung mit Landnutzungsbegriffen der Realität recht einfach möglich ist, auch wenn sich diese in vielen Bereichen überschneiden oder nicht zutreffen, ist ein Ergebniss mit vielen Klassen zwar sehr genau, eine semantische Begriffszuweisung fällt aber in vielen Fällen schwerer. So werden je nach Klassenanzahl beispielsweise phänologische Stadien sehr differenziert herausgestellt.

- Überwachte Klassifikation mit ERDAS

Ein genaueres Ergebnis liefert eine überwachte Klassifikation. Um die dafür nötigen Testgebiete zu digitalisieren, muss zunächst einmal ein AOI-Layer („Area of Interest“) erstellt werden (File – New – AOI-Layer), auf dem die Flächen ähnlich der manuellen Informationsextraktion definiert werden. Über AOI – Tools kann die Layer-Toolbox geöffnet werden, hier findet sich wieder die Schaltfläche zum Abgreifen der Polygone . Im Signature Editor (Classifier – Signature Editor) lassen sich die Klassen verwalten: nachdem ein Trainingsgebiet importiert wurde, kann es benannt, signiert oder mit anderen Trainingsgebieten zusammengefasst werden , wenn diese die gleiche Klasse repräsentieren.
Sind für alle gewünschten Klassen ausreichend und gut über das Bild verteilte, homogene Trainingsgebiete digitalisiert worden, können der AOI-Layer und das signature set gespeichert werden. Die Klassifikation wird über Classifier – Supervised Classification erzeugt, dafür wieder die Ein- und Ausgangsdatei definieren sowie die Trainingsgebiete über „Input Signature File“ laden.


Abb. 1: Überwachte Klassifikation (Quelle: Eigene Darstellung)

Anschließend können eine Reihe von Zuweisungskriterien gewählt werden, nach denen die einzelnen Pixel des Bildes den neuen Klassen, die durch die Testgebiete repräsentiert werden, zugewiesen werden. Die können das Endergebnis stark beeinflussen: In ERDAS können sowohl parametrische als auch nicht-parametrische Regeln verwendet werden. Nach parametrischen Regeln entscheiden allein die statistischen Eigenschaften, welcher Klasse ein Pixel zugeordnet wird, beispielsweise die Lage bei der „Minimum Distance“-Methode. Der non-parametrischen Regel liegt der Vergleich der Pixelwolke mit einer Klasse zu Grunde: entweder sie lässt sich eindeutig zuordnen, entspricht keiner Klasse („Unclassified Rule“) oder lässt sich mehreren Klassen zuordnen. Welcher Klasse im letzten Fall zugeordnet werden soll, wird über „Overlap Rule“ definiert.