Dimensionsreduzierung als weiterer Schritt der Vorverarbeitung

•Mai 26, 2012 • Schreibe einen Kommentar

Dimensionsreduzierung als weiterer Schritt der Vorverarbeitung

Da ein Großteil der Informationen in hyperspektralen Fernerkundungsdaten redundant und damit für weitere Verarbeitungsschritte nicht erforderlich ist, empfiehlt es sich, einen weiteren Schritt zur Vorverarbeitung der Daten durchzuführen. Zweck dieses Arbeitsschrittes ist es, die Informationen aller Kanäle auf wenige aussagekräftige Kanäle zu reduzieren und in einem neuen Datensatz zu verdichten.

Eine Möglichkeit bietet hier die Minimum Noise Fraction-Transformation (kurz MNF). Hierbei handelt es sich um eine orthogonal Transformation in Form einer zweistufigen Hauptkomponententransformation. Ziel dieser Transformation ist die Interpretation der Kanäle zur Identifikation jener Komponenten mit den größten bzw. geringsten Informationsanteilen. Abschließend werden diese Komponenten dann in wenige aussagekräftige Hauptkomponenten strukturiert und nach einem abnehmenden signal-to-noise ratio bzw. Informationsgehalt geordnet.

Die Umsetzung erfolgte über das in ENVI implementierte „Forward MNF“ Tool. Die Evaluation der berechneten MNF-Komponenten ergab dabei, dass bereits die ersten 20 der insgesamt 126 Kanäle durchschnittlich 85 % der gesamten Informationen besitzen. Für die weitere Analyse wurden daher lediglich die ersten 20 Kanäle beibehalten. Dies wiederum hat einerseits den Vorteil, dass die aus den Daten gewonnen Informationen größtenteils wirkliche und somit unverrauschte Informationen repräsentieren und andererseits, dass die Rechenzeit für noch folgende Arbeitsschritte erheblich reduziert wird.

Advertisements

Präprozessierung der Daten

•Mai 26, 2012 • Schreibe einen Kommentar

Präprozessierung der Daten

Einen der wohl wichtigsten Schritte innerhalb der Prozessierungskette stellt die Vorverarbeitung der Daten dar. Ist dieser Arbeitsschritt bereits fehlerhaft, wirkt sich dies unweigerlich auf alle noch folgenden Arbeitsschritte und damit auf die Qualität der Ergebnisse aus. Ziel der Präprozessierung war es, die Daten in einen geeigneten und damit nutzbaren Zustand zu bringen, um diese gerade im Kontext einer multitemporalen Auswertung miteinander vergleichbar zu machen

Zur Korrektur systembedingter und zufälliger Fehler fanden für die im Rahmen der Arbeit genutzten Daten folgende Verfahren Verwendung:

–          Geometrische Korrektur,

–          Atmosphärenkorrektur,

–          die Bildung von Masken,

–          sowie eine Ausmaskierung fehlerhafter Kanäle.

Der Lösungsansatz

•Mai 26, 2012 • Schreibe einen Kommentar

Lösungsansatz

Wie bereits beschrieben, ist das strategische Ziel meiner Arbeit die Entwicklung einer effizienten Methode zur Erfassung und Bewertung (Monitoring) großflächiger Natura 2000 Schutzgebiete. Dabei möchte ich mit möglichst einfachen Mitteln gute Resultate erzielen. Die gesamte Methode soll daher auch  auf Grundlage existierender Verfahren aufbauen.

Meinen Lösungsansatz habe ich entsprechend den während der Literaturrecherche gesammelten Erkenntnissen gestaltet, mit dem Ziel, einen Mix ausgewählter Forschungsmethoden zu einer beherrschbaren Methode zu verbinden. Zur Erfassung der aktuellen Erhaltungszustände und der zeitlichen Entwicklung von Biodiversität in großflächigen Schutzgebieten, werden im Rahmen dieser Arbeit Biodiversitätsindikatoren genutzt. Grundlage bilden dabei die Arbeiten des EU-Projektes EON2000+. Dabei handelt es sich um fernerkundungsbasierte Indikatoren, welche eine Ableitung aussagekräftiger Bewertungsparameter zum Monitoring von Schutzgebieten ermöglichen und so eine Möglichkeit zur Implementierung der FFH -Monitoring und Berichtspflicht schaffen. Den Zugang zu diesem Verfahren habe ich über die Literaturrecherche bzw. der Analyse des Forschungsstandes erhalten. Über verschiedene Studien konnte dabei die Eignung und Effizienz dieser Indikatoren nachgewiesen werden. Zum Teil nutze ich hierbei auch die Ergebnisse der 2006 abgeschlossenen Dissertation von Sell.

Die Wahl der Indikatoren richtet sich nach den Vorgaben des EU-Projektes EON2000+. Um dabei eine möglichst allgemeingültige und reproduzierbare Umsetzung der FFH-Monitoringpflicht zu realisieren, werde ich diese ohne Modifikationen übernehmen. Für die explizite Wahl der Bewertungsindikatoren habe ich mehrere Kriterien definiert, welche den inhaltlichen und räumlichen Bezug zum Schutzgegenstand sicherstellen sollten. Bei diesen handelt es sich um die Maßstabsebene, die biogeographische Region, die vorhandenen Lebensraumtypen sowie die Schutzziele und Maßnahmen.

Ich hoffe damit ein Set aus Biodiversitätsindikatoren zu haben, über welches die Veränderungen im Untersuchungsgebiet erkannt, quantifiziert und analysiert werden können, so wie es die Monitoring- und Berichtspflichten der FFH-Richtlinie explizit fordert.

Datengrundlagen und die genutzte Software

•April 18, 2012 • Schreibe einen Kommentar

Datengrundlagen und die genutzte Software

Für die Bearbeitung der Fragestellung fanden eine Vielzahl unterschiedlicher Daten Verwendung. Im Folgenden möchte ich Euch einen kurzen Überblick über die wichtigsten Daten und deren Charakteristik sowie über die genutzte Software geben.

Datengrundlagen:

Die Basis meiner Arbeit bilden multitemporale Luftbildaufnahmen der Kirchheller Heide vom 24. August 2000 und vom 15. Juli 2003. Diese wurden im Rahmen der Befliegungskampagnen  HyEurope und MINEO aufgenommen. Es handelt sich dabei jeweils um Aufnahmen des flugzeuggetragenen hyperspektral Scanners „HyMap“ (Hyperspectral Mapping).
Hinsichtlich der technischen Charakteristik gehört der HyMap-Sensor zu den abbildenden Spektrometern und verfügt über 128 Spektralkanäle, von denen nach den ersten Prozessierungsschritten 126 Kanäle effektiv für die Bearbeitung  zur Verfügung stehen. Im Zuge der Datenaufnahme wird die ankommende Strahlung dazu am Sensor über ein Prisma auf vier Spektrometer verteilt, die jeweils 32 Kanäle in einer Bandbreite von 15 – 20 nm aufzeichnen (BRUNN, 2006). Auf Basis dieser vier Spektrometer ist es möglich, die von der Erdoberfläche reflektierte Sonnenstrahlung in einem Wellenlängenbereich von 450 bis 2500 nm registrieren und speichern zu können und damit das gesamte Spektrum vom sichtbaren Licht bis hin zum mittleren Infrarot abzudecken. Auf diese Weise erhält man für jeden registrierten Bildpunkt 126 Werte, in der jeder Wert die registrierte Reflexion der jeweiligen Wellenlänge definiert (HYVISTA, 2012).

Abb: HyMap 3D-Datenquader am Beispiel des Untersuchungsgebietes.

Hinsichtlich der Aufnahmebedingungen herrschten zum Zeitpunkt beider Aufnahmen optimale Wetterbedingungen, ohne Beeinträchtigungen wie beispielweise durch Bewölkung, Dunst oder ähnlichem. Die Aufnahmen erfolgten in einer Flughöhe von ca. 2500m über Normalhöhennull. Für die Daten resultiert daraus eine räumliche Auflösung von 5x5m (BRUNN, 2006)
Als Referenzdaten dienen 2 vorliegende Biotoptypenkartierungen der Jahre 2000 und 2003. Diese werden zum einen als Ground-Truth-Information zur Definition der Endmember und zum anderen als Referenzinformation zur Genauigkeitsprüfung der spektralen Entmischung genutzt.
Es handelt sich dabei um Biotoptypenkartierungen, welche erstmals 1993 für das Untersuchungsgebiet Kircheller Heide erfolgten und durch regelmäßige Aktualisierungen in ihrer aktuellsten Form als Version von 2003 vorliegen (Stand 2006). Die durchgeführten Biotoptypenkartierungen besitzen einen Maßstab von 1:5000 auf Grundlage aktueller Rasterdaten der Deutschen Grundkarte (DGK5). Die Kartierung der Aufnahmen erfolgte auf Grundlage eines modifizierten Biotoptypenschlüssels der Landesanstalt für Ökologie, Bodenordnung und Forsten des Landesamtes für Agrarordnung NRW (BRUNN, 2006; ILS, 1996).

Software:

Zur Realisierung der Fragestellung und der damit verbundenen Vielfalt an Prozessierungsschritten, kommen verschiedene Programme zur Anwendung. Als Programm zur Verarbeitung der Rasterdaten diente ENVI (Environment for Visualizing Images). Hierbei handelt es sich um eine für die Fernerkundung entwickelte rasterbasierte Software zur Informationextraktion aus geo­graphischen Da­ten. Die Software bietet dabei insbesondere eine Vielzahl an Funktion und Werkzeugen  zur Analyse und Bearbeitung von hyperspektralen Da­ten. Zur Bearbeitung der Fragestellung wird ENVI in der Version 4.8 eingesetzt.
Weiterhin findet die Software ArcGIS 10 mit der extension V-LATE Verwendung, welches zur Analyse und Auswertung der Change Detection genutzt werden soll.

Quellen:

– HyVista, 2012: http://www.hyvista.com/

– Brunn, A., 2006: Methoden zur Auswertung hyperspektraler Fernerkundungsdaten für die Untersuchung von Zustandsveränderungen perennierender Pflanzen

Überblick über die Literaturrecherche

•Februar 28, 2012 • Schreibe einen Kommentar

Zur Bearbeitung meiner Master Thesis habe ich mir zunächst die einschlägige Literatur vorgenommen um so eine Übersicht über den aktuellen Stand der Forschung zubekommen.  Die aktuellen Bemühungen im Bereich meiner Thematik habe ich dazu in 2 Schwerpunkte gegliedert: Klassifikationsstrategien und aufgabenspezifische Indikatoren. Darauf aufbauend habe ich zu den jeweiligen Schwerpunkten verschiedene Studien bzw. Arbeiten vorgestellt und deren Ergebnisse diskutiert. Hauptaugenmerk lag dabei insbesondere auf der Bewertung von Vor- und Nachteilen sowie dem Aufzeigen möglicher Alternativen. Diese Bewertung  bzw. die daraus gewonnen Erkenntnisse bildeten wiederum die Grundlage meines Lösungsansatzes.

Folgend habe ich zu diesem Arbeitsschritt einige interessante Link’s bzw. weiterführenden Themen zusammengestellt:

–          Ehlers et al. , 2004; Digitale flugzeuggetragene Fernerkundungssensoren: Neues Potenzial und neue Auswertemethoden. Photogrammetrie-Fernerkundung-Geoinformation (PFG) 6/2004, pp. 461-462.

–          Greiwe, 2006; Detektion von Referenzspektren in multisensoralen Bilddaten. URL: http://repositorium.uni-osnabrueck.de/handle/urn:nbn:de:gbv:700-2006052215

–          Kooistra et al. , 2009; Use of spectral mixture analysis for characterisation of function and structure of heathland habitat types. URL: http://hyperinet.multimediacampus.it/images/TelAviv3004_Kooistra.pdf

–          Frick, A. (2007): Beiträge höchstauflösender Satellitenfernerkundung zum FFH-Monitoring – Entwicklung eines wissensbasierten Klassifikationsverfahrens und Anwendung in Brandenburg. Technische Universität Berlin, Dissertationen online. URL: http://opus.kobv.de/tuberlin/volltexte/2007/1413/.

–          Estreguil et al. 2004; Portfolio of. Earth Observation based Indicators for Biodiversity and Nature Protection. URL: http://publications.jrc.ec.europa.eu/repository/handle/111111111/656

–          Leukert, K. (2005): Übertragbarkeit der objektbasierten Analyse bei der Gewinnung von GIS-Daten aus Satellitenbildern mittlerer Auflösung. Stand: 11.02.2012.  http://ub.unibw-muenchen.de/dissertationen/ediss/leukert-kristin/inhalt.pdf

–          Sell, M. (2006): Der Einsatz höchstauflösender Satellitendaten zur Ableitung räumlicher Umweltdaten und -indikatoren für das Monitoring von Naturschutzflächen in Brandenburg. Stand: 21.12.2011. http://ubt.opus.hbz-nrw.de/volltexte/2007/393/pdf/SellEllenDiss.pdf

Die Liste soll im Laufe der Zeit regelmäßig aktualisiert werden.

Biodiversitätsindikatoren: Erfassung und Bewertung der biologischen Vielfalt…

•Februar 13, 2012 • Schreibe einen Kommentar

Zur Bearbeitung meiner Master-Thesis habe ich mir zunächst die einschlägige Literatur vorgenommen, um so eine Übersicht über den aktuellen Stand der Forschung zubekommen. Bei meiner Recherche bin ich dabei über eine Vielzahl von Lösungsansätzen für ein fernerkundungsbasiertes Monitoring gestoßen. Nachdem ich mich mit diesen eingehend auseinandergesetzt habe, möchte ich nun eine –für mich- besonders interessante Arbeit vorstellen.

Die Geowissenschaftlerin Dr. Marion Sell beschäftigte sich in ihrer Dissertation mit der Frage, ob und wie ein wiederholbares Schutzgebietsmonitoring realisiert werden kann. Neben einer Implementierung und Bewertung vorhandener Klassifikationsstrategien beschäftigte sich diese Arbeit dabei insbesondere mit dem Potential zustandsbeschreibender Biodiversitätsindikatoren.

Hinsichtlich der Klassifikationsstrategie stand die objektbasierte Bildanalyse im Fokus der Arbeit. Nach LEUKERT (2005)  ist die objektbasierte Klassifikation als „eine Spezialisierung der wissensbasierten Verfahren [zu verstehen]. Diese verwendet anstelle von einzelnen Pixeln Segmente, die durch Segmentierung des Bildes erzeugt werden.  Das Wissen wird in Regelsätzen repräsentiert und die Klassifizierung der Segmente erfolgt anhand dieser Regelsätze“. Mit der Nutzung dieser Klassifikationsstrategie verfolgte SELL (2006)  das Ziel einer automatisierbaren und möglichst übertragbaren Auswertestrategie.

Weiterhin beschäftigt sich diese Arbeit mit der Entwicklung  standardisierter und aussagekräftiger Bewertungsparameter zum Monitoring von Schutzgebieten. Biodiversitätsindikatoren sollen hierbei Aussagen über den aktuellen Erhaltungszustand und die zeitliche Entwicklung von Biodiversität machen (HOFFMANN et al., 2005). Im Rahmen dieser Dissertation entwickelte SELL (2006) solche Indikatoren zum Monitoring großflächiger Schutzgebiete. Neben einer Beschreibung von Entwicklungs- und Erhaltungszuständen  berücksichtigen diese auch die Einflüsse und Auswirkungen anthropogener Aktivitäten.

Quellenverzeichnis:

Leukert, K. (2005): Übertragbarkeit der objektbasierten Analyse bei der Gewinnung von GIS-Daten aus Satellitenbildern mittlerer Auflösung. Stand: 11.02.2012.  http://ub.unibw-muenchen.de/dissertationen/ediss/leukert-kristin/inhalt.pdf

Hoffman et al. (2005): Irrfahrt Biodiversität, Marburg 2005

Sell, M. (2006): Der Einsatz höchstauflösender Satellitendaten zur Ableitung räumlicher Umweltdaten und -indikatoren für das Monitoring von Naturschutzflächen in Brandenburg. Stand: 21.12.2011. http://ubt.opus.hbz-nrw.de/volltexte/2007/393/pdf/SellEllenDiss.pdf

Thesen der Master Thesis und persönliche Ziele.

•November 1, 2011 • Schreibe einen Kommentar

Das primäre Ziel der Master Thesis besteht darin, Veränderungen der Landbedeckung in einem Natura2000-Gebiet zu erkennen, zu quantifizieren und zu analysieren, wie es die Monitoring- und Berichtspflichten der FFH-Richtlinie explizit fordern. Entsprechend soll an einem konkreten Beispiel der Frage nachgegangen werden, welche Wirkungen von den Schutzmaßnahmen und Bewirtschaftungsplänen auf die Schutzinhalte der FFH-Richtlinie ausgehen. Womit auch bereits die zentrale These dieser Ausarbeitung geschaffen wird, dass im Sinne der Nachhaltigkeit „Schutzmaßnahmen und Bewirtschaftungspläne einen nachweislich positiven Einfluss auf den Erhalt und die Förderung der potentiell natürlichen Vegetation im Untersuchungsgebiet haben“. Obwohl diese Fragestellung den Schwerpunkt der Arbeit bildet, liegt der Kerngedanke doch woanders. Dieser liegt in der Motivation zur Implementierung einer geeigneten und praxisnahen Methode zur Erschließung und Nutzbarmachung von Informationen aus Fernerkundungsdaten, welche ein flexibles, schnelles und kostengünstiges Monitoring großer Schutzgebiete ermöglichen soll. Entsprechend liegt der Kerngedanke in einer effizienten Analyse um mit möglichst wenig Aufwand die gewünschten Resultate zu erreichen.

Ausgehend von persönlichen Erfahrungen sowie den eigenen Bestrebungen nach einer effizienten Methodik ist das Angebot möglicher Verfahren hier sehr reichhaltig, da die genutzten Strategien, je nach Motivation und Know-How, teils stark variieren. So existieren –neben den terrestrischen Erhebungsmethoden- eine Vielzahl unterschiedlichster Methoden und Technologien zum Schutzgebietsmonitoring auf Grundlage von Fernerkundungsdaten. Je nach Anspruch kultivieren Gutachter bzw. Planer folglich eigene und damit unterschiedliche Monitoringverfahren. Doch wie sinnvoll ist es, für gleiche Probleme verschiedene Verfahrensstrategien zu entwickeln? Die Erfahrung zeigt, dass genau diese Vielfalt an Strategien und technischen Lösungen einen negativen Einfluss auf das fernerkundungsbasierte Gebietsmonitoring haben kann. Typische Gründe sind hierbei z.B.:

-qualitative Unterschiede im großmaßstäblichen multitemporalen Monitoring,

-hoher Aufwand zur Entwicklung verschiedener Verfahren bei gleichen Problemen,

-verschenkte Synergieeffekte,

-folglich kaum vergleichbare und reproduzierbare Verfahren zur Informationsextraktionen, usw.

Aus diesem Grund soll die Master Thesis, durch die Entwicklung eines praxisnahen Workflow, eine adaptierbare Methode zur Auswertung hyperspektraler Fernerkundungsdaten aufzeigen. Der empirische Teil dieser Arbeit umfasst somit die Entwicklung einer möglichst simplen, systematischen und reproduzierbaren Methode zur Auswertung von Fernerkundungsdaten. Auf Basis dieser grundsätzlichen Erwägungen soll jedoch keinesfalls „das Rad neu erfunden werden“, wie etwa durch einen umständlichen Vergleich bereits praktizierter oder auch diskutierter Verfahren. Vielmehr gilt es bewährte Methoden zu reflektieren und die bereits gesammelten Erfahrungen zu nutzen, um so zu verhindern, dass „das Rad jedesmal mit großem Aufwand neu erfunden werden muss“.

Der Kerngedanke liegt somit nicht in der Erfindung eines neuen komplizierten Systems, sondern ist darin begründet, bereits bestehende Strategien für diesen Anwendungskontext aufzugreifen und gezielt anzuwenden. Die Entwicklung eines einfachen, reproduzierbaren und praxisnahen Workflows ist jedoch keineswegs trivial, da unterschiedlichste Verfahren sowohl zweckmäßig als auch nachvollziehbar zusammengeführt werden müssen. Entsprechend bedarf der Realisierung einer solchen Vision technische wie auch inhaltliche Anforderungen. Damit ergeben sich schnell eine Reihe von Fragen und Erfordernisse, deren Abgrenzung im Rahmen der Arbeit vorgenommen werden soll.

Im ersten Schritt erfolgt jedoch nun die Literaturrecherche, welche mir einen fundierten Überblick über aktuelle Entwicklungen in Theorie und Praxis verschaffen soll. Meiner Erfahrung nach dürfte dies auf dem komplexen Gebiet der Fernerkundung sehr aufwendig aber auch interessant werden. Besonders spannende und hilfreiche Informationsquellen werde ich auch später hier im Blog veröffentlichen.