Lexikon der Geowissenschaften: Fernerkundung
Fernerkundung, remote sensing (engl.), télédétection (franz.), umfaßt den Komplex der berührungsfreien quantitativen und qualitativen Aufzeichnung, Speicherung, thematischen Verarbeitung und Interpretation bzw. Klassifikation von objektbeschreibender elektromagnetischer Strahlung mittels geeigneter abbildender oder nichtabbildender Sensoren, analoger oder digitaler Datenträger und analoger oder digitaler Bildanalyse. Die Aufzeichnung von Gravitationsfeldern, magnetischen oder elektrischen Feldern sowie von akustischen Wellen (Sonar) wird i.d.R. nicht dem Terminus Fernerkundung zugeordnet.
Objektbeschreibende elektromagnetische Strahlung setzt sich in Funktion der Wellenlänge aus spezifischen Anteilen reflektierter, gestreuter und/oder emittierter Strahlung (Reflexion, Streuung, Emission) zusammen. Interaktionsmedien sind die Atmosphäre und die Erdoberfläche im Sinne aller natürlichen und künstlichen Oberflächen. Daher wird ein zentraler Bereich der Fernerkundung auch als Erdbeobachtung (earth observation) bezeichnet.
Die Parameter der Fernerkundung werden durch den Verlauf des Strahlungspfades von der Strahlungsquelle bis zur Strahlungsaufzeichnung festgelegt.
Elektromagnetische Strahlung wird von Energiequellen ausgesendet, breitet sich in der Atmosphäre aus, tritt in Interaktion mit den atmosphärischen Teilchen und mit der Erdoberfläche, wird von Sensoren innerhalb oder außerhalb der Atmosphäre aufgezeichnet und in analoger und/oder digitaler Form gespeichert. Mittels eines geeigneten Systems zur Bilddatenanalyse und Bilddatenausgabe erfolgt eine Bearbeitung, Klassifikation und Visualisierung der Bilddaten.
Energiequellen wie Sonne und Erde emittieren elektomagnetische Strahlung in wellenlängenabhängigen Intensitäten (Plancksches Strahlungsgesetz, Stefan-Boltzmann-Gesetz, Wiensches Verschiebungsgesetz). Passive Fernerkundungsverfahren zeichnen elektromagnetische Strahlung auf, die von der Erdoberfläche reflektiert und/oder emittiert wird. Aktive Fernerkundungsverfahren wie Radar oder Laser (Lidar) senden kohärente Strahlungspulse aus und registrieren die Laufzeit bzw. die Amplituden- und Phasendifferenz der von der Erdoberfläche rückgestreuten/reflektierten Signale. Radiometrische Korrekturen berücksichtigen die Strahlungscharakteristika der jeweiligen Energiequellen.
Die Atmosphäre vermindert die Intensität der Sonnenstrahlung durch Streuung und Absorption in Funktion der Streupartikelgröße und der Wellenlänge (atmosphärische Extinktion). Große Transparenz besteht in sog. atmosphärischen Fenstern im sichtbaren Bereich des Spektrums, im nahen, im mittleren und im thermalen Infrarot sowie in hohem Maße im Mikrowellenbereich (elektromagnetisches Spektrum). Atmosphärische Korrekturen der Bilddaten sollen störende Einflüsse zufolge Extinktion minimieren.
Bei Interaktion der Strahlung mit der Erdoberfläche werden je nach Art der Landbedeckung (landcover) gewisse Strahlungsanteile reflektiert, andere absorbiert. Die Variation der Reflexion in Funktion der Wellenlänge wird objektspezifische Spektralsignatur genannt und ist Kenngröße für die spektrale (thematische) Differenzierbarkeit von Objekttypen.
Sensoren zeichnen spektrale Strahldichtewerte in Funktion von Zeit, Ort und Oberflächenart auf. Geeignete Methoden der Datenerfassung und Datenspeicherung ermöglichen die topographische und thematische Charakterisierung des erfaßten Geländeausschnittes. Sensoren besitzen begrenzte radiometrische Auflösung, spektrale Auflösung und geometrische Auflösung. Meßbildkameras nehmen photographische (analoge) Bilder mit spektraler Auflösung im Wellenlängenbereich des sichtbaren Lichtes und im nahen Infrarot auf, während optomechanische Scanner und optoelektronische Scanner sowie abbildende Spektrometer und Radiometer mit spektraler Auflösung im Sichtbaren, im nahen, mittleren und thermischen Infrarot sowie im Mikrowellenbereich und Radarantennen mit spektraler Auflösung im Mikrowellenbereich der Gewinnung von digitalen Bildern in Form von zeilen- und spaltenweise angeordneten, grauwertcodierten Bildelementen dienen. Im allgemeinen besitzen photographische Systeme hohe geometrische und geringe spektrale Auflösung, während nichtphotographische Systeme hohe spektrale aber geringere geometrische Auflösung haben. Trägerplattformen für die jeweiligen Sensoren können Stative, Flugzeuge oder Satelliten sein (Luftbild, Satellitenbild).
Das erste dokumentierte photographische Luftbild aus dem Jahr 1858 nahm Gaspard Félix Tournachon (genannt Nadar, 1820-1910) in der Nähe von Paris von einem Ballon aus auf. Das erste Luftbild aus dem Flugzeug aus dem Jahr 1909 stammt von Wilbur Wright (1867-1912), das erste photographische Satellitenbild von der amerikanischen Explorer-6-Mission im Jahre 1959. Das erste digitale Satellitenbild der Erderkundung aus dem Jahr 1972 stammt von dem Scanner an Bord des amerikanischen ERTS-1-Satelliten (Earth Resources Technology Satellite, ab 1975 Landsat), nachdem bereits 1960 der für meteorologische Erkundungen genutzte amerikanische Satellit TIROS-1 (Television Infrared Observation Satellite) erste nicht photographische Satellitenbilder aufgenommen hatte.
Systeme zur Verarbeitung und Analyse der Bilddaten beruhen auf der jeweils spezifischen Konstellation Experte-Hardware-Software. Bei visueller Interpretation analoger photographischer Bilder dominiert das geschulte Wahrnehmungsvermögen des Experten gegenüber der Gerätekonfiguration, die durch analoge optische Bildauswertegeräte wie Spiegelstereoskope oder Interpretoskope bestimmt wird. Hauptaugenmerk wird in diesem Fall auf die visuelle stereoskopische Interpretation (Stereoskopie) von Bildpaaren gelegt. Bei der digitalen multispektralen Klassifikation und digitalen texturellen Klassifikation von Bildern dominiert der Hardware- und Software-Anteil, ohne daß die Intervention des Experten an Bedeutung verliert. Typische Hardware-Software-Konfigurationen sind graphische Computer-Arbeitsplätze auf Basis von Personal Computer oder Workstation mit großer Speicherkapazität, hoher Datenverarbeitungsrate, hochauflösender Graphik sowie ausreichender Input- und Output-Peripherie für Einlesen und Drucken bzw. Plotten von Bilddaten.
Wichtigste Ziele der Bildanalyse in der Fernerkundung sind Bildverbesserung, geometrische Rektifizierung der perspektiv und projektiv verzerrten Bilder (Geocodierung), Klassifizierung nach multispektralen, textur- und musterabhängigen Parametern, Einbeziehung von Expertenwissen, multitemporale Vergleiche sowie Integration in Geoinformationssysteme (GIS).
Produkte der Fernerkundung der Erde sind (geocodierte) originäre oder klassifizierte Bilddaten in digitaler und/oder analoger Form (Orthobild), meist als kombinierte Bild-Strich-Karten (Bildkarte) mit Koordinatenbezug, des weiteren flächenbezogene Statistiken in Tabellen- oder Diagrammform sowie objektspezifische spektrale Signaturenkataloge.
Aktuelle Trends in der Fernerkundung gehen einerseits in Richtung Operationalisierung geometrisch hochauflösender satellitengestützter Sensorsysteme (optoelektronische Scanner) und hyperspektraler Scanner (abbildende Spektrometer), andererseits in Richtung Integration nichtabbildender Daten der Fernerkundung, insbesondere zur Generierung digitaler Geländemodelle der Erdoberfläche, wie z.B. Radar-Interferometrie und flugzeuggestütztes Laser-Scanning, und schließlich auch in Richtung verstärkter Nutzung wissensbasierter Bildanalyseverfahren. [EC]
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.