Loading AI tools
Statistik räumlicher Daten Aus Wikipedia, der freien Enzyklopädie
Die Geostatistik oder räumliche Statistik ist ein Teilgebiet der Statistik, welches unter Einbezug der Wahrscheinlichkeitsrechnung ortsabhängige Daten (Geodaten) auswertet und modelliert.[1] Die Hauptanwendung der Geostatistik liegt somit in der stochastischen Validierung von Messdaten und der Schätzung (Approximation) über diese hinaus.
Die grundlegende Annahme der Geostatistik ist, dass die untersuchten Variablenwerte von der räumliche Lage der Datenpunkte stochastisch abhängen.[2] Im einfachsten Fall bedeutet das, dass benachbarte Daten sich ähneln und somit Punkte über die Distanz zueinander korrelieren. So können z. B. Relief- oder Temperaturkarten erstellt werden, ohne dass jeder Punkt vermessen werden muss, da in der Regel zwischen Temperaturen oder Höhenlagen ein Mittel auftritt.
Aufgrund dieser Ortsabhängigkeit der Daten lassen sich übliche statistische Verfahren nicht durchführen, da diese eine stochastische Unabhängigkeit voraussetzen.[2]
Die Ursprünge der Geostatistik gehen auf die Lagerstättenkunde in den 1950er Jahren zurück, als Danie G. Krige die ersten Konzepte entwickelte, um mit statistischen Verfahren und Schätzmethoden die Anzahl aufwendiger Probebohrungen zu minimieren die nötig sind um abbauwürdige Gebiet zu kartieren. Als Begründer der Geostatistik selbst gilt Georges Matheron, der 1971 die als "Theorie der regionalisierten Variablen" bekannten mathematisch-theoretischen Grundlagen für die Disziplin veröffentlichte.[1]
Geostatistische Methoden basieren auf statistischen Modellen, die räumliche Autokorrelation (statistische Beziehungen zwischen den gemessenen Punkten) enthalten. Diese Methoden können auf Grundlage der angenommenen Werte weitere vorhergesagte Werten erzeugen und die Genauigkeit dieser Vorhersagen messen.[3]
Eine Reihe einfacherer Interpolationsverfahren/-algorithmen, wie beispielsweise die inverse Distanzwichtung, waren schon vor der Entwicklung der Geostatistik bekannt,[4] allerdings gehen die Methoden der Geostatistik über das Interpolationsproblem hinaus, indem sie das untersuchte Phänomen an unbekannten Orten als eine Reihe korrelierter Zufallsvariablen betrachten.
Sei der Wert der zu untersuchenden Variablen an einer bestimmten Stelle . Dieser Wert ist unbekannt (z. B. Temperatur, Niederschlag, geologische Fazies usw.). Obwohl am Ort ein Wert vorhanden ist, der gemessen werden könnte, betrachtet die Geostatistik diesen Wert als zufällig, da er nicht oder noch nicht gemessen wurde. Die Zufälligkeit von ist jedoch nicht vollständig, sondern definiert durch eine kumulative Verteilungsfunktion (CDF), die von bestimmten Informationen abhängt, die über den Wert bekannt sind:
Wenn der Wert von Z an Orten in der Nähe von x bekannt ist, kann man typischerweise die CDF von durch diese Nachbarschaft einschränken: Wenn eine hohe räumliche Kontinuität angenommen wird, muss an der Stelle ähnliche Werte besitzen wie an benachbarten Datenpunkten. Umgekehrt kann ohne räumliche Kontinuität jeden Wert annehmen.
Indem man ein einzelnes räumliches Modell auf einen gesamten Bereich anwendet, geht man davon aus, dass ein stationärer Prozess ist. Das bedeutet, dass die gleichen statistischen Eigenschaften auf die gesamte Domäne anwendbar sind. Mehrere geostatistische Methoden bieten Möglichkeiten, diese Stationaritätsannahme zu lockern.
In diesem Rahmen lassen sich zwei Modellierungsziele unterscheiden:
Die klassische geostatistische Analyse wird in 3 Bereiche unterteilt, die Datenbeschreibung, Interpretation und Schätzung.[1]
Bei der Datenbeschreibung werden mithilfe von deskriptiver Statistik und Variogrammen erste Erkenntnisse der zeitlichen, räumlichen und multivariaten Struktur ermittelt.
Bei der deskriptiven Statistik werden die wesentlichen Kennwerten des Datensatzes, wie die Extrem- und Mittelwerte, der Variationskoeffizient oder die Streuung und Verteilung der Daten, beschrieben. Als beschreibende Funktionen können Histogramme oder kumulative Verteilungsfunktionen aufgestellt werden.
Die Variogramme werden als empirische Semivariogramme umgesetzt, aus welchen ermittelt werden kann bis zu welcher maximalen Entfernung (Reichweite ) und in welchem Maße Messwerte von benachbarten oder weiter entfernten Messwerten abhängen. Für alle Entfernungen (als x-Werte), die jeweils zwei Messorte des Datensatzes zueinander haben, werden die Differenzen der jeweiligen Messwerte (als y-Werte) aufgetragen: Die wachsende Unähnlichkeit mit wachsender Entfernung spiegelt sich in der Zunahme der y-Werte mit steigenden x-Werten bis zu einem bestimmten Grenzwert wider. Diese Abhängigkeit wird mit einer Modellfunktion, zum Beispiel einer quadratischen Funktion, ausgedrückt.
Die Modellfunktion ist eine angelegte Funktion die den Verlauf der Datenpunkte im Variogram bestmöglich nachzeichnen soll. Dabei ist der Verlauf des Variogrammes für die aufgestellte Funktion auf kleine Distanzen (innerhalb der Reichweite) relevanter als auf große. Hierbei finden hauptsächlich 4 klassische Modellfunktionen Anwendung:
Die Modellfunktion, die aus der Analyse der Messwerte gewonnen wurde, ist die Grundlage für die bei der Schätzung erfolgende Interpolation einer Verteilung von Schätzwerten im Raum.
Der Nuggeteffekt ist ein durch die Goldexploration geprägter Begriff, der eine bereits in sehr geringem Abstand bestehende hohe unregelmäßige Verteilung; eine hohe Varianz zwischen eng benachbarten Stichprobenwerten (Nuggetvarianz) bezeichnet. Er wird normalerweise als isotrope Komponente angesehen, obwohl Gegenbeispiele in der Praxis ebenfalls bekannt sind.[7]
Die Interpretation wird unter der Berücksichtigung von lokalen Zusatzinformationen und früheren oder ähnlichen Datenerfassung durchgeführt und dient als Schritt, in dem der Datensatz auf den Untersuchungsgegenstand angewandt wird.
Sie dient zu großen Teilen der geowissenschaftlichen Plausibilitätsprüfung und der Wahl einer stimmigen Schätzmethode sowie aussagekräftigen Darstellung der Ergebnisse.
Bei der Schätzung werden aus den erhobenen Stichprobenwerten und gewonnenen Informationen Werte approximiert, die sowohl innerhalb (Interpolation) als auch außerhalb (Extrapolation) des Untersuchungsgebietes liegen können.
Der Schätzwert für eine physikalische Größe (wie die Oberflächentemperatur) an einem Schätzort ist aufgrund der räumlichen Korrelation stärker von den Messwerten benachbarter als von solchen entfernter Messorte abhängig. Für die Abschätzung sind diese benachbarten Messwerte daher stärker zu berücksichtigen. Dabei unterscheidet man zwei Methoden, die nichtstatistischen und die statistischen Interpolationsverfahren, wobei letztere auf einem Geostatistischen Modell (häufig einem speziellen Zufallsfeld) beruhen.
Als Interpolationsmethode hat sich das Kriging-Verfahren gegenüber anderen Methoden wie der Linearen Interpolation, Polygonmethode und Inversen Distanzwichtung etabliert. Beim Kriging erhalten die Messwerte je nach Nähe zum gesuchten Schätzwert in Abhängigkeit vom modellierten Semivariogramm unterschiedliche Gewichtungsfaktoren, mit denen sie in die Berechnung des Schätzwerts eingehen (Gegenbeispiel: arithmetischer Mittelwert als Schätzer: alle Messwerte erhalten ohne Unterschied dasselbe Gewicht).
Voraussetzung für die Interpolation ist, dass im Untersuchungsgebiet die Messwertverteilung homogen ist. In der Regel wird dies in der Praxis auf die stochastische Stationarität 2. Ordnung abgeschwächt, also dass der Erwartungswert einer Zufallsfunktion unabhängig von ihrem Ort und nur eine Funktion des Abstandsvektors ist.[8]
Die Geostatistik ist ein elementarer Bestandteil der Lagerstättenkunde und des Bergbaus, da beispielsweise über Volumen-/Blockschätzung die Gesamtvorkommen einer Lagerstätte oder über Kokriging die Abbauwürdigkeit von Erzen (Reinheit) bewertet werden kann. Über Flächenschätzungen können digitale Geländemodelle und Karten erstellt, die Ausbreitung von Stoffkonzentrationen in Böden und im Grundwasser, sowie Nährstoffverhältnisse, Schwermetall- oder Schadstoffkonzentrationen abgeschätzt oder die räumliche Verteilung von Niederschlägen, Lufttemperaturen und Windfeldern modelliert werden. Daher findet die Geostatistik untergeordnet auch in anderen Geowissenschaften wie Klimatologie, Hydrologie, Bodenkunde, Hydrogeologie sowie in der Geographie[1] und ebenso in der Archäologie[9] anwendung.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.