1 Einleitung

Die europäischen Alpen sind ein extrem wichtiger geografischer Raum, wenn es um die Wasserversorgung des Gebirgslands und die der Vorländer geht (Viviroli et al. 2011). Wasserversorgung kann in diesem Zusammenhang sehr umfassend verstanden werden. In erster Linie steigern die Alpen aufgrund ihres sehr günstigen Abflusskoeffizienten das generelle Wasserdargebot in den Gerinnen (Mankin et al. 2015; Wada et al. 2011; Viviroli et al. 2007). Wasser aus alpinen Einzugsgebieten wird für die allgemeine Wasserversorgung, als Brauchwasser, für die Bewässerung, als Energieträger, als Freizeitfaktor in Skigebieten etc. intensiv genutzt. Eine Veränderung des Wasserdargebots im Raum oder über die Zeit hätte damit eklatante und weitreichende Folgen. Im Rahmen des globalen Klimawandels sind aber gerade die Gebirgsregionen vulnerabel (Pomeroy et al. 2015), das Klimawandelsignal ist hier deutlich stärker als im angrenzenden Flachland (Weber et al. 2016). Aus diesem Umstand lassen sich zukünftig deutliche Veränderungen im alpinen Wasserkreislauf ableiten. Die Qualität von Zukunftsprognosen, die die Ausprägung dieser Veränderung abzubilden vermögen, und die Güte der Beschreibung des momentanen Wasserkreislaufs hängen dabei stark von den verfügbaren Beobachtungsdaten ab. Klemes (1990) beschrieb den Gebirgsraum noch als eines der schwärzesten Löcher im Bereich der Hydrologie und beschrieb die Schwierigkeiten bei der Datenerfassung mit dem Bild, dass ein Team von olympischen Skifahrern vonnöten wäre, um valide Daten in dem vorliegenden rauen Terrain und unter den gegebenen klimatischen Bedingungen zu erheben. Seit dieser Zeit haben sich Modelle, seien es Landoberflächen- oder Klimamodelle stark entwickelt und auch die Fernerkundung ist zu einem wichtigen Datenlieferanten geworden (Bernhardt 2008; Bernhardt and Schulz 2010; Gao et al. 2012, 2017; Harer et al. 2013; Gutman et al. 2016). Allerdings benötigen Modelle sowie Fernerkundungsprodukte zumindest einige gut instrumentierte Gebiete, in denen Daten zur Modellentwicklung, zur Validierung und zur Kalibrierung erhoben werden können (Pomeroy et al. 2015). Das International Network for Alpine Research Catchment Hydrology (INARCH) (Bernhardt et al. 2015) hat es sich zur Aufgabe gemacht, gut instrumentierte alpine Einzugsgebiete zu vernetzen und die erhobenen Daten der allgemeinen Wissenschaftsgemeinschaft zur Verfügung zu stellen. In diesem Artikel werden Daten aus einem INARCH-Einzugsgebiet, dem Research Catchment Zugspitze (RCZ) (Bernhardt et al. 2014), genutzt, um zum einen aufzuzeigen, inwieweit komplexere prozessbasierte Schneedeckenmodelle auf eine Veränderung von Gebietscharakteristiken reagieren, inwieweit Daten aus hoch gelegenen Einzugsgebieten wichtig sind, um zu einem adäquaten Setup von regionalen Klimamodellen kommen zu können und schlussendlich darzustellen, wie Fernerkundungsprodukte aufgrund von lokalen Messungen verbessert werden können.

Fallbeispiel I geht der Frage nach, inwieweit Klimawandelprognosen auf benachbarte, aber topografisch unterschiedliche Einzugsgebiete übertragbar sind. Der Fokus liegt hierbei auf der Schneedeckenmodellierung. Im Experiment wird das prozessbasierte Landoberflächenmodell CRHM (Lopez-Moreno et al. 2016; Pomeroy et al. 2007) verwendet, um zu einer Beschreibung der Schneedeckenentwicklung im Gebiet zu gelangen. Das Versuchslayout sieht vor, dass das Testgebiet jeweils in 90 Grad-Schritten um die zentral gelegene meteorologische Station des Lawinenwarndienstes gedreht wird. Die Eingangsdaten bleiben dabei unverändert. Durch die neue Orientierung verändern sich die Einstrahlungsgeometrien im Gelände. Diese Veränderung wird im Modell berücksichtigt und zeigt Effekte v. a. in der Ablationsperiode. Im Falle eines kalibrierten Tag-Grad-Modells wäre dies nicht der Fall. Dieses würde bei konstanten Eingangsdaten ein unverändertes Verhalten zeigen. Das Fallbeispiel soll aufzeigen, dass komplexe prozessbasierte Modelle sich aufgrund ihrer Formulierung an neue Gebiete adaptieren. Dies ist v. a. bei der Frage eines Transfers von Modellen in nichtinstrumentierte Gebiete von Bedeutung.

Fallbeispiel II: Regionale Klimamodelle gewinnen als Datenlieferanten für Landoberflächenmodelle zunehmend an Gewicht (Gutmann et al. 2016). Das regionale Klimamodell WRF (Gutmann et al. 2012) nimmt dabei eine Ausnahmestellung ein, da es regelmäßig als Treiberdaten-Generator für Studien weltweit eingesetzt wird (Givati et al. 2012; Warrach-Sagi et al. 2013). WRF ist dabei eines der weitestverbreiteten Modelle, hat aber den Nachteil, dass es eine enorme Computerleistung benötigt, wenn es zu hochaufgelösten Produkten kommt (Gutmann et al. 2016). Dies führt zu der Tatsache, dass für die meisten Studien nur ein Standardsetup zum Einsatz kommt, d. h. die zahlreich vorhandenen Modellparameter nicht angepasst werden, da sich Sensitivitätsstudien aufgrund der Rechenzeit verbieten. Im vorgelegten Fallbeispiel wird das Intermediate Complex Atmospheric Model (ICAR) (Gutmann et al. 2016), das aus der gleichen Entwicklergruppe stammt wie WRF, verwendet, um aufzuzeigen, inwiefern Daten aus alpinen Einzugsgebieten nützlich sein können, um regionale Simulationen zu verbessern.

Fallbeispiel III: Fernerkundungsprodukte spielen in der Erforschung des alpinen Raums eine wichtige Rolle, da sie zuverlässig und kontinuierlich Daten über einen schwer zu erfassenden topografischen Raum liefern. Dabei werden die mehrkanaligen Informationen der Satellitenbilder oftmals in thematische Informationen überführt. Im alpinen Bereich wird z. B. sehr oft die schneebedeckte Fläche aus Satellitendaten extrahiert (Arsenault et al. 2014; Ault et al. 2006; Bitner et al. 2002). Essenziell ist dabei in den meisten Fällen der Normalized Differenced Snow Index (NDSI) (Dozier 1989). Dieser Ansatz erlaubt auf einfache Weise die Generierung von Schneedeckenkarten. Wird der NDSI-Ansatz auf ein Satellitenbild angewendet, erhält man statt Reflektanzen NDSI-Werte zwischen −1 und 1. Um zu einer Ableitung der Schneedecke zu kommen benötigt es zudem einen zu definierenden Grenzwert, der festlegt, ab welchem NDSI-Wert Schnee auf der Oberfläche anzunehmen ist. Dieser Grenzwert ist in der Literatur mit 0,4 definiert, was zu Unsicherheiten in den Schneedeckenprodukten führt, da der Grenzwert in der Realität räumlich und zeitlich variabel ist (Härer et al. 2016). Im Rahmen dieser Veröffentlichung wird gezeigt, inwieweit Forschungseinzugsgebiete geeignet sind, einen kalibrierten, intersubjektiven und zuverlässigen Grenzwert zu ermitteln.

2 Gebietsbeschreibung

Das Research Catchment Zugspitze (RCZ) (Abb. 1) wird durch den Quellaustritt der Partnach am Partnachursprung (1430 m ü. NN) definiert. Es befindet sich in den Nördlichen Kalkalpen und ist Teil des Zugspitzgebiets. Mit 2962 m ü. NN stellt die Zugspitze den höchsten Punkt des 11,4 km2 großen Einzugsgebiets (Abb. 1) dar. Bei einer Jahresdurchschnittstemperatur (1981–2010) von −4,5 °C fallen auf der Zugspitze im Mittel 2080 mm Niederschlag pro Jahr. Das EZG ist oberhalb von 2000 m ü. NN, bis auf Pionierpflanzen und alpine Rasengesellschaften, frei von Vegetation. Aufgrund der Karstformen und der glazialen Überprägung weist die Oberfläche des Zugspitzplatts eine große Heterogenität auf. Die besondere geologische Situation führt dazu, dass das EZG allein über den Partnachursprung entwässert wird und somit als natürlicher Lysimeter angesehen werden kann. Dies und die hervorragende Ausstattung des EZG mit insgesamt sechs automatischen Wetterstationen sowie die gute Zugänglichkeit machen es zu einem idealen „Freilandlabor“ für hydrologische Studien. Weitere Details zum Untersuchungsgebiet finden sich in Weber et al. (2016) und Rappl et al. (2010).

Abb. 1
figure 1

Das Research Catchment Zugspitze (RCZ). Eingetragen sind die DWD-Station an der Zugspitze (Zugspitze) und die Station des Lawinenwarndienstes (LWD), die im Wesentlichen die Daten für diese Publikation liefern

3 Methoden

Um die Lesbarkeit zu erleichtern, werden die Methoden der drei Fallbeispiele in drei separaten Unterkapiteln dargestellt.

3.1 Fallbeispiel I

Die Modellierung der Schneedeckenentwicklung im EZG erfolgt mit dem prozessbasierten Cold Regions Hydrological Model (CRHM) (Pomeroy et al. 2007). Aufgrund der Instrumentierung mit Strahlungssensoren im Einzugsgebiet wird es möglich, ein prozessbasiertes Schneedeckenmodell zu betreiben. Dieses nutzt neben der Lufttemperatur auch die kurzwellige und die langwellige Einstrahlung zur Beschreibung des Ablationsprozesses der Schneedecke (Marks et al. 1999).

$$Q_{m}+Q_{n}+Q_{H}+Q_{E}+Q_{G}+Q_{D}=\frac{dU}{dt}$$
(1)

Wobei Qm die verfügbare Energie für die Schneeschmelze darstellt, Qn die Nettostrahlung, QH den turbulenten Wärmefluss der fühlbaren Energie, QE den turbulenten Wärmefluss der latenten Energie, QG den Bodenwärmestrom und QD Wärmestrom aus externen Quellen, wie z. B. Regen.

Die Schneeschmelze wird dann über folgende Formulierung ermittelt:

$$M=\frac{Q_{m}}{\rho _{w}Bh_{f}}$$
(2)

Hier steht \(\rho _{w}\) für die Dichte des Wassers, B ist der Anteil von Eis an einer Einheit feuchten Schnees und \(h_{f}\) ist die latente Schmelzenergie von Eis. Die benötigten Strahlungsterme werden auf Basis der Messungen an die Geländegeometrie angepasst. Die Anpassung der direkten und der diffusen Strahlung an das Gelände erfolgt über Garnier and Ohmura (1970), die Anpassung der Schneealbedo über Gray and Landine (1987) die der langwelligen Strahlung nach Sicart et al. (2004), die Modifizierung der Strahlung beim Durchtritt durch Vegetation nach Pomeroy and Dion (1996) und die Nettostrahlung wird nach Granger and Gray (1990) adaptiert. Unter Berücksichtigung dieser Formelsätze soll im Rahmen der vorgestellten Studie untersucht werden, wie sich eine Veränderung der Exposition des Gebiets auf die Schneedeckenentwicklung auswirkt. Die klimatologischen Treiberwerte werden konstant gehalten, das RCZ aber in drei Schritten um jeweils 90° gedreht. Ein Temperaturindexmodell (Hock 2003), wie es in vielen operationellen Anwendungen verwendet wird, reagiert naturgemäß nicht auf eine solche Modifikation, da die Treiberdaten konstant bleiben. Das physikalisch basierte Modell hingegen modifiziert die Strahlungsterme nach den genannten Formelsätzen gemäß der Exposition und Hangneigung und erzeugt in der Folge expositionsabhängige Unterschiede.

In CRHM wird das EZG mithilfe von Hydrological Response Units (HRUs) (Flügel 1995; Zehe et al. 2014) räumlich diskretisiert. HRUs sind dabei Raumeinheiten, von denen angenommen wird, dass sie sich aufgrund ihrer naturräumlichen Ausstattung hydrologisch gleich bzw. vergleichbar verhalten. Die Einteilung der HRUs erfolgte auf Basis eines Clusteransatzes, der verschiedene Parameter wie Höhe, Neigung, Orientierung, Kurvatur und den Wind Shelter Index (Erickson et al. 2005) berücksichtigt. Die erzeugten Cluster wurden dann auf Basis von terrestrischen LIDAR-Aufnahmen evaluiert, indem überprüft wurde, ob die cluster-basierte HRU-Verteilung mit den allgemeinen Charakteristika der Schneeverteilung übereinstimmt. Nachdem dies gewährleistet werden konnte, wurden Modellläufe mithilfe von historischen Daten 1980–2015 und Prognoseläufe von 2070–2100 durchgeführt. Die historischen Daten wurden dabei genutzt, um eine Vergleichsgrundlage zu bilden und um die Modellgüte anhand von vorhandenen Schneehöhenmessungen zu überprüfen. Die Prognoseläufe wurden mithilfe von WETTREG-Datensätzen durchgeführt (Kreienkamp et al. 2013), die eine statistisch generierte zukünftige Meteorologie für die DWD-Station an der Zugspitze bereitstellen.

3.2 Fallbeispiel II

Für die regionale Klimamodellierung kommt das Modell ICAR des National Center for Atmospheric Research (NCAR) (Gutmann et al. 2016) zum Einsatz. ICAR ist ein simplifiziertes dreidimensionales Atmosphärenmodell. Im vorliegenden Fall werden Wärme- und Feuchteflüsse über ein, mit der linearen Mountainwave Theorie (Barstad und Gronas 2006; Smith 1979) modifiziertes, Zirkulationsfeld bestimmt, das aus dem zu skalierenden Modell ERA Interim (Dee et al. 2011) übernommen wird. Die Übernahme der Zirkulationsdynamik aus dem zu skalierenden grobskaligen Atmosphärenmodell stellt dabei den wesentlichen Unterschied zu komplexeren regionalen Klimamodellen (RCMs) wie WRF dar. Dieser Ansatz vermeidet, dass in ICAR direkt die Navier-Stokes-Gleichung für Bewegung gelöst werden muss, die traditionell den Kern von RCMs darstellt. Zur Konservierung der Masse und zum Ausgleich lokaler räumlicher Ungleichgewichte im Windfeld wird aber zusätzlich die vertikale Luftbewegung berechnet (Gutmann et al. 2016). Dies geschieht v. a., um bei konvergenten Windströmen numerische Probleme zu vermeiden. Die sonstigen Formulierungen in ICAR ähneln bzw. sind ident mit denen in komplexeren RCMs. Im Bereich der Mikrophysik stehen ein simplifiziertes Schema nach Smith und Barstad (2004), das etablierte Thompson-Schema (Thompson et al. 2008) sowie das komplexere Morrison-Schema (Morrison et al. 2005b) zur Verfügung. Diese drei Schemata werden in der vorgelegten Studie verwendet und die resultierenden Unterschiede im RCZ aufgezeigt. Weiterhin werden Parameter wie die Cloud Droplet Concentration im Morrison-Schema und die Schneefallgeschwindigkeit verändert. Die Cloud Droplet Concentration kann nach Morrison (2005a) Werte zwischen 100 bis 300 Wolkentröpfchen pro cm3 annehmen. In unseren Fall wurde der Standard von 300 Wolkentröpfchen pro cm3 einem modifizierten Wert von 150 gegenübergesetzt, der für maritim beeinflusste Regionen vorgesehen ist. Die Schneefallgeschwindigkeit wurde mit dem Standardwert (Morrison et al. 2005a) und einem modifizierten Parametersatz nach Lin et al. (1983) berechnet. Als zu skalierendes Modell nutzen wir ERA-Interim für den Zeitraum 01.09.2012–01.05.2013. Dabei wird auf den Cycle 31r2 des ECMWF’s Integrated Forecast Systems (IFS) für das ERA-Interim-Produkt zurückgegriffen (Dee et al. 2011). ERA-Interim verfügt dabei über 60 vertikale Modellschichten, wobei die oberste Domain durch das 0,1-hpa-Druckniveau definiert ist. Die räumliche Darstellung erfolgt über ein reduziertes Gauß’sches Grid (N128) und erreicht eine nahezu uniforme Auflösung von 79 km. Über ICAR wird diese Auflösung für den weiteren Bereich um das RCZ auf 1 km skaliert.

Eine detaillierte Übersicht aller Modellroutinen und der genutzten Parameter findet sich in Gutmann et al. (2016).

3.3 Fallbeispiel III

Für die Kalibrierung der NDSI-basierten Schneedeckenkarten wurde auf die an der BOKU am Institut für Hydrologie und Wasserwirtschaft (HyWa) entwickelte Software PRACTISE (Harer et al. 2013; Härer et al. 2016) zurückgegriffen. PRACTISE wird verwendet, um zweidimensionale Fotografien in das Gelände projizieren zu können (Abb. 2). Die projizierten Daten werden in einem zweiten Schritt klassifiziert, mit dem Ziel eine hochauflösende Schneedeckenkarte zu generieren (Abb. 2). Die der Projektion zugrunde liegende Technik geht auf einen Ansatz aus der Computeranimation nach Watt und Watt (1992) zurück.

Abb. 2
figure 2

Schematische Darstellung der Funktionsweise von PRACTISE (a) und eine Darstellung der Ergebnisfelder (bc)

Für die Projektion der Fotografie müssen der Kamerastandort und 13 Kameraparameter bekannt, sowie der Bildmittelpunkt geografisch verortet werden. Da die benötigten Ortsangaben und Kameraparameter in der Realität häufig nicht exakt bestimmt werden können bzw. von den Herstellerangaben abweichen und auch schon minimale Abweichungen zu deutlichen Fehlern im Endprodukt führen können, werden die Parameter über einen dynamical dimension search (DDS)-Algorithmus (Tolson and Shoemaker 2007) optimiert. Wenn der optimale Parametersatz gefunden wurde, wird das Sichtfeld der Kamera nach einem Ansatz von Wang et al. (2000) berechnet. Die Projektion findet dann nach dem Ansatz von Watt und Watt (1992) statt und das projizierte Bild wird im Folgenden mit einer Methodik nach Salvatori et al. (2011) klassifiziert. Als Endprodukt erhält man ein Bild, das entweder der Auflösung des im Rahmen der Prozessierung verwendeten DGMs oder aber der Auflösung der Kamera entspricht. Dies hängt davon ab, welcher der beiden Faktoren der limitierende ist.

Im Satellitenbild wird aus den infraroten Kanälen der Normalised Difference Snow Index (NDSI) berechnet. Die Kalibrierung des NDSI-Grenzwertes geschieht über eine schrittweise Modifikation des Grenzwertes zwischen −1 und 1. Schlussendlich wird der Grenzwert selektiert, der die größte Redundanz zwischen der Schneedeckenkarte aus dem Satellitenbild und der lokal abgeleiteten Schneedeckenkarte aus PRACTISE erzeugt. Das generelle Ablaufschema in PRACRTISE ist in Abb. 3 dargestellt.

Abb. 3
figure 3

Ablaufschema der verschiedenen Projektions- und Klassifikationsphasen in PRACTISE

4 Ergebnisse und Diskussion

4.1 Fallbeispiel I

In einem ersten Schritt wurde die Modelgüte des Schneedeckenmoduls an zwei Standorten im Gebiet, für den Zeitraum 1998–2016 überprüft. Die Schneehöhenmessungen und die Modellergebnisse zeigen hier eine sehr gute Übereinstimmung. Über die Drehung des Gebietes um jeweils 90 Grad wird nun der hypothetische Einfluss einer anderen Topografie auf das Ergebnis untersucht. Es werden somit 3 synthetische Einzugsgebiete erzeugt (Abb. 4).

Abb. 4
figure 4

Übereinstimmung zwischen modellierter und gemessener Schneehöhe an den Stationen des Deutschen Wetterdienstes und des Bayerischen Lawinenwarndienstes (Abb. 1)

Nachdem die Modellgüte zumindest für diesen Modellversuch als ausreichend zu bewerten ist, wird nun untersucht, inwieweit sich die Drehung des Gebietes auf die Entwicklung des Schneewasseräquivalentes (SWE) im Gebiet und auf die Schneeschmelze im Gebiet ausprägt. Weiterhin wird untersucht, ob die Orientierung einen Einfluss auf die Reaktion des Gebietes auf das Klimawandelsignal hat. Für diese Untersuchung werden WETTREG-Daten mit einem Temperaturtrend von 4 K belegt. Im Generellen ist zu sagen, dass die WETTREG-Szenarien, wenn man die Zeiträume 1961–2010 und 2050–2099 zugrunde legt, eine deutliche Verminderung des Niederschlags vorhersagen (−32 bis −38 %, je nach Realisation). Der sommerliche Rückgang im Niederschlag von −20 % in den Alpen korrespondiert mit dem mittleren sommerlichen Rückgang des Niederschlags für ganz Deutschland (Spekat et al. 2007) und entspricht in der Tendenz den bekannten ECHAM-5-Regionalisierungen (Kling et al. 2012 und Smiatek et al. 2009). Allerdings zeigen im Rahmen von WETTREG auch die Winter in den Alpen einen drastischen Niederschlagsrückgang von 15 %. Dies und die gestiegenen Temperaturen erklären den starken Rückgang im winterlichen SWE an der Zugspitze (vgl. Abb. 3).

Vergleicht man die historischen und die zukünftigen maximalen SWE an der Zugspitze (Tab. 1), so wird deutlich, dass die Orientierung des Gebietes wenig Einfluss auf die Modellergebnisse hat. Dies kann dadurch erklärt werden, dass während des Schneedeckenaufbaus im Beobachtungsgebiet die Strahlung eine untergeordnete Rolle im Rahmen der Schneedeckendynamik spielt. Diese Aussage gilt in ihrer Tendenz nur für die diskutierten Höhenlagen und ist in Tallagen mit häufigen Schmelzereignissen, auch in der Akkumulationsperiode, so nicht haltbar. Für das RCZ ist das Bild jedoch eindeutig. Im Rahmen von Langfristprognosen und für die Berechnung des maximalen SWE hat die Orientierung des Gebiets nahezu keine Auswirkung auf das Ergebnis (Tab. 1).

Tab. 1 Modellierte und gemessene maximale SWE an der Zugspitze

Weiterhin überwiegt der Trend aus den Klimadaten in seinem Effekt den erzielten Effekt aus der Drehung deutlich.

Anders stellt sich die Situation dar, wenn die Schneeschmelze im Jahresgang betrachtet wird (Abb. 5), hier lassen sich durchaus Unterschiede feststellen. So zeigt sich das Maximum in der Schneeschmelze in Abhängigkeit von der Orientierung um bis zu einen Monat verschoben. Dies lässt sich darauf zurückführen, dass durch die Drehung die Exposition der vorhandenen HRUs zur Sonne verändert wird. Wird diese in Summe größer, wird auch die empfangene Energiemenge und damit die Schmelze nach Gl. 2 ebenfalls höher. Dies ist ein relevanter Aspekt, wenn die Schneedecke mit kalibrierten Modellen aus Nachbareinzugsgebieten oder entfernteren Einzugsgebieten betrieben werden sollen, die jedoch die veränderten Geländeeigenschaften bei der Modellierung nicht berücksichtigen. Hier entstehen in der Folge schnell Fehleinschätzungen in Bezug auf den Zeitpunkt der maximalen Schmelze, die wie im gezeigten Beispiel in der Größenordnung von einem Monat liegen können. Es empfiehlt sich hier bei der Prognose oder im Management, Modelle zu selektieren, die die Schmelze nicht nur über die Temperatur approximieren. Diese interpolieren die Temperatur meist nur höhenabhängig und wären daher für die gezeigten Realisationen zum selben Ergebnis gekommen, da sich am Zusammenhang zwischen Temperatur und Höhe in keinem Beispiel etwas verändert.

Abb. 5
figure 5

Historische und zukünftige Verteilung der monatlichen Schmelzraten in Abhängigkeit von der Orientierung des Gebiets

Modelle hingegen, die die Schneeschmelze über die Energiebilanz berechnen, reagieren auf Veränderungen im Terrain, insofern adäquate Formelsätze genutzt werden, und sind daher für eine Modellierung, die zumindest ein Mindestmaß an einer lokalen Ausprägung der Schneedecke interessiert sind, besser geeignet. Interessant ist auch, dass sich der Unterschied in den Modellergebnissen für den Zeitraum 2070–2100 nivelliert. Dies lässt sich aber anhand der WETTREG-Daten erklären, die für die Zukunftsszenarios ab Mai in allen Orientierungen ein Übermaß an Schmelzenergie bereitstellen und somit die Geländeeigenschaften nahezu belanglos werden. Auch dies ist ein interessantes Ergebnis, da es zumindest darauf hindeutet, dass Gebiete, die bisher aufgrund ihrer Sonderlage ein besonders stabiles Schneeregime aufweisen, diesen Vorzug in Zukunft verlieren könnten, da das vorhandene Energiedargebot die schützenden Wirkungen der Sonderlage mehr als aufbraucht.

4.2 Fallbeispiel II

In der Fallstudie II werden Unterschiede in der prognostizierten Niederschlagsverteilung mit dem Modell ICAR und 3 unterschiedlichen Ansätzen zur Darstellung der Mikropyhsik im Bereich der Wolkendynamik untersucht. Die Ergebnisse sind in den Abb. 67 und 8 für die Modelldomain dargestellt. Das sehr stark vereinfachte Schema nach Smith und Barstad (2004) erzeugt ein Niederschlagsfeld mit sehr kleinen räumlichen Gradienten. Die Werte spannen sich hier zwischen 301 mm in den Tallagen und 972 mm in den Gipfellagen auf (Abb. 6). Nimmt man die Stationen in Garmisch-Partenkirchen (627 mm) und Zugspitze (1173 mm) als Referenz, wird deutlich, dass dieses Schema, mit Werten von 268 mm für Garmisch und 662 mm für die Zugspitze (Tab. 2), den Niederschlag an beiden Standorten deutlich unterschätzt. Mit dem Thompson-Schema wird für Garmisch ein Niederschlagswert von 886 mm und für die Zugspitze ein Wert von 1644 mm erreicht (Abb. 7). Für das Morrison-Schema sind es 628 und 1511 mm (Abb. 8). Es wird deutlich, dass die Selektion der jeweiligen Mikrophysik zur Beschreibung der Wolkendynamik im Modell erheblichen Einfluss auf die Modellergebnisse hat. Um abschätzen zu können, welche der Schemata im Gebiet tauglich sind, ist eine Ausstattung mit höhergelegenen Stationen unumgänglich. Stehen diese zur Verfügung, wird deutlich, dass die zwei komplexeren Schemata eine deutlich bessere Realisierung der wahren Begebenheiten im Bereich des RCZ ermöglichen. Weitere Stationen, wie z. B. die am Wank, die einen mittleren Jahresniederschlag von etwa 1500 mm ausweist, ermöglichen zudem die klare Präferenz für das Morrison-Schema, da dieses mit einem NS von 1290 mm in diesem Bereich, gegenüber 2300 mm im Thompson-Schema, die eindeutig belastbareren Werte liefert. Die Diskrepanz der Ergebnisfelder macht deutlich, dass vor der endgültigen Modellierung die adäquaten, auf das jeweilige Gebiet passenden Schemata im Modell selektiert werden müssen. Geschieht dies nicht, wird dies unweigerlich zu extremen Unsicherheiten in den dann erzeugten Prognosedaten führen.

Abb. 6
figure 6

Niederschlagsfeld auf Basis des Mikrophysik-Schemas von Smith und Barstad (2004)

Tab. 2 Gemessene und modellierte Niederschlagshöhen für die DWD-Stationen Garmisch-Partenkirchen und Zugspitze
Abb. 7
figure 7

Niederschlagsfeld auf Basis des Mikrophysik-Schemas von Thompson et al. (2008)

Abb. 8
figure 8

Niederschlagsfeld auf Basis des Mikrophysik-Schemas von Morrison et al. (2005a)

Um eine solche Evaluation im Gebirgsraum durchführen zu können, sind gerade Höhenstationen essenziell, da die Unterschiede in den Feldern in den Höhenlagen deutlicher zutage treten und eine Evaluierung einzig anhand der Talstationen damit unmöglich erscheint. Die Analyse im Bereich der Parametrisierung der jeweiligen Schemata in Bezug auf die Schneefallgeschwindigkeit und die Cloud Droplet Concentration hat im Weiteren ergeben, dass eine Veränderung dieser Parameter die Ergebnisse noch einmal um jeweils etwa 10 % zu verändern vermögen, sich an der generellen Verteilung der Niederschläge jedoch nichts verändert.

4.3 Fallbeispiel III

Die Kalibrierung der NDSI-Schwellenwerte in Satellitenbildern mithilfe von Kameraaufnahmen ermöglicht die Erzeugung hochgenauer Schneebedeckungskarten aus Satellitenbildaufnahmen für den Beobachtungsort und jeden Zeitpunkt, der über eine geeignete Aufnahme adressiert ist. Die Software PRACTISE ermöglicht dabei eine schnelle und unkomplizierte Prozessierung (s. Abschn. 3.3.).

Eine Voraussetzung für die Kalibrierung ist, dass die Projektion und die Schneeklassifizierung der Kameraaufnahme hohen Qualitätsansprüchen genügen. Das Beispiel vom 17.11.2011 in Abb. 9 zeigt die Projektion des Digitalen Geländemodells (DGM) in die Aufnahme einer Spiegelreflexkamera und die dortige Klassifikation der Pixel. Die Ortsgenauigkeit der Projektion ist gerundet 1 m und somit exakt identisch mit der Auflösung des DGM. Die Genauigkeit der automatischen Klassifikationsergebnisse ist trotz des Schattenwurfs im Bild sehr hoch. Der Fehler liegt bei etwa 0,1 %. Ähnliche Genauigkeiten wurden auch für die 15 weiteren untersuchten Aufnahmezeitpunkte gefunden.

Abb. 9
figure 9

Projektion des DGM in die Kameraaufnahme vom 17.11.2011 und automatische Klassifikation in schneefreie und schneebedeckte sowie in drei weitere Kategorien für nicht eindeutig bestimmbare Pixel

Der kalibrierte NDSI-Schwellenwert des Landsat-7-Satellitenbildes vom 17.11.2011, aufgenommen in der gleichen Stunde wie die Kameraaufnahme, liegt bei 0,18. Die Übereinstimmung der Schneekarten aus Kamera und Satellitenbild nach Kalibrierung des NDSI-Schwellenwertes liegt für das Beispieldatum bei etwa 93,5 %. Dieser Wert entspricht auch dem Mittelwert für die anderen Zeitpunkte. In Anbetracht der unterschiedlichen Auflösung von Kamera (1 m) und Landsat (30 m) und dem daraus entstehenden Problem von Mischpixeln, ist dieser Wert als sehr gut anzusehen. Abb. 10 bestätigt diese Aussage auch visuell. Die ausgeprägten Schattenflächen in der Abbildung sind dem Aufnahmezeitpunkt von 10 Uhr, der Komplexität des Geländes im Zugspitzgebiet und dem extrem niedrigen Sonnenstand im November geschuldet. In Sommeraufnahmen sind die Schattenflächen deutlich weniger prominent.

Abb. 10
figure 10

Überlagerung der kalibrierten Satellitenbildschneebedeckungskarte und der zur Kalibrierung verwendeten Kameraschneekarte für das Zugspitzgebiet am 17. November 2011. Die projizierte Kameraaufnahme zeigt in Rot die Schneebedeckung und in Blau schneefreie Flächen. Die Schneeflächen in der Landsat-7-Aufnahme nach der Kalibrierung mit der Kameraaufnahme sind als weiße Kreuze dargestellt, Gebirgs- und Wolkenschatten sind von der Analyse ausgenommen und werden deshalb maskiert (schwarze Kreuze). Schneefreie Flächen im Satelliten sind somit alle Flächen, in denen das zur besseren Visualisierung verwendete LandsatLook-Bild ohne überlagernde Kreuze zu sehen ist

Für das Beispiel vom 17.11.2011 beträgt der kalibrierte NDSI-Schwellenwert, wie oben bereits erwähnt, 0,18 und ist somit deutlich verschieden zum Literaturwert von 0,4, welcher in den meisten Studien standardmäßig als NDSI-Schwellenwert verwendet wird. Diese Differenz lässt sich auch als Schneeflächendifferenz zwischen beiden Verfahren ausdrücken. Nach der Kalibrierung des NDSI-Schwellenwertes ist die Schneebedeckung im Zugspitzplatt um 19,5 % größer als mit dem Standardverfahren. Diese Differenz ist enorm und macht die Notwendigkeit der genaueren Bestimmung der Schneebedeckung in Satellitenbildern mit Verfahren wie in PRACTISE deutlich.

Im Folgenden wird für eine bessere Einordnung und weitere Analyse der kalibrierten NDSI-Schwellenwerte die gesamte verfügbare Zeitreihe von 16 Tagen zwischen 2011 und 2015 mit gleichzeitig verfügbaren Kameraaufnahmen und Satellitenbildern betrachtet. Die kalibrierten Schwellenwerte am Zugspitzplatt sind mit 0,28 im Mittel deutlich niedriger als der Standardwert von 0,4. Außerdem ist auffällig, dass für die untersuchten Daten eine große Spannbreite an Werten zwischen 0,15 und 0,39 zu beobachten ist, wobei selbst der maximal auftretende Schwellenwert unter dem Literaturwert liegt. Die Betrachtung der kalibrierten NDSI-Schwellenwerte in Abhängigkeit vom Zeitpunkt im Jahr in Abb. 11 zeigt weiterhin eine hohe Variabilität sowie einen unterliegenden Jahresgang in den Daten.

Abb. 11
figure 11

NDSI-Schwellenwerte (schwarze Kreuze) dargestellt in Abhängigkeit vom Tag im Jahr (t). Außerdem sind zur Verdeutlichung des Jahresgangs in den kalibrierten NDSI-Schwellenwerten mit der rot durchgezogenen Linie ein an die Daten angepasstes quadratisches Polynom und mit den rot gestrichelten Linien das 95-%-Unsicherheitsintervall des Modells angetragen

Die systematisch niedrigeren NDSI-Schwellenwerte am Zugspitzplatt können mit den Reflektionseigenschaften des Felsuntergrunds, in diesem Fall also Kalkstein, in Zusammenhang gebracht werden. Dies kann auf Basis einer weiteren Studie, die am Vernagtferner in den Ötztaler Alpen durchgeführt wurde (Härer et al. 2018) erklärt werden. Der Untergrund im Vernagtfernergebiet besteht aus Gneiß und die NDSI-Schwellenwerte für die Abgrenzung von Schnee sind in diesem Gebiet im Mittel deutlich höher (0,57). Die Differenz der NDSI-Werte für Kalkstein und Gneiß beträgt 0,34 und kann somit die Differenz zwischen den Mittelwerten in beiden Gebieten von 0,29 weitgehend erklären. Ebenfalls erklärbar ist der zu beobachtende unterliegende Jahresgang wie das in Abb. 11 gezeigte Modell (R2 = 0,57, RMSE = 0,049) aufzeigt. Trotz des vermeintlich geringen Atmosphäreneinflusses in alpinen Gebieten und der Nutzung eines Index zur Normalisierung von Strahlungsunterschieden, findet sich eine klare Korrelation zwischen den kalibrierten NDSI-Schwellenwerten und dem Azimuth (0,75) bzw. der Sonnenhöhe (0,77). Einzig die hohe Variabilität der NDSI-Schwellenwerte ist somit aktuell noch nicht geklärt. Es liegt die Vermutung nahe, dass eine Kombination aus verschiedenen Faktoren wie Alter und Körnung des Schnees für diese Unterschiede verantwortlich sind (Härer et al. 2018).

Die für diese Studie herangezogenen Landsat-Aufnahmen sind mit 30 m relativ hochauflösend und somit zur Betrachtung kleiner lokaler Einzugsgebiete optimal. Eine Frage, die sich dabei stellt, ist der Einfluss der räumlichen Auflösung des Satellitenbildes auf die NDSI-Schwellenwerte bzw. die daraus abgeleiteten Schneeflächen. Eine Aggregation der 30-m-Landsat-Daten auf 90, 210, 510 und 990 m zeigt, dass die Unterschiede zwischen den abgeleiteten Schneeflächen aus zeit- und ortsabhängig kalibriertem NDSI-Schwellenwerten und dem Literaturwert von 0,4 mit gröberer räumlicher Auflösung verschwinden. Abb. 12a verbildlicht dies für das Beispiel vom 17.11.2011. Abb. 12b macht den Verlauf der Zunahme identischer Schneekarten mit gröberer räumlicher Auflösung und dessen zunehmende Unabhängigkeit vom verwendeten NDSI-Schwellenwert für die gesamte Zeitreihe deutlich. Für 9 bzw. 14 der 16 untersuchten Zeitpunkte finden sich für die Auflösungen von 510 m bzw. 990 m keine Unterschiede in den abgeleiteten Schneekarten für das Zugspitzplatt unabhängig vom verwendeten Verfahren.

Abb. 12
figure 12

a zeigt den Effekt gröberer räumlicher Auflösung für die aus kalibrierten und aus dem Standard-NDSI-Schwellenwert abgeleiteten Schneekarten am Zugspitzplatt am 17. November 2011 und deren Differenz. In b wird die gesamte Zeitreihe (16 Aufnahmen) betrachtet. Mit der Pixelgröße nimmt die Anzahl identischer Schneekarten zu. Dies ist ein Indiz für die zunehmende Unabhängigkeit der Schneekartenqualität vom verwendeten NDSI-Schwellenwert

Es konnte gezeigt werden, dass die NDSI-Schwellenwerte für hochauflösende Satellitenbilder im Zugspitzplatt, einem alpinen Kopfeinzugsgebiet, hochvariabel sind und einen deutlichen Einfluss auf die abgeleiteten Schneeflächen haben. Einige Aspekte der Variabilität der Schwellenwerte (Mittelwert, Jahresgang) sind dabei definitiv systematisch und können beispielsweise dem vorherrschenden Felsuntergrund und dem jeweiligen Sonnenstand zugeordnet werden. Die weitere Variabilität scheint aktuell zufällig, ist aber wahrscheinlich durch andere Faktoren wie Schneealter und Körnung zu erklären, die die Schneealbedo stark beeinflussen. Dies konnte jedoch noch nicht abschließend geklärt werden.

Die Notwendigkeit einer Kalibrierung oder Anpassung des NDSI-Schwellenwerts für den jeweiligen Ort und die jeweilige Zeit ist somit für lokale Schneeflächenuntersuchungen mit hochauflösenden Satellitenbildern eindeutig. Ein weiteres Experiment hat zudem aufgezeigt, dass für Auflösungen von ≥500 m eine Anpassung des Schwellenwertes im Großteil der untersuchten Fälle keine Verbesserung der Schneekarten mit sich bringt. Der zusätzliche Aufwand einer Anpassung des NDSI-Schwellenwerts ist somit in Abhängigkeit zur Skala zu sehen und wird damit nur für lokale und somit hochauflösende Untersuchungen als absolut notwendig betrachtet.

5 Zusammenfassung

Die drei genannten Fallbeispiele konnten nur an einem Standort wie dem RCZ durchgeführt werden. Hier ist die notwendige Infrastruktur installiert und eine ganzjährige Zugänglichkeit gewährleistet. In unseren Augen sind die im RCZ oder ähnlichen Einzugsgebieten erhobenen Daten essenziell. Dies begründet sich in der Tatsache, dass sie als Ankerpunkte alpiner hydrologischer Forschung angesehen werden können. Diese können lokal ein besseres Verständnis darüber ermöglichen, wie sensitiv komplexe Modelle, die eine ausgesprochen gute Instrumentierung voraussetzen, auf verschiedene Geländeparameter reagieren (Fallbeispiel I), wie die Auswahl von Modellkomponenten (Fallbeispiel II) die Güte von regionalen Klimamodellen zu beeinflussen vermag und wie recht einfache Instrumentierungen ein deutlich verbessertes Fernerkundungsprodukt erzeugen können (Fallbeispiel III). Im Falle der regionalen Klimamodellierung wird darüber hinaus deutlich, dass Messungen aus den Tallagen bei weitem nicht ausreichen, um die Güte der Ergebnisse zu bestimmen, da sich die Unterschiede zwischen den verschiedenen Modellsetups von ICAR v. a. in den Höhenlagen auswirkt. Die Abschätzung der Realitätsnähe des Höhengradienten verlangt aber nach hochqualitativen, hochgelegenen Stationen. Die in Global Cryosphere Watch (GCW) oder INARCH (Pomeroy et al. 2015) organisierten Hochgebirgseinzugsgebiete sowie deren Ausweitung können demnach in Zukunft eine gewichtige Rolle auf dem Weg zu mehr Prozessverständnis und Modellverständnis im Hochgebirge führen.