Schnee in Deutschland?
Was haltet ihr davon das es hier in Deutschland schneit?
Findet ihr das gut oder eher schlecht?
16 Stimmen
3 Antworten
In der Stadt ist Schnee nicht gerade der Hit, weil alles matschig, patschig, schmutzig und evtl. auch glatt ist.
Aber eine richtige Schneewanderung in der Natur ist eine wunderbare Sache, genau so wie die Sportarten, für die Eis und Schnee nötig sind.
Abgesehen davon brauchen wir den Schnee dringend für unser Überleben. Unter der Schneedecke ist es wärmer als darüber, und so bleiben die Böden feucht und die Tiere erfrieren nicht. Denn sie müssen in der warmen Jahreszeit für uns arbeiten, damit wir etwas zu futtern haben. Würde der Schnee dauerhaft bei uns auf der Nordhalbkugel wegfallen, wären sehr bald die Böden komplett ausgetrocknet. Unsere Temperatur würde sich dauerhaft um mehrere Grad erhöhen. Es würde kaum noch etwas wachsen, und Wasser stünde uns kaum noch zur Verfügung. Der Schnee hat auch noch andere Funktionen, aber das kannst du sicher googlen.
Ist mir egal, es wird halt Winter, schneit nur recht früh im Vergleich zu den letzten Jahren, sonst wenn überhaupt erst im Januar.
Glatte Straßen und Wege, Verspätungen beim Schulbuss und Matsche brauchen wir nicht unbedingt .