Werden die Winter in Deutschland wirklich immer wärmer?

12 Antworten

Aus meiner Erfahrung seit den 80ern: ja.

Ich wohne in Hessen, und wenn man sich die durchschnittlichen Jahrestemperaturen anschaut (1. Grafik), dann ist das kaum zu übersehen, dass es immer wärmer wird. Das ist zwar das ganze Jahr, aber natürlich sind das nicht nur die Sommer.

In meiner Kindheit konnten wir zuverlässig jedes Jahr auf dem Badesee hier Schlittschuhlaufen. Das letzte Mal war das vor 10 Jahren möglich, seitdem ist die Eisdecke nicht mehr dick genug geworden. Wenn es überhaupt eine Eisdecke gab.

Wie so oft schon: Klima ≠ Wetter...

...auch wenn die Häufigkeit kalter Winter abnimmt, sind die kalten Winter darunter genauso kalt wie früher... Es besteht nach wie vor Forst- und Spätfrostgefahr...

= es wird nicht alles generell wärmer...

Dazu kann ich nur eines sagen:

Am Freitag Nachmittag - ab ca. 14 Uhr - ist im Nordwestlichen Erzgebirge der erste Schnee in diesem Winter gefallen - und liegen geblieben. Es hat den ganze Nachmittag über heftig geschneit.

Wtf is "Klimaerwaermung"?

myotis  19.11.2022, 23:39

;o)

0

Für sowas gibt es ja objektive Statistiken.

Gefühlt würde ich aber schon sagen. Vor 20 Jahren konnte man bei uns mit Schnee im Winter planen. Jetzt sind es wenn es hochkommt mal 2 Wochen irgendwann im Februar.

Ja, in den 60-er waren sie durchgehend kalt und im Sauerland lag Schnee und es gab Skitourismus. In den 70-er mal so mal so, ab den 80-er wurde es langsam immer wärmer und es gab immer seltener Schnee.