Ich bin Österreicher und mein Chef meinte heute vor versammelter Mannschaft, dass wir alle Verantwortung dafür tragen, dass Österreich nicht dem Beispiel Deutschlands folgt und innerhalb eines Jahrzehnts "herunter gewirtschaftet" wird.
Ist das den Deutschen eigentlich bewusst, dass sich das Bild von Deutschland im Ausland in den letzten 10 Jahren massiv gewandelt hat. Von der starken Industrienation mit innovativen Entwicklungen und internationaler Vorreiterrolle hin zu einem "am absteigenden Ast" befindlichen Staat, in dem ständig nur gestreikt und verhindert wird, in dem die Bevölkerung gespalten ist und in dem die Bürger nur noch arbeiten, um das Klima zu retten und armen Menschen auf der ganzen Welt zu helfen.
Auch bei meinem Aufenthalt in Japan und mit Geschäftspartnern aus anderen EU-Ländern wurde nur sehr sorgenvoll über die Zukunft Deutschlands diskutiert.
Ich frage mich – existiert in Deutschland ein Bewusstsein für dieses veränderte Image, oder denkt man in Deutschland, man sei noch immer international bewundert?