Rassismus in Ost Vs Westdeutschland?

Ich bin als Nachfahre eines Offiziers der der Roten Armee aus der heutigen Ukraine in Sachsen aufgewachsen. Habe später aber auch einige Zeit in Westdeutschland verbracht. Das es in Ostdeutschland Probleme mit rechten umtrieben gibt ist nichts neues. Meiner Erfahrung nach steht der Westen aber nur bedingt besser da. Was sich unterscheidet ist oft nur das rassistische Stereotype im Westen nicht so offen und selbstbewusst wie im Osten vertreten werden. Aber meinem Eindruck nach auch häufiger vorkommen als mancher Westdeutsche es zugeben mag. Ich habe den Eindruck das die Menschen in Westdeutschland lediglich etwas mehr "Schamgefühl" haben und es deshalb nicht so offen kommunizieren. Sondern eher hinter vorgehaltener Hand. Mein Eindruck war schon immer das es zu kurz greift so zu tun als gäbe es das Problem nur im Osten und der Westen ist zu 100% weltoffen und tolerant. Das es nicht ganz so einfach ist sieht man auch daran das die AfD in Westdeutschland relativ starke Ergebnisse einfährt. Mich würden hier vor allem die Meinung zu dem Thema von Menschen aus Westdeutschland Interessieren. Inwieweit meine Meinung geteilt und warum bzw. warum nicht.

Wie sieht wohl die Stadt der Zukunft aus, was denkt ihr?

Werden Städte noch mehr oder weniger so aussehen wie heute oder werden sie sich stark verändern? Was denkt ihr, wie diese Veränderungen aussehen werden? Ich denke, dass es auf jeden Fall mehr Grün in Städten geben wird. An vielen Orten wird ja bereits jetzt damit angefangen, auch bei uns, da wurden einige Flächen in der Innenstadt neu begrünt. Man sieht es ja auch bei neu entstehenden Vierteln oder Wohnblöcken, da werden meist auch Grünflächen integriert. Leider befürchte ich zugleich, dass die Innenstädte noch eintöniger werden. Schon jetzt können sich kleine Geschäfte kaum halten und die Ketten dominieren, bei der Gastro sieht es ähnlich aus, auch da viele Ketten und auch viel Leerstand. Ich hoffe aber sehr, dass es gelingen wird, da gegenzusteuern und die Innenstädte attraktiv zu machen.

Was finden Deutsche am heutigen Deutschland gut?

Ich bin deutscher Staatsbürger. Allerdings mit ukrainischen Migrationshintergrund. Ich kenne quasi zwei Kulturen. Mich verwundert immer das die deutsche Mehrheitsgesellschaft nicht in der Lage ist auch mal positiv über die vielen deutschen Errungenschaften zu sprechen. Und wenn sie dann doch Mal auf etwas deutsches stolz sind dann meistens auf das falsche. Deshalb meine Frage, was findet ihr Deutschland gut? Mir würde da ein Menge einfallen. Was kann ich euch gern erzählen. Aber mich interessiert eure Meinung.