Ich selber mag die Russische Politik auch nicht vorallem wegen den Ukraine Krieg, aber können wir darüber sprechen, dass die geliebte USA nicht wirklich besser ist? Sie vertuschen nur besser. Ich denke es liegt vorallem an den Medien, Filme, Serien. Russland wird oft als Feind dargestellt und die USA als die ,,Retter". Meine Meinung, was meint ihr dazu?