In den Medien wird die ganze Zeit erzählt, die AfD sei eine rechte Partei. Aus reiner Neugier habe ich mich mal ein wenig über die AfD informiert und muss feststellen, dass diese Partei aus meiner Sicht in keinster Weise rechts ist. Ist man denn gleich ein "Nazi", wenn man als Deutscher sagt "mir ist mein eigenes Wohl wichtiger als das, eines Fremden"? Mir kommt es eher so vor, als würde man uns Deutschen bewusst vermitteln: Wenn du aus irgend einem Grund was Negatives über einen Flüchtling, Ausländer oder Asylbewerber sagst (egal in welchem Zusammenhang), bist du ein böser Nazi! Die Deutschen haben so eine Angst davor als Nazis abgestempelt zu werden, dass kaum einer zugibt, was er in Wirklichkeit denkt. Die AfD sagt z.B. nur, dass wir nicht mehr Flüchtlinge aufnehmen sollten, als wir verkraften und dass jede Person genauer unter die Lupe genommen werden sollte, bevor wir sie aufnehmen. Und das ist rechts? Ich nehme doch auch nicht einfach 10 fremde Leute bei mir auf, ohne zu wissen wer sie sind und ohne mir Gedanken zu machen, ob der Platz und mein Geld ausreicht. Wieso macht es dann ein ganzes Land? Achja, sonst sind wir ja Nazis! Die Medien erzählen uns das doch jeden Tag, ohne dass wir es merken. Wenn eine Partei also genau sowas nicht möchte, kann sie ja nur rechts sein! Sehe ich das falsch?