Ist Deutschland oder Afrika Rassistisch?

...komplette Frage anzeigen

4 Antworten

Welches Afrika? Kannst nicht einen ganzen Kontinent über einen Kamm scheren.

Antwort bewerten Vielen Dank für Deine Bewertung

Die Deutschen sind keineswegs "rassistisch" indem es sie nervt, daß mittlerweile bald jeder Zweite in der Großstadt dunkelhäutig ist.

Sondern sie sind zornig, daß sie all diese Zuströmer auf Jahrzehnte oder lebenslang rundum versorgen müssen und haben Überlebensangst.

Sie fragen sich zu Recht, wann das Land umkippt - wenn bald 20 Millionen Erwerbstätige 100 Millionen Harz-4 gegenüberstehen, kaum mehr einer die explodierenden Mieten aufbringen kann und alles Ackerland zubetoniert wird.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von soprahin
15.07.2017, 10:36

Du kannst doch einfach Platz machen, dann haben die armen Menschen endlich eine neue Heimat incl. alles was dazu gehört.

0

Was fantasierst du denn da? Zuviel Propaganda von Anti-Rassisten gelesen? Ohne diese Propaganda wird es keine Berührungsängste zwischen Schwarzen und Weißen geben – weder in Deutschland, noch in Afrika.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von DetlefRuchatz
10.07.2017, 22:08

Warum würden sich Deutsche von Schwarzen wirklich distanzieren? Hier ist was dank antirassistischer Gehirnwäsche im Verstand eines Weißen vor sich geht, wenn er einen Schwarzen sieht: „Oh mein Gott, ich als Weißer stehe tief in der Schuld der armen Afrikaner, die wir jahrhundertelang ausgebeutet haben. Was wird der Afrikaner wohl denken, wenn ich Negerküsse in seiner Gegenwart versehentlich als Negerküsse bezeichne? Und was erst, wenn jemand herausfindet, dass ich nie in Erwägung gezogen habe, einen Schwarzen zu heiraten; das wäre mein Ende; ich wäre als Nazi entlarvt." Wahre Affinität wurde völlig zerstört und durch Schuldgefühle, Besorgnis und ein Bemühen um Gunst ersetzt.
Umgekehrt habe ich noch nicht gehört dass ein Weißer von Schwarzen in einem Dorf einfach so zusammengeschlagen wird (außer vielleicht bei künstlich erzeugten Rassenunruhen in Großstädten). Ein Weißer würde eher die Neugier von Schwarzen erwecken; eventuell würden sie auch glauben, die Götter seien zurückgekehrt.
Folgendes HABE ich gehört, und zwar von einem weißen Südafrikaner der inmitten der Apartheit in einem abgelegenen Dorf aufwuchs, in dem sich wohl noch nicht herumgesprochen hatte, dass in Südafrika Apartheid herrschte. Es war für ihn das Normalste auf der Welt, mit schwarzen Kindern, zu spielen. Die Schwarze Mehrheit hatte auch keinerlei Problem damit, dass ihre Kinder mit einem Weißen spielte. Es herrschte ein freundschaftliches Verhältnis zwischen seiner Familie und schwarzen Familien, obgleich die Erwachsenen natürlich sehr wohl wussten, was außerhalb des Dorfes in Südafrika abging.

0

Es ist eher rassistisch, ein ganzes Land/Kontinent als rassistisch zu bezeichnen.

Es kommt immer auf die Toleranz, Weltoffenheit und Intelligenz eines Einzelnen an. Es gibt Rassisten in Deutschland, so wie es Rassisten in Afrika gibt. Ebenso gibt es aber auch tolerante Personen in Deutschland sowie Afrika.

Glücklicherweise leben wir in einer weitgehend offenen Gesellschaft, und Menschen jeglicher Hautfarbe, Sexualität, Geschlecht, etc werden akzeptiert. Und natürlich gibt es immer noch Ausnahmen, und es ist zwar schade, aber ich glaube, dass manche Leute nie lernen werden, dass man Völker/Bevölkerungen nicht über einen Kamm scheren kann, weil jeder nun mal unterschiedlich ist.

Ein Rassist ist man übrigens, wenn man Menschen aufgrund ihrer Herkunft o.Ä. herabstuft, und denkt, dass dies gerechtfertig ist. Mit vielen Rassisten kommen auch typische Klischees, wie z.B. jeder Amerikaner ist fett, jeder Asiate ist gut in Mathe, oder Deutsche sind humorlos.

Und, um deine Frage konkret zu beantworten: weder ganz Deutschland, noch komplett Afrika, ist rassistisch. Nur manche Personen dort.

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?