Sind die Medien in Deutschland noch neutral?
Frage steht ja schon oben. Medien müssen ja neutral berichten. Findet ihr das machen sie? Im Bezug zur AfD schließen sie die aus und stellen Sie wie die letzten Menschen hin. Das dürfen keine Medien machen. Falls ja müssten die genauso über die Grünen oder Linken etwas negatives berichten und vor denen warnen. Was meint ihr?