Es wird doch immer so dargestellt, als wäre die westliche Welt, also wir Europäer, Amerikaner, Australier usw für die ärmlichen Zustände in Afrika verantwortlich, doch sind es nicht eher die westl. Konzerne, auf deren Tun und Handeln wir doch überhaupt gar keinen Einfluss haben? Die sind es doch, die Afrika ausbeuten und nicht wir kleinen Menschen, die sich aber trotzdem immer voll schuldig fühlen sollen.. so sehe ich das und wie seht ihr das so?