Gibt es in Deutschland eine Ansicht zum Zweiten Weltkrieg, die besagt: Imperialistische Staaten haben andere Länder überfallen – Frankreich, Großbritannien und die USA haben das auch getan. Warum wird nur Deutschland beschuldigt?
Der Auslöser für den Krieg war die Wirtschaftskrise, die erst die Nazis an die Macht brachte, und für Deutschland gab es damals keine andere Überlebenschance als den Krieg.
In Japan gibt es heute eine ähnliche Sichtweise: Wenn die USA und Großbritannien im Pazifik um Einflusssphären kämpfen, andere Länder kolonialisieren und ausbeuten durften, warum sollte Japan nicht ebenfalls um die Vormachtstellung konkurrieren dürfen?
Japan war einfach der Verlierer in diesem imperialistischen Machtkampf und wird nun gezwungen, sich als einziger für den Krieg zu rechtfertigen – das ist unfair