Fühlt man sich nach dem man rache nimmt wirklich nicht besser?
In Filmen und Serien wird ja immer gesagt bzw dargestellt, dass man sich nach dem man Rache nimmt, z.B. man wird geschlagen und schlägt diese person nach einer weile zurück, wirklich nicht besser als zuvor fühlt, ich wollte von erfahrenen Personen wissen ob man sich in gewisser Weise besser oder doch wirklich nicht anders/noch schlechter im echten Leben fühlt. Ich frage mich ob es nur erzählt wird damit man nicht dazu animiert wird dies zu machen oder ob dies halt wirklich der Wahrheit entspricht.