Wenn ich es richtig verstanden habe, dann sind die guten Netzgeräte der 80+Titanium-Klasse ja über einen weiten Leistungsbereich sehr effizient.
Wenn also der Wirkungsgrad im Leistungsbereich zwischen 20% und 80% ihrer nominellen Maximalleistung bei über 93% liegt, ist es dann bzgl. des Stromverbrauchs nicht egal, ob man ein Netzgerät mit nominell 500 W oder 1000 W Maximalleistung verwendet.
Wenn dann der PC bei gemäßigter Rechenleistung z.B. nur 300 W benötigt, dann wären das 60% der Maximalleistung des kleineren Netzteils (mit nominell 500 W) oder 30% der Maximalleistung des größeren Netzteils (mit nominell 100 W). Beide Relativwerte des aktuellen Verbrauchs wären noch im o.a. Bereich der hohen Effektivität. Und wenn die Effektivität in beiden Fällen 93% beträgt, dann müsste auch der Leistungsverlust des Netzteils gleich groß sein.
Ist diese Überlegung richtig - oder wo steckt der Fehler?
Natürlich ist das größere Netzgerät bei der Anschaffung teurer. Aber das ist ein einmaliger Geldverlust.
Eine ständige Stromverschwendung, durch höheren Eigenstrombedarf des größeren Netzteils, das würde mich mehr stören.