Wichtiger als die Gesamtleistung ist, wieviel Strom das Netzteil auf den verschiedenen Spannungen liefern kann. Würden die Hersteller der Komponenten hier vernünftige Angaben in ihre Datenblätter schreiben, könnte man ein Netzteil möglichst genau dimensionieren.
So sagt aber z.B. der Grafikkartenhersteller nur „mindestens 500W“. Super.
Nimm das leistungsstärkere. Die paar Euro Mehrpreis machen das Kraut nicht fett, und nur weil das Netzteil mehr Leistung KANN, heißt es ja nicht, daß es auch mehr verbraucht.
Das ist so nicht ganz richtig. Netzteile laufen nicht immer gleich effizient. Je nach Last haben sie mehr Verluste oder weniger. Zumeist liegt das Optimum zwischen 50% und 80% Last, je nach Modell. Wenn ich also sehr wenig Last habe, dann sinkt die Effizienz und der Verbrauch steigt.
Ja, aber wir wollen doch keine Haare spalten . Von „sehr wenig Last“ sind wir - egal mit welchem der beiden Netzteile - weit genug entfernt. Der Wirkungsgrad wird sich also irgendwo zwischen 80 und 90% bewegen. Ob es jetzt 82 oder 88% sind - so what?
Naja, nehmen wir mal 400W an, dann sind 6% davon 24W zusätzliche Verlustleistung.
9h pro Tag, 5 Tage pro Woche, 52 Wochen ergeben 56kWh zusätzliche Verlustleistung pro Jahr.
Bei 0.30€ pro kWh sind wir bei 17€ zusätzlichen Stromkosten.
Ganz ehrlich, diese Denke finde ich zum Kotzen! Ich würde Haus, Frau und Kinder verwetten darauf, dass dein Strom - und der Strom des Fragers - aus Öl oder Kohle mit einem nennenswerten Anteil an Kernenergie gewonnen wird. Da sind 6% keine Haarspalterei!