Stromverbrauch netzteile

Sorry, ich habe zwar mitgelesen, bin aber etwas schwer von Begriff…

Mein erste Frage bezieht sich auf die 80+ Zertifizierung bzw. Effizienz. Bedeutet das, dass die Nennleistung, sagen wir ein 500W-NT, bis 80% Output an Stromverbraucher verteilen kann, im Ergebnis also effektive 400W?
Man könnte es auch so deuten, dass durch den Eigenverstromverbrauch des Netzteils max. 20% „verbraten“ (als Hitze abgehend) werden dürfen???

Dabei die zweite Frage: Wie viel Watt benötigt ein Netzteil im Durchschnitt für sich selbst?

So könnte man es nennen. Wenn das Netzteil z.b. 230V
Ausgang und Eingang hätte und es 1A am Ausgang aufnimmt,
kommen hinten „nur“ 0,8A an.

Mfg

Hallo,
genauere Infos dazu gibt es hier: http://de.wikipedia.org/wiki/80_PLUS
Die Leistungsangabe eines Netzteiles bezieht sich üblicherweise auf die maximale Ausgangsleistung. Ein Wirkungsgrad von 80% bei einem 500-W-Netzteil bedeutet, dass das Netzteil bei 500 W Ausgangsleistung 625 W aufnimmt. Ein 400-W-Netzteil würde dementsprechend 500 W verbrauchen.
Der Eigenverbrauch hängt stark von der Belastung des Netzteiles ab. Bei einem Wirkungsgrad von 80% sind es eben 20% der Gesamtverbrauches.
Im Leerlauf ist der Wirkungsgrad 0%. Der Eigenverbrauch ist dann stark von der Konstruktion und der Maximalleistung des Netzteiles abhängig. Er kann im Bereich von

So könnte man es nennen. Wenn das Netzteil z.b. 230V
Ausgang und Eingang hätte und es 1A am Ausgang aufnimmt,
kommen hinten „nur“ 0,8A an.

Mfg

Also ich bin nun wirklich kein Elektrotechniker? Könntest Du es mir nicht mit etwas ausführlicheren Worten für einen Laien, sprich auch anhand meines Zahlenbeispiels in Watt, beantworten? Dass wir alle 230V auf der Leitung haben, davon gehe doch wohl aus…

Ja also was jetzt? Bezieht sich die 80+ Effizienz auf erstere Variante (bzgl. angehängter Stromverbraucher) oder auf zweite Variante (abgekopppelt vom PC-Innenleben, nur das Netzteil an sich selbst) meiner Frage?

Und auf die zweite Frage, wie viel Watt ein PC-Netzteil für sich selbst verbraucht, habe ich gar keine Antwort erhalten?

Danke vielmals!
Herr Jörg Rehrmann weiss was :smile:

MfG Adrian

Herr Rehrmann
…darf ich Sie noch was fragen? Wie verhält sich das, wenn ein PC-Netzteil unterdimensioniert ist, also die Stromverbraucher mehr Leistung anfordern als das Netzteil zur Verfügung stellen kann - erhöht sich dadurch der Stromverbrauch gegenüber einem ausreichend dimensionierten Netzteil?
…?..

Ich versuche es mal einfacher.

Wenn das Netzteil ein Wasserhahn wäre, gehen vorne 100%
rein, aber am Ausgang kommen nur noch 80% raus, der
Rest geht „Verloren“ bzw. wird beim Netzteil in Wärme
umgesetzt.

Ein bsp in Watt, das Netzteil nimmt am Eingang 100 Watt
auf.
Am Ausgang kommen von denn 100 Watt nur 80% also 80Watt
an. Der restlichen 20% gehen in Wärme über.

Desto höher der Wirkungsgrad, desto kleiner deine Stromrechnung, da weniger Energie in Wärme umgesetzt
wird.

Ich hoffe, dass ich helfen konnte.

Hallo,
ja, im Bereich der Maximalleistung verschlechtert sich der Wirkungsgrad wieder. Bei Überlastung natürlich erst recht, sofern das Netzteil nicht abschaltet oder durchbrennt.
Das liegt daran, dass ein großer Anteil der Verluste im oberen Leistungsbereich eines Netzteiles durch Leitungsverluste in Spulendrähten und Leistungsschaltern entsteht. Diese steigen quadratisch mit der Ausgangsleistung und verschlechtern deshalb den Wirkungsgrad bei hoher Belastung. Ein größeres Netzteil hat dickere Drähte und niederohmigere Leistungsschalter, sodass dieser Verlustanteil bei einem größeren Netzteil bei gleicher Ausgangsleistung noch nicht so sehr ins Gewicht fällt wie bei einem Kleineren.

MfG
Jörg Rehrmann

…darf ich Sie noch was fragen? Wie verhält sich das, wenn ein
PC-Netzteil unterdimensioniert ist, also die Stromverbraucher
mehr Leistung anfordern als das Netzteil zur Verfügung stellen
kann - erhöht sich dadurch der Stromverbrauch gegenüber einem
ausreichend dimensionierten Netzteil?
…?..

Hallo… Das war schon mal viel verständlicher, aber damit stellt sich bereits die nächste Frage: was mich daran stört ist, dass es in Prozent gerechnet wird. 80% von 100W sind 80W, aber bei 800W wäre die Differenz zum Output ja proportional 8x mal höher, also statt 20W 160W Verlust, obwohl im Prinzip ein 800W-NT sich von einem 100W-NT in der angewendeten Technik nicht unterscheidet? Wie kann ich mir das erklären?
…?..