CPU: Taktfrequenz + Verlustleistung

Hossa :smile:

Seit einiger Zeit hängt die Taktfrequenz von CPUs bei etwa 3GHz fest. Ich frage mich nun, wieso das so ist.

Je kleiner die Leiterbahnen auf einer CPU sind, desto größer ist deren Ohmscher Widerstand. Also brauchen sie mehr Strom und erzeugen mehr Abwärme. Im Gegenzug wird die Chipfläche kleiner, was wiederum eine höhere Taktfrequenz ermöglicht.

Ich frage mich nun, ob bei 3GHz so eine Art Optimum liegt (Verhältnis Verlustleistung zu Taktfreqzenz) oder ob man einfach technisch noch nicht so weit ist, deutlich höhere Taktraten zu erzeugen.

Gibt es irgendwie eine Formel, die den Zusammenhang beschreibt?

Danke vorab für eure Hilfe

Viele Grüße

Hase

Hallo

Seit einiger Zeit hängt die Taktfrequenz von CPUs bei etwa
3GHz fest. Ich frage mich nun, wieso das so ist.

Je kleiner die Leiterbahnen auf einer CPU sind, desto größer
ist deren Ohmscher Widerstand. Also brauchen sie mehr Strom
und erzeugen mehr Abwärme.

Es geht eher um die immer zahlreicher werdenden Transistoren, die immer mehr Leistung in Wärme umwandeln, und duch die Miniaturisierung wohl im oberen Grenzbereich arbeiten. Natürlich versucht man, mit der Versorgungsspannung der CPU so weit wie möglich herunterzugehen.

Im Gegenzug wird die Chipfläche
kleiner, was wiederum eine höhere Taktfrequenz ermöglicht.

Ich frage mich nun, ob bei 3GHz so eine Art Optimum liegt

Das Optimum hat man bei PCs, die bald schon so viel Wärmeenergie wie ein Toaster freisetzen, schon längst verlassen. Was heute auf dem PC- Markt läuft kann man schlichtweg als Idiotie bezeichnen.
Dazu gibt es grottenschlecht programmierte Software, die die Rechnerleistung im großen Stil verprasst. Wer kann sich daran noch erinnern, dass es möglich war mit einem 120er Pentium Briefe zu schreiben, der Komfort war kaum schlechter als beim heutigen MS- Office.

(Verhältnis Verlustleistung zu Taktfreqzenz) oder ob man einfach technisch noch nicht so weit ist, deutlich höhere Taktraten zu erzeugen. Höhere Taktraten sind sicher mit dem dementsprechenden Aufwand (z.B. Stickstoffkühlung) sicher möglich.

Ein wirklich Fortschritt ist eigentlich nur mit optischen Rechnern denkbar.

Gibt es irgendwie eine Formel, die den Zusammenhang beschreibt?

Die Variable des menschlichen Größenwahns, dass viel mehr ganz viel bringt gehört wohl mit in die Formel.
Nur mal so zum Vergleich: Das Menschliche Gehirn, dass Konsequent auf Parallelverarbeitung und maximale Redundanz ausgerichtet ist, verbraucht gerade mal 15 Watt Leistung, auch wenn das immerhin ca. 10% der gesamten Körperleistung entspricht. Schon alleine um alle Gehirnfunktionen eines Insekts zu simulieren, bräuchte man wohl immer noch einen Server.

hallo.

Ich frage mich nun, ob bei 3GHz so eine Art Optimum liegt
(Verhältnis Verlustleistung zu Taktfreqzenz)

nö. bei 3GHz ist einfach erstmal ende der fahnenstange.
wozu höhere taktraten und mehr speicher vor allem gut sind, wurde schon gesagt:
softwareentwickler schmeißen mit ressourcen um sich, daß es nur so kracht. deshalb kann man mit einem „modernen“ windows und einem „modernen“ office auf einem „alten“ pentium auch nix mehr anfangen.

Gibt es irgendwie eine Formel, die den Zusammenhang
beschreibt?

die gibt es: P = ½ CU²f.
wie man leicht sieht, ist die verlustleistung direkt proportional zur taktfrequenz f.

gruß

michael

Moin!

Ich frage mich nun, ob bei 3GHz so eine Art Optimum liegt

Das Optimum hat man bei PCs, die bald schon so viel
Wärmeenergie wie ein Toaster freisetzen, schon längst
verlassen. Was heute auf dem PC- Markt läuft kann man
schlichtweg als Idiotie bezeichnen.

Richtig. Es würde bei nahezu 0% Verlustleistung liegen. Leider ist es so, daß immer mehr und mehr Leistung nachgefragt wird. Teilweise aus gutem Grund, teilweise aber auch „nur“, weil neueste Spiele eben leistungshungrig sin.

Dazu gibt es grottenschlecht programmierte Software, die die
Rechnerleistung im großen Stil verprasst. Wer kann sich daran
noch erinnern, dass es möglich war mit einem 120er Pentium
Briefe zu schreiben, der Komfort war kaum schlechter als beim
heutigen MS- Office.

Mit Abstrichen beim Komfort aber kaum schlechteren Ergebnissen ging das auch mit dem guten, alten C64 - 1MHz Taktfrequenz, 64kB (!) Speicher.

Höhere Taktraten sind sicher mit dem dementsprechenden Aufwand
(z.B. Stickstoffkühlung) sicher möglich.

Ein wirklich Fortschritt ist eigentlich nur mit optischen
Rechnern denkbar.

Eben. Neben der thermischen Belastung kommen nämlich noch andere unschöne Effekte hinzu. So eine moderne CPU ist bedauerlicherweise auch ein prima Sender, da muß einiges an Schaltungstechnik und Abschirmung investiert werden, nur um zu verhindern, daß sie CPU sich selbst zu sehr stört.

Sicher sind auch höhere Taktfrequenzen möglich, aber dafür ist soviel Aufwand notwendig, daß niemand mehr so eine CPU bezahlen würde. Es muß also unterschieden werden zwischen technisch möglichem und wirtschaftlich sinnvollem.

Munter bleiben… TRICHTEX

Hallo,

Ich frage mich nun, ob bei 3GHz so eine Art Optimum liegt
(Verhältnis Verlustleistung zu Taktfreqzenz)

nö. bei 3GHz ist einfach erstmal ende der fahnenstange.

schon vor etlichen Jahren wurden CPUs mit echten 3,6 GHz hergestellt. Ich schreiben diesen Beitrag gerade auf 4 Xeon Kernen mit jeweils 3,6 GHz, auch wenn die CPUs dabei nicht gerade ausgelastet sind :wink:

Der neue Power7 Prozessor von IBM wird mit mehr als 4 GHz verfügbar sein, Fujitsu hat Sparc CPUs mit gleicher Taktfrequenz in der Pipeline und der Intel Polaris läuft sogar mit bis zu 5,7 GHz.

Da geht nach oben noch so einiges. Aufgrund der durch die hohen Taktfrequenzen entstehenden Probleme weicht man heutzutage aber einfach auf mehrere Kerne und vor allem auf andere leistungssteigernde Maßnahmen zurück.

Technisch ist die Fahnenstange aber mit 3 GHz längst noch nicht erreicht.

Gruß

S.J.

Hallo,
ich weiß ja nicht, was du für einen Toaster verwendest, meiner verbraucht rund 1000 W, meine CPU bei maximaler Last (was nur beim Rendern von Filmen notwendig ist) gerade mal 70 W. Im Normalfall rund 40 W, also ein Fünundzwanzigstel meines Toasters. Udn der Verbrauch wird immer geringer.
Mein erster Rechner war ein Commodore mit 32 k Arbeitsspeicher und einer Taktfrequenz von vielleicht 1MHz. Mit dem konnte man auch schon Briefe schreiben, aber was dabei rauskam, war nicht mehr als auf einer alten Adlerschreibmaschine. Und trotzem waren wir damit zufrieden, aber es ist doch heute wesentlich komfortabler, mit einem ordentlichen Textverarbeitungsprogramm eine Brief zu schreiben, das ein vielfaches der Resourcen benötigt. Damals gab es auch noch kein Internet und E-Mails, und man konnte sich auch sein Wissen nicht ergoogeln.
Die Kosten eines 32 k PC waren damals ca. 5000 DM. Festplatten gab es nicht, dafür ein Floppylaufwerk, das so heiß wurde, dass man damit tatsächlich toasten konnte.
Deine so geprießenes menschliches Gehirne haben das alles hervorgebracht, zusätzlich zwei Weltkriege, Atombomben, Lenkflugkörper und unnötige Videospiele.
Die andere Seite ist, dass wir heute hier in Europa in einer friedlichen Welt leben, die Autmobil- und Medizintechnik auf hohem Niveau sind, auch das sind die Ergebnisse dieser energieeffizienten Denkmaschine und auch der von ihr geschaffenen modernen Computertechnik.

Es ist letztlich völlig egal, ob mein Rechner eine Taktfreuqnez von 3 GHz besitzt und einen Arbeitsspeicher von 4 GB aufweißt. Entscheidend ist, wofür ich dieses Werkzeug sinnvoll einsetze bzw. einsetzen kann. Ich bekomme das alles schon zu einem Preis, den ich vor 30 Jahren für einen Taschenrechner bezahlen musste.

Grüße Culles

Hallo

Damals beim Pentium war es wirklich so. Heute ermöglichen bessere Fertigungstechnologien eine höhere Taktung, aber derren Entwicklung ist zu langsam. Mit der Multicore-Strategie kann man schneller die Leistung steigern.

Gruß
Florian

Mit Abstrichen beim Komfort aber kaum schlechteren Ergebnissen
ging das auch mit dem guten, alten C64 - 1MHz Taktfrequenz,
64kB (!) Speicher.

…sagte dereinst sogar höchstselbst: „64 Kilobyte sollten für jeden genug sein!“

Das ist doch mal ein Wort!

In diesem Sinne, beste Grüße
Jochen

Hei Culles!

ich weiß ja nicht, was du für einen Toaster verwendest, meiner verbraucht rund 1000 W, meine CPU bei maximaler Last (was nur beim Rendern von Filmen notwendig ist) gerade mal 70 W. Im Normalfall rund 40 W, also ein Fünundzwanzigstel meines Toasters.

Ja, aber dein Toaster brngt diese Leistung auf zwei Toast-Broten zu je zwei Seiten mit je . . . 100 cm2. Deine CPU auf 2 cm2. Wenn deine CPU diese Hitzeleistung auch auf 400 cm2 bringen würde, würde ein einfaches Blech zur Kühlung ausreichen.

Mein erster Rechner war ein Commodore mit 32 k Arbeitsspeicher und einer Taktfrequenz von vielleicht 1MHz. Mit dem konnte man auch schon Briefe schreiben, aber was dabei rauskam, war nicht mehr als auf einer alten Adlerschreibmaschine.

Blöder Vergleich.
Auf dem angesprochenen Pentium 120 haben wir mit Win95 und Office 97 gearbeitet. Und das war kein bischen unkomfortabler als die heutigen Versionen. Tatsächlich arbeiten wir hier in der Firma immer noch mit Office97. Es gab bisher eine einzige Funktion in allen Nachfolge-Versionen, die wir als nützlich erachtet haben, und die haben wir mit einem kleinen VB-Script nachgerüstet.
Dafür verbrennen die neueren Versionen reichlich Spiecherplatz und Rechenzeit mit überflüssgen Funktionen und Animationen.

Und hätten uns {acht Upgrades mal 25 Lizenzen mal ~100 Euro = 20k€} gekostet . . . wofür eigentlich?

Es ist letztlich völlig egal, ob mein Rechner eine Taktfreuqnez von 3 GHz besitzt und einen Arbeitsspeicher von 4 GB aufweißt. Entscheidend ist, wofür ich dieses Werkzeug sinnvoll einsetze bzw. einsetzen kann.

Das ist die richtige Einstellung!

Tatsache ist aber, das 95% aller Rechner sich 95% ihrer Zeit nur langweilen und überflüssig Strom verbrauchen. Wenn unsere Sekretärin zum Briefe schreiben und emails lesen einen C2D mit 2 GB Speicher unterm Schreibtsich stehen hat, dann weiss man doch, das irgendwo, irgendwann irgendwas schiefgelaufen ist.

Und warum?
Weil ein Computer heutzutage kein Werkzeug, sondern ein Live-Style-Gerät geworden ist. Weil Betriebssysteme und Software mit immer neuem optischen Kickikram aufgebohrt werden (was soll der Quatsch mit halb durchsichtigen Fenstern? Oder Skins für einen Musik-Player, der nach dem Start eh im Tray landet?), weil es keine sinnvollen Erweiterungen mehr gibt, die den Pöbel zum Neukauf animieren würden. Darum werden ja auch künstliche Grenzen eingebaut (DirectX10 nur ab Vista etc.) - damit man immer neue Systeme kaufen muss, dafür neue Hardware kaufen muss - es ist einfach nur eine gigantische Gelddruckmaschine.

Und wir machen alle schön mit . . .

Eigentlich hätte man sich vor 8 Jahren aus der ganzen Show ausklinken können (tatsächlich hab ich das sogar. P4 mit 1 GB und W2k reicht mir völlig. Und ich mach recht viel Videorendering und -encoding).

lg, mabuse