Neuer Prozessor sinnvoll ?

Hallo,
Ich betreibe zur Zeit einen [email protected] GHz mit 4 Gig RAM .
Anwendungen: Hauptsächlich CFD und einige selbstgeschriebene
Algorithmen für DGL-Systeme. Ab und an ein Spiel …
Würde es sich lohnen (im Sinne von „bemerkbar machen“), auf einen
i7 upzudaten ?

MfG

Sven

Hallo,

Ich betreibe zur Zeit einen [email protected] GHz mit 4 Gig RAM .

ein Q9400 ist normal aber für 2,66GHz spezifiziert.

Anwendungen: Hauptsächlich CFD

Ein Kollege benutzt für sowas einen Boliden mit 2 Quadcore-CPU.

und einige selbstgeschriebene Algorithmen für DGL-Systeme.

Können die Programme den 4 Kerne effektiv nutzen?
Wie sieht es mit Cachelast aus?

Ab und an ein Spiel …

Kommt drauf an, welche.

Würde es sich lohnen (im Sinne von „bemerkbar machen“), auf einen
i7 upzudaten ?

Kommt drauf an. Wenn du genauer erklärst, wie die CPU genutzt wird,
kann evtl. auch JesseBee noch seine vielfältigen Erfahrungen bekannt geben.
Gruß Uwi

Hallo,

kann evtl. auch JesseBee noch seine vielfältigen Erfahrungen
bekannt geben.

die numerische Mathematik ist nicht gerade das Feld, wo der Jesse sein Gemüse pflanzt. :smile:

Wegen der Stömungsberechnungen würde ich den Softwarehersteller anfragen. Geht am schnellsten und die wissen das am Besten, weil sie ihre Programme ja auf diverser Hardware testen.

Bei Mathematica zieht der Core i7 z.B. keinen Leistungsgewinn aus seinen 8 virtuellen Cores und ein identisch getakteter Core2 Duo mit 12 MB L2-Cache ist quasi genauso schnell. Bei anderer Software sieht es ganz anders aus, das kann man auch nicht logisch herleiten.

Gruß, Jesse

1 Like

Nunja, die virtuellen Cores …
Wir haben da mal einen Vergleich gemacht:
Fluent auf einem P4 mit HT. Einmal auf 2 „Cores“, einmal auf
einem. Auf einem lief es schneller.
Naja, ansonsten einfach mal bei Ansys anfragen, ist schneller.
Die andere Sache: Sind in C++ geschriebene, parallelisierte Programme
fürs particle tracking, also der Nachverfolgung von Teilchen im
Strömungsfeld. Da die Modellvorstellung von keinerlei
Partikel-Partikel-Wechselwirkung ausgeht, lässt es sich wunderbar
parallelisieren.
Ob da nun der i7 was bringt oder nicht, nunja.
Ich hab ja schon massiv übertaktet, dass bring auf jeden Fall was :smile:
Die Frage ist halt: Ist der i7 bei meinen Anwendungen schneller (bei
gleichem Takt) oder nicht.
Ist schon komisch, früher war 1 Jahr alte Hardware hoffnungslos veraltet, heute immer noch up to date …
Gruss

Moien

Die andere Sache: Sind in C++ geschriebene, parallelisierte
Programme fürs particle tracking, also der Nachverfolgung
von Teilchen im Strömungsfeld. Da die Modellvorstellung
von keinerlei Partikel-Partikel-Wechselwirkung ausgeht,
lässt es sich wunderbar parallelisieren.

Wie viele Partikel sind es und wieviel Bytes pro Partikel benutzt das System? Dann könnte man nämlich abschätzen ob der ganze Schmoder in den Cache past oder nicht …

cu

Hallo,

Nunja, die virtuellen Cores …

Mein Kollege hat das mal untersucht. Frage micht nicht nach Details.
Es hat festgestellt, dass es bei seinen Simulationen erst Vorteile
bringt, wenn engmaschig gerechnet wird. Bei 5 Mio Rechungen war kein
Vorteil mit virtuelen Kernen messbar, aber bei 50mio. dann schon sehr
deutlich.

Ist schon komisch, früher war 1 Jahr alte Hardware
hoffnungslos veraltet, heute immer noch up to date …

Es gibt tatsächlich eine gewisse Beruhigung bei diesen Technologien.
Das Moorsche Gesetz flacht also ab.
Ist aber auch gut so. Es hat ja gewaltig genervt, dass man aller paar
Monate neue Hardware brauchte.

Man ist offensichtlich an Grenzen gekommen, die sich nicht mehr so
schnell rauschschieben lassen, ohne ganz erhebliche Investitionen
zu machen.
Gruß Uwi

CUDA?
Moin,

Man ist offensichtlich an Grenzen gekommen, die sich nicht
mehr so
schnell rauschschieben lassen, ohne ganz erhebliche
Investitionen
zu machen.

Da geht schon einiges. Bei Intel steht bis 8 nm auf der Agenda. Ich denke aber, der Markt, bzw. ein großteil des Marktes braucht keine besseren Prozessoren mehr. Bei ‚normaler‘ Arbeit, auch bei Spielen, merkt man kaum mehr was von neuen Prozessoren. Auch deswegen versucht Intel momentan, Raytracing zu forcieren: das geht besser mit Prozessoren.

@topic:
Ich denke, am meisten würde es bringen, auf CUDA umzusteigen, und die Berechnungen von der Grafikkarte erledigen zu lassen. Die ist bei solchen, massiv parallelen Berechnungen bis zu 14 Mal schneller als ein CPU. Nicht umsonst gibt es Nvidia PhysX, wo die Physikberechnungen auf die Grafikkarte ausgelagert werden. CUDA fähig ist jede Nvidia Karte ab Generation 8. Natürlich gibt es professionelle Angebote (Nvidia Tesla) aber das ist wohl ein bisschen überdimensioniert. Heute schon mit CUDA läuft z.B. SETI@home oder das Schwesterprojekt Astropulse. Ist wirklich viel viel schneller als mit der CPU.