Mich würde interessieren, wie groß in etwa die derzeitige weltweite Rechenleistung aller Computer ist, wenigstens von Desktop PCs (bzw. Apples) aufwärts, idealerweise mit historischem Trend. Bitte keine Rankings von Supercomputern, die machen kaum sehr viel aus und sind nicht das, was ich suche. Dagegen würden mich auch sehr die Rechenleistung größerer und kleinerer Firmen interessieren, so soll z.B. allein Google mind. über mehrere hundert (!) Teraflops verfügen. Danke!
Das würde mich auch seeeehr interessieren.
Ist es den überhaupt möglich so eine Angabe zu machen?
@ Mods
Diese Frage ist wirklich gut, nur leider im falschen Brett! Vielleicht zu ‚Sonstige Fragen‘ verschieben!??
Gruß
Frank
PS: @Matthias, wozu brauchst du das und was sind Teraflops?
[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]
PS: @Matthias, wozu brauchst du das und was sind Teraflops?
FLOPS sind FLoating point Operations Per Second, Fließkommazahlberechnungen pro Sekunde, eine gebrüchliche Maßeinheit der Rechenleistung:
http://de.wikipedia.org/wiki/FLOPS
Teraflops entsprechend also 10^12 bzw. eine Million Millionen FLOPS. Der Earth Simulator, der derzeit mit Abstand schnellste Supercomputer, hat eine Spitzenleistung von offiziell 40 Teraflops. Google soll laut Schätzungen über eine Rechenleistung von wenigsten 189 bis zu 316 Teraflops verfügen:
http://www.ockhamist.com/archives/000442.html
Ich bin sehr an Nanotechnologie interessiert, und da gibt es von Eric Drexler ein technisches Buch, „Nanosystems“, auf dessen Grundlage wurde ausgerechnet, dass ein Supercomputer wie der Earth Simulator (40 Teraflops) inklusive Kühlung, Speicher und Anschlüssen ein Volumen von weniger als 1 mm^3 einnehmen und statt seinen 13 Megawatt nur etwa 2 Watt verbrauchen würde.
Ausgehend von diesen Infos wollte ich spaßeshalber mal ausrechnen, welches Volumen und wieviel Energie man benötigen würde, um die heutige REchenleistung der WElt in einem so einem Nanocomputer zusammenzufassen. Meine Schätzung wäre: kleiner als das Gehäuse eines heutigen Desktop-PCs, vielleicht auch nur so groß wie ein Radiowecker oder ein Taschenbuch.
hi matthias,
das hast du echt super erklärt! gibt ein *chen!!
Ich bin sehr an Nanotechnologie interessiert, und da gibt es
von Eric Drexler ein technisches Buch, „Nanosystems“, auf
dessen Grundlage wurde ausgerechnet, dass ein Supercomputer
wie der Earth Simulator (40 Teraflops) inklusive Kühlung,
Speicher und Anschlüssen ein Volumen von weniger als 1 mm^3
einnehmen und statt seinen 13 Megawatt nur etwa 2 Watt
verbrauchen würde.
wahnsinn!!
Ausgehend von diesen Infos wollte ich spaßeshalber mal
ausrechnen, welches Volumen und wieviel Energie man benötigen
würde, um die heutige REchenleistung der WElt in einem so
einem Nanocomputer zusammenzufassen. Meine Schätzung wäre:
kleiner als das Gehäuse eines heutigen Desktop-PCs, vielleicht
auch nur so groß wie ein Radiowecker oder ein Taschenbuch.
wird wohl so sein. möchte mal die leistung aller seti@home rechner wissen, is bestimmt auch ordentlich viel.
gruß
frank
Hi,
möchte mal die leistung aller seti@home
rechner wissen, is bestimmt auch ordentlich viel.
in den letzten 24 h waren es knapp 66 TeraFLOPs/sec (laut http://setiathome.ssl.berkeley.edu/totals.html)
Gruß
DT (nicht mehr SETI@home aktiv)
DT (nicht mehr SETI@home aktiv)
Falls du überhaupt noch Interesse an distributed Computing hast, empfehle ich folding@home. Da werden aufgrund theoretischer Modelle Proteinfaltungen berechnet, die anschließend mit der tatsächlichen Faltung des jeweiligen Proteins verglichen werden. Die Hoffnung liegt auf Entwicklung neuer Medikamente, wobei die Ergebnisse aber nicht verkauft, sondern öffentlich verfügbar gemacht werden. Auch für Nanotechnologie kann diese Art Forschung sehr hilfreich sein.
off topic
hi Deep Thought ,
DT (nicht mehr SETI@home aktiv)
warum net??
ciao
frank
SETI
DT (nicht mehr SETI@home aktiv)
Falls du überhaupt noch Interesse an distributed Computing
hast, empfehle ich folding@home.
Habe ich, ich warte erst mal ab, bis boinc funktioniert (http://setiboinc.ssl.berkeley.edu/ap/) darauf sollen dann SETI@home und auch andere Sachen laufen, optional wohl auch parallel (50 % SETI, 50 % Proteine ?).
Damit bin ich wenigstens (wenn auch u.U. nur imaginär) produktiv, während der Rechner im Leerlauf ist.
Proteinfaltung hat halt den Vorteil, dass etwas geleistet wird - ob SETI je was findet halte ich für zweifelhaft.
Macht nix, hat Spaß gemacht.
DT