Externe Festplatte - keinen Zugriff mehr auf Daten

Hallo Jens,

danke für Deine ausführlichen Erklärungen.
Das klingt nicht sehr aussichtsreich für meine Festplatte.
Allerdings wird sie immerhin im Explorer als "Seagate Expansion Drive"angezeigt, nur ein Zugriff auf die Daten ist nicht möglich.
Und - wie in der Antwort an Mille1404 beschrieben - konnten die Dateien auch von „Seatools“ und bei "Pixel8 " auch angezeigt werden.

Eine teure Datenrettung lohnt sich sicher nicht, es geht nicht um berufliche, sondern „nur“ um private Daten.

Lieben Gruß
Dantis

Hallo sweber,

danke für Deinen Beitrag. Ich denke auch, dass es kein Kabelproblem ist, da ich immerhin eine Anzeige im Explorer sehe.
Siehe meine Antwort an Mille1404, was ich inzwischen unternommen habe.
Rechtsklick auf „Seagate Explorer Drive“ kann ich durchaus „Eigenschaften“ ansehen. Allerdings steht da „0 Byte“ als Datenmenge, zugleich, dass die Festplatte randvoll ist (blauer Ring), was nicht stimmen kann. Und unter "Sicherheit steht „Vollzugriff“.

Lieben Gruß
Dantis

Hallo Dantis,

leider gehören eben alle Reparaturversuche, die Du oben aufgeführt hast, zu jenen Maßnahmen, die im Vorfeld hätten hilfreich sein können und jetzt eigentlich nur noch schaden.

Zu „Pixel8“ kann ich auch nur sagen, dass das ganz offensichtlich reine Abzocker sind, denn Deine HDD wird hiermit eben NICHT unter Labor-Bedingungen untersucht, sondern auf Deinem unsicheren Windows-System. Kurz gesagt, solche „Methoden“ sind hanebüchener Unsinn oder machen bestenfalls weit im Vorfeld irgendwie Sinn. Investiere die 99 € lieber in eine eine neue HDD, denn eine Rettung der Daten kann ohnehin nur noch direkt und ohne Umwege (z.B. via Internet) auf einen weiteren Datenträger erfolgen.

Zudem käme ein Upload von 4TB per ADSL 16 auf eine Dauer von ganz grob 15 Monaten – bei konstantem Datenstream und ohne die Verzögerungen beim Scannen! Selbst bei Kabel 100 würde es immer noch 2 Monate dauern.
Also bei den Zahlen sollte wohl klar werden, wie komplett absurd dieses Pixel8-„Angebot“ ist.

Aber im schlimmsten Fall können die Baumstruktur und die Datei-Namen leider tatsächlich verloren gehen. Das wäre dann ohnehin der Fall bei der Verwendung von Windows’ CHKDSK.

Wie Du geschrieben hast, hast Du CHKDSK bereits angewandt. Da wäre jetzt ggf. das Protokoll aussagekräftig (?:\System Volume Information\Chkdsk\ChkdskYYYYMMDDhhmmss.lognur Admin-Zugriff) und die wiederhergestellten Dateien befinden sich unter ?:\Found.###\(DIR####\)FILE####.CHK.

Das unter Found.### hättest Du dann auch von Pixel8 zurück erhalten – nur nach Typ sortiert – was man dann auch selbst machen kann, wenn man sich nur mal die Magic-Number anschaut.

Jaa … so viel zu „Pixel8“ … :unamused:

Was allerdings stimmt ist, dass Deine Daten alle noch auch der HDD vorhanden sind, nur ist eben der Zugriff „erschwert“. Ohne Profi-Kenntnisse nützt die das aber auch nichts und auch alle Tools der Welt können Dir nicht helfen, ohne mindestens fundamentale Kenntnisse in Dateisystemen und da hat Mikrosaft schon vor Jahrzehnten dafür gesorgt, dass sich User damit nicht mehr „beschäftigen“ müssen.

Sorry, wenn das alles nach Miesmacherei klingt, aber leider hat Dich der Worst Case Daten-Gau erwischt und leider hast Du es durch Deine Panik-Handlungen (Selbst-Reparatur) u.U. nur noch schlimmer gemacht.

Wenn Du nicht so viel Geld für die Datenrettung ausgeben willst, bleibt nur noch die letzte Option, privat einen Daten-Forensiker zu finden, also jemanden, der sich mit solchen Dingen (Dateisysteme/NTFS/$MFT/GPT/Linux/dd/etc.) wirklich auskennt. Das kann man auch nicht über eine Fernwartung bewerkstelligen.

Noch ein weiterer Tipp für die Zukunft:

Unterteile solche Backup-Datenträger lieber in mehrere kleinere Partitionen.
Der Vorteil liegt darin, dass wenn einmal die Metadaten (z.B. $MFT) der Partition beschädigt werden – wie es offensichtlich bei Dir der Fall zu sein scheint –, dann sind nicht gleich alle Daten verloren, sondern schlimmstenfalls nur diejenigen, der betroffenen Partition und der Rest bleibt intakt.

Dadurch hast Du zwar einen Mehrbedarf an Laufwerksbuchstaben – welche naturgemäß begrenzt sind –, doch das kann man durch Einhängepunkte (→ Datenträgerverwaltung) wieder (fast) unbegrenzt ausgleichen.

Je größer eine Partition ist, desto größer ist auch der Daten-Verlust in genau solchen Fällen!
Bei mir haben daher Partitionen auch nicht mehr als 512 GB – und das auch nur für sehr große Dateien.

Noch Fragen? Gerne.

Viele Grüße,
Jens

2 Like

Hallo Jens,

danke für Deine weiteren Erläuterungen. Die Festplatte kann ich wohl vergessen.
Kann die drei Wochen seit meinem letzten Sichern immerhin nachvollziehen - ist halt einige Arbeit.
Habe durch Deine Ausführungen aber gelernt, dass ich …

  • künftig noch häufiger sichere, mindestens wöchentlich;
  • beim Kauf einer externen Festplatte darauf achte, dass sie ein Metall-Gehäuse (statt Kunststoff) hat, wegen besserer Wärmeabfuhr;
  • die Festplatte partitioniere, in Partitionen von max. ca. 500 GB;
  • eine solche Festplatte nur für den kurzzeitigen Backup-Einsatz nutze, nicht für stundenlange Sitzungen.

Lieben Gruß
Dantis

Hi,

diese Angebote Online sind alle der größte Quatsch. Das ist ja bereits geschrieben worden.
Die Datenrettungsprogramme über Linux laufen entsprechend, dass man das ganze eben direkt auf seinem Rechner macht. Das sollte aber dann jemand machen der sich damit auskennt.

Schau mal ob du nicht einen Laden in der nähe findest. Die können dir da in der Regel besser weiter helfen.
Wenn du eine Datensicherung von damals hast, dann kannst du diese ja nutzen.
Die Daten die im Anschluss hinzu gekommen sind, kannst du dann ja abgleichen und brauchst nur die neuen Daten nach einer Datenrettung sortieren.

Vor Ort Service in einem Ladenlokal ist in diesem Fall nicht zu ersetzen.

Viel Erfolg weiterhin!

1 Like

@Mille1404:

Sorry, wenn ich da widersprechen muss, aber nicht alle Online-Angebote sind Quatsch und gerade die Vor-Ort-Services sind hier seltenst besonders qualifiziert, was Daten-Forensik betrifft.

Es gibt – im Gegensatz zu diesem Seltsam-Beispiel „Pixel8“ – online durchaus sehr qualifizierte Datenrettungsdienste, die ihr Angebot hauptsächlich online anbieten, weil sie eben räumlich sehr breit aufgestellt sein müssen, um überhaupt wirtschaftlich arbeiten zu können.

Solche Labore müssen einen großen Vorrat von allen möglichen Datenspeichern und Ersatzteilen unterhalten, um eben auch z.B. Bau-Komponenten für die Datenrettung austauschen zu können. Nicht immer ist es nur der „übliche“ Magnetschicht-Schaden, den ich eingangs beschrieben habe. Auch müssen häufig z.B. das Spindel-Lager oder der Controller – in einem Rein-Raum! – ausgetauscht werden, um an die Daten wieder heran zu kommen.

Solche Dinge können Vor-Ort-Services niemals leisten – mal abgesehen von der fachlichen Qualifikation, denn Daten-Forensik ist nichts, was man mal eben „nebenbei“, bzw. in einem Lehrgang lernt.

Vor-Ort-Services sind aber durchaus vorzuziehen, wenn es um den Umbau, bzw. Analyse und Reparatur von Hardware-Komponenten geht. Hierin liegt deren Stärke, bzw. Vorteil. Denn mindestens das Einschicken eines ganzen Desktop-PC’s ist doch wesentlich aufwändiger und teurer, als bei einer kleiner Festplatte.

Die seriösen Datenrettungs-Dienste übernehmen für Letzteres sogar die Versandt-Kosten und berechnen auch nichts, wenn sich ein Kunde – nach der erwähnten Vorab-Besprechung – gegen eine Datenrettung entscheidet.

Der „Trick“, solche seriösen Services zu finden ist auch recht simpel:
eine inhaltliche Internet-Recherche und nicht gleich den erst-besten Google-Treffer wählen! :wink:

Was nun diese Linux-Programme betrifft: ja, damit arbeiten auch die Profis. Aber die nützen einem gar nichts, wenn man nicht ganz genau weiß, was man da tut! Wer hierbei – aus mangelnder Sachkenntnis – Fehler macht, kann sich dann auch ganz schnell die letzten Rettungs-Optionen selbst zerschießen und dann kann auch der beste Profi nichts mehr retten! Das geht Ratz-Fatz!

Gerade User aus dem Windows-Bereich haben hier wirklich seltenst die richtigen Grundkenntnisse. Das fängt schon mit solchen Unbegriffen wie „Laufwerk“ (anstatt „Partition“) an, geht dann über die ausgeblendeten Bereiche im Windows-Explorer (die dann mal einfach vergessen werden) und spätestens bei „$MFT“ verabschiedet man sich dann innerlich … :ghost:

Es sieht einfacher aus als es ist, doch einen Desktop bedienen zu können und ein System zu beherrschen – sowohl Betriebs-System als auch Datei-System – dazwischen liegen Welten. Und deshalb muss ich dringend von solchen Selbst-Versuchen abraten – wenn die Daten und Hardware wichtig sind.

Wer darauf natürlich verzichten kann, der soll es einfach mal probieren. Am Besten lernt man durch Fehler. :stuck_out_tongue_winking_eye:

@Dantis:

Die Größe einer Partition sollte sich nach dem Verwendungszweck richten. Eine 500 GB Partition mit vielen kleinen Dateien (z.B. Bilder) kann bei einem Schaden genauso fatal sein, wie eine 4 TB Partition. Auch die Anzahl der Dateien in einer Partition sollte berücksichtigt werden. Denn letztlich kommt es im Schadensfall auf die Daten-Menge an und da tut der Verlust aller eigenen Dokumente mehr weh, als der Verlust eines HD-Films, wobei beide (grob) dasselbe Daten-Volumen haben.

Erstelle die Partitionen besser nach dem Verwendungszweck, z.B. für Programme/Games (→ leicht ersetzbar, häufiger Zugriff), Eigene Dateien (→ sehr kleine Dateien), Bilder, Musik, Videos/BD-Rips (→ sehr große Dateien), Backup-Sets (→ seltener Zugriff), etc.
Das ist i.d.R. so die beste Methode zu Partitionieren.

Wie auch bereits erwähnt, ist eine regelmäßige Defragmentation angeraten. Kleiner Partitionen haben hier auch wieder den Vorteil, dass diese Defragmentation schneller erledigt ist, was wiederum die thermische Beanspruchung der HDD reduziert. Es muss ja dann auch nicht jedes Mal die gesamte HDD defragmentiert werden, sondern eben nur die Partitionen, auf die neu geschrieben wurde.

Für die Performance sollte man die kleineren Partitionen (mit vielen kleinen Dateien) möglichst an den Anfang der HDD platzieren. Das reduziert die Zugriffszeiten und damit auch wieder die Defragmentationszeiten. Auch häufig genutzte Partitionen (→ lesen & schreiben) sollten am Anfang der HDD stehen, da dort die Zugriffszeiten kürzer sind. Kürzere Zugriffszeiten bedeuten weniger mechanische Arbeit und das bedeutet weniger Hitze-Entwicklung.

Zum Case:
Einfach nur ein Metall-Case ist nicht alleine der Schlüssel. Es kommt darauf an, dass das Metall-Case mit der HDD Kontakt hat, damit hierüber die Hitze abgeführt werden kann. Das kann direkt durch ein besonders enges Case erfolgen oder über Kontakt-Lamellen, welche auf die HDD drücken. Da gibt es unterschiedliche Konzepte.

Sorry, wenn das alles wirklich viel Text ist, aber es ist auch kein Thema für’s Vorbeigehen. Alles bleibt immer einfach in der Bedienung und Wartung – solange es keine Probleme gibt. Aber wenn dann mal solch ein Daten-GAU passiert, ist Holland in Not und dann … hätte, hätte, Fahrradkette … :sob:

Der nächste Daten-GAU kommt garantiert. Es ist nur eine Frage der Zeit. Vermeiden kann man ihn nicht. Aber man kann vorsorgen … wenn man weiß wie. :nerd_face:

Viele Grüße,
Jens

1 Like

Hallo Jens,

danke für diese zusätzlichen Infos.
Werde versuchen, zukünftig besser vorzubauen!
Daten-GAU ist wahrscheinlich ähnlich wie ein Wohnungseinbruch anzusehen: Niemals ganz zu vermeiden, aber wenn Türen und Fenster gut gesichert sind, ist man schon mal auf einer sichereren Seite.

Lieben Gruß
Dantis

Hallo, Mille 1404,

danke auch für Deine Beiträge.
Hier in der Stadt gibt es einen kleinen Laden mit zwei Computer-Freaks, die sich sehr einsetzen - habe ich schon selbst erlebt und auch von andern gehört. Wahrscheinlich wäre es sinnvoller gewesen, die externe Festplatte gleich mal dort hinzubringen - jetzt ist es wohl zu spät. Aber, wie schon geschrieben, der Schaden hält sich in Grenzen, kann die Daten erneut eingeben.

Lieben Gruß
Dantis

1 Like

Die Platte ist kaputt. Du solltest jetzt so wenig wie möglich „irgendwas versuchen“, die Chance, dass noch mehr kaputt geht ist recht groß.

Die S.M.A.R.T.-Parameter könnte man spaßeshalber mal auslesen, manchmal geben die einen Wink in die richtige Richtung.,

Der Effekt der Kühlung wird gemeinhin überschätzt, klar, kochen sollen die Platten nicht, aber 8° machen die Ausfallrate auch nicht besser …

Das halte ich für einen ganz guten Plan. Erstmal ein Image der Platte machen, dann an der Kopie des Images Rettungsversuche machen.

„dd“ und noch vielmehr „dd_rescue“ sind die Werkzeuge der ersten Wahl.

Linux zeigt in der Regel auch deutlich aussagekräftigere Fehlermeldungen an.

Ich würde niemals eine Backup nur auf einem Datenträger machen wollen …

Hmm. Linux macht zumindest bessere Fehlermeldungen :slight_smile:

Lange vorher Dinge mit der Originalplatte zu probieren vermindert übrigens die Chancen, dass hier was zu retten ist.

Manche Dienste haben offenbar auch ein sehr unseriöses Geschäftsmodell. Wollte ich nur mal erwähnen.

Amen!

Das kann ich nur unterstreichen. Obwohl meine privaten Rechner gut gekühlt sind und im Betrieb nicht bewegt werden sind mir schon so einige Platten gestorben.

Da ist irgendein Konzept schon sinnvoll. Der Festplattentod kommt. Todsicher.

1 Like

Darum wird auch immer ein unteres Limit angegeben. Wer seine HDD so weit herunter kühlt muss sich dann nicht über Korrosion durch Kondensat wundern! Außerdem erzeugt man damit ebenso extreme Temperaturschwankungen in einer Umgebung mit Raumtemperatur, welche dann wiederum zu schnellerem Zerfall führen.

Die Kühlung derart zu übertreiben ist genauso tödlich, wie sie zu ignorieren oder zu unterschätzen.

Ich möchte hier nicht um Sinn und Unsinn von Kühlung, bzw. Temperierung von HDD’s diskutieren. Tatsächlich werden nicht umsonst die meisten HDD-Defekte – innerhalb der ersten 2-4 Jahre – von Usern gemeldet, die sich eben NICHT um die Temperaturen kümmern. Und spätestens die Hersteller würden auch keine Temperaturbereiche angeben, wenn das nicht wirklich wichtig wäre.

Die User-seitige „Ignoranz“ dieses Punktes ergibt sich einfach aus den Umständen, dass die physikalischen Degenerationen nie von den Usern selbst beobachtet werden. Auch der zeitliche Kontext – im privaten Konsum-Bereich – beginnt erst nach ca. 20 Jahren, auffällig zu werden und schließlich sind wir es inzwischen gewohnt, dass nichts länger hält als maximal 5 Jahre. Und nicht zu vergessen: „Shit happens“ …

Ja, meine auch. Aber dazu bedarf es dann eben doch wieder tiefer gehende Kenntnisse der Materie. Doch auch mit diesen Tools treten immer mal wieder Ausnahmen auf, die manueller Nacharbeit bedürfen. Das ist einfach nichts für Anfänger und im Notfall schon gar nichts für Windowsianer, die sich überhaupt erst mal in Linux reinarbeiten müssen.

Das stimmt definitiv. Doch das hat nichts mir Fehler-Toleranz zu tun.
Das war allerdings auch nicht positiv gemeint, denn dadurch bleiben eben solche Fehler-Meldungen unberücksichtigt und dann geht das eine oder andere Device „ganz plötzlich“ kaputt.

Danke für den Link.

Bei „[…] behauptet bei einem ersten Telefonat gar, dass die Magnetscheibe defekt sei“ musste ich laut lachen! :rofl::joy:

1 Like

OK, dann will ich Dir diesen Bericht mal auseinander nehmen:

Zunächst einmal bewegen wir uns hier im Data Center Bereich mit konstanter Umgebung und effizienterer Kühlung! Das sieht im PC-Bereich völlig anders aus.

Die gelisteten Durchschnitts-Temperaturen bewegen sich allesamt im Ideal-Bereich (→ „And almost all of the drives are in the nice comfortable range from 15° to 30°.“). Dass eben hier die Temperaturen eher eine untergeordnete Rolle spielen, ist dann mehr als offensichtlich.

Zudem sind Durchschnitts-Temperaturen auch wenig aussagekräftig. Relevant für das Versagen der Magnetschicht sind die Peaks und die Dauer der Peaks. Denn erst jetzt beginnt der Hitze-Stress zu wirken. Bei unter 30°C ist das noch kein Thema.

Wie aber bereits erwähnt, kommt es hierdurch nicht zum sofortigen Ausfall, sondern zunächst erst zu unbedeutenden Mikro-Schäden. Diese wiederum verstärken sich aber (durch verschiedene Faktoren) mit der Zeit zunehmend, bis die ersten Sektoren „ausfallen“.

Doch selbst das geschieht auch nicht von jetzt auf gleich, sondern auch hier gibt es im Vorfeld Fehler-Verzögerungen, welche im normalen Betrieb aber leider nicht auffallen, bis diese Fehler-Raten durch den Controller oder den Treiber nicht mehr ignoriert werden können. Die meisten User missinterpretieren dann aber merkbare Verzögerungen als die übliche Trägheit des OS (bzw. Windows).

Im End User Bereich hingegen – und ganz besonders bei externen Festplatten – werden Ruck-Zuck und dauerhaft Temperaturen erreicht, die in diesen Listings nicht mal erwähnt werden. Da geht es über die Maxima (ca. 60°C) auch schon mal dauerhaft hinaus. Aber selbst ab ca. 50 °C entsteht schon Hitze-Stress, der die Lebensdauer erheblich reduziert.
Diese herstellerseitigen Extrema sind Richtwerte und keine Drop-Points!

Wenn ein Data Center unter solchen Bedingungen wie im End-User-Bereich arbeiten würde, wären die ganz schnell pleite!

In diesem Einsatz- und Temperatur-Bereich spielen eher die generelle Modell-Qualität und natürliche Schwankungen in der Produktions-Qualität eine tragende Rolle.

Auch der hier genannte Bezug auf „Green“ HDD’s ist eher undurchdacht. Sicherlich ist der Gedanke an niedrigere Betriebstemperaturen durch niedrigeren Energieverbrauch völlig richtig. Doch die Hersteller investieren im Green-Bereich dann auch nicht mehr in die gleiche Material-Qualität wie bei den High-End-HDD’s. Diese Green-HDD’s sind auf Kante genäht – um sie günstig zu halten – und dadurch erreichen sie dann auch per se nicht mehr die Lebensdauer der High-End-Geräte, vor allem dann, wenn sie dauerhaft betrieben werden, wie in einem Data Center.

Dennoch sei angemerkt, dass sich der Einsatz – bei einer gesamt-durchschnittlichen Lebensdauer von 2 Jahren – betriebswirtschaftlich und kurzfristig rechnet.

Backup-Data-Center sind eine ganz andere Welt und diese müssen auch ganz anders kalkulieren und gehen hier auch kein Risiko ein. Hier müssen Daten für Jahrzehnte aufbewahrt werden und da wird man diese Billigheimer-Modelle nicht finden. Die Preise liegen dann dementsprechend auch ein „klein wenig“ anders.

Alles in allem würde ich auch keines der hier gelisteten Modelle als Backup-Datenspeicher empfehlen. Für den Einsatz als OS- oder Cache-Disk sind sie völlig OK und empfehlenswert. Nur sollte man seine eigenen (wichtigen!) Dateien – ggf. auch Einstellungen – (Win: C:\Users\*, Mac: /Users/*, *nix: /home/*) beim Einsatz hiermit sicherheitshalber auf eine High-End-HDD auslagern.

Im privaten Bereich geht es schnell ins Portemonnaie, wenn man sich alle 2 Jahre eine neue Backup-Disk kaufen muss. Zudem ist das Spiegeln (RAID) als zusätzliche Sicherheits-Maßnahme bei externen HDD’s (NAS mit RAID ausgenommen) völlig sinnfrei – mal ganz abgesehen von der Verschwurbeltheit :stuck_out_tongue_winking_eye:. Das kann man keinem 08/15-User zumuten.

Doch letztendlich und vor allem ist der Verlust der Backups unbezifferbar.

Der Artikel war recht interessant, doch für den End-User-Bereich leider überhaupt nicht aussagekräftig.

Das kann ich nicht beurteilen, meine privaten Platten laufen deutlich kühler (und bei externen Gehäusen habe bislang auf eher gute Wärmeableitung geachtet, aber nicht gemessen.

Das verlinkte Google-Paper suggeriert, das 15° für Platten alles andere als komfortabel ist. 40° C dahingegen schon.

Die „Consumer-Platten“ - ob sie nun grün, rot, blau oder lila sind (um mal bei WD zu bleiben) unterscheiden sich hauptsächlich in der Firmware, die Prioritäten an bestimmte Anforderungen anders setzt und nicht so sehr in der Hardware.

Das sehen die Leute mit den vielen Platten definitiv anders:

Zumindest Backblaze fährt genau die Strategie mit den Consumer Drives, weil die Investition in Enterprise-Versionen nicht lohnend erscheint. Und die Zahlen, die sie nennen (und regelmäßig veröffentlichen) klingen für mich überzeugend.

Das mache ich nicht …

Ob es sinnfrei ist sei dahingestellt, ein Ersatz für Backup ist es jedenfalls nicht.

Warum siehst Du einen pronzipiellen Unterschied zwischen RAID im Rechner und RAID im NAS?

Yo

Dann scheinst Du zu den wenigen Ausnahmen zu gehören, die hierauf achten. Die allermeisten User haben hiervon keinen blassen Dunst. Die kaufen so etwas, weil es ihnen irgend jemand gesagt hat.

Also 15 °C ist schon recht kühl. Ideal ist eher Raumtemperatur, denn da bleiben die Schwankungen beim Ein/Aus-Schalten niedrig und DAS ist der Haupt-Stress für die HDD’s.

Im 40°C Bereich hingegen sind kaum noch Messdaten verfügbar.

In einem Data Center herrscht natürlich ein ganz anderes Umgebungs-Klima als beim Home/Office-User. Daher sind beide Einsatz-Szenarien auch nicht wirklich direkt miteinander vergleichbar.

Wenn lediglich die Firmware den Unterschied machen würde, dann kämen nicht solch große Preis- und Qualitäts-Unterschiede zustande. Das lässt sich auch nicht mit Marketing-Strategien plausibel erklären. Die Firmware der High-End-Disks ist schon etwas cleverer, aber das Gros macht einfach die Material-Qualität.

Wenn Du Dich mal mit Werkstofftechnik befasst, wird Dir schnell klar, welch großen Unterschied geringste Abweichungen in den Komponenten-Konzentrationen ausmachen. Das macht sich dann nicht nur in den Material-Eigenschaften bemerkbar, sondern auch im Einkaufs-Preis.

Zunächst einmal werden hier für Consumer-Disk Redundanzen eingesetzt, was bei den Enterprise-Disks nicht geschieht. Das alleine verzerrt die Data-Life-Cycles bereits. Hinzu kommt, dass die Menge der Drive-Jahre der Consumer-Disks um den Faktor 40 – bei einem sehr kleinen Enterprise-Disk-Wert – übersteigt und damit sind beide Ergebnisse nicht mehr direkt vergleichbar. Aber schließlich sagen sie selbst, dass sie mit den Enterprise-Disks nicht mal 2 Jahre Erfahrung gesammelt haben. Das wird dann aber lapidar mit „Da bin ich skeptisch, dass da später noch was Anderes heraus kommt“ quittiert.

Sorry, aber so was kann ich nicht ernst nehmen! :unamused:

Nur weil irgend jemand irgendetwas irgendwo in einem Artikel gepostet hat, muss es noch lange keine fundierte oder qualifizierte Aussagekraft haben. Ohne ein Mindestmaß an Plausibilität reichen solche Artikel leider an das BILD-Niveau heran.

Ich will die fachliche Kompetenz des Autors hier keinesfalls herabwürdigen, aber der Artikel ist leider – aus den aufgeführten Gründen – NICHT plausibel. Auch liegt es mir fern, die Qualität dieses Data Centers zu diskreditieren. Letztlich bleiben die Daten der Kunden gesichert – egal mit welchem Material-Einsatz – und nur darauf kommt es bei der Wahl eines solchen Services an.

Glaube nie einer Statistik, die Du nicht selbst gefälscht hast!

Du musst immer hinter die Zahlen blicken. Die Ergebniss-Werte klingen bei solchen Berichten immer total überzeugend – insbesondere dann, wenn man nicht selbst in der Materie drin steckt. Doch wenn man sich mal mit dem Weg der Ergebnissuche befasst, werden ganz schnell die (Gedanken-)Fehler offensichtlich, die beim Anlegen dieser Messdaten gemacht wurden.

Selbst denken ist immer anstrengend, hilft aber meistens weiter. :wink:

Tu ich nicht.

Ich wollte in meinem Satz darauf hinaus, dass ein RAID-Verbund bei separaten externen HDD’s zwar machbar, aber sinnfrei ist (wegen der möglichen Implikationen). Ein NAS hingegen ist schließlich auch ein externer Speicher. Doch RAID in einem (externen) NAS ist – genau wie intern auch – aber leicht und problemlos zu bewerkstelligen und so macht es auf letztlich dann auch Sinn.

Google hat die niedrigste AFR (annual failure rate) zwischen 37 und 45°C beobachtet … Mein Gefühl sagt mir :wink: dass n>10.

Na, nun mal Butter bei die Fische: welche Temperaturen haben die Platten denn in einem Data Center?

Das nenne ich mal Optimismus. Wenn ich schon alleine die Autohersteller sehe, die sich das Freischalten von irgendwelchen ohnehin enthaltenen Software-Funktionen aberwitzig bezahlen lassen. Und auch in meinem beruflichen Bereich sehe ich, wie billigstes Zeug nach Aufdruck des „richtigen“ Aufklebers etwa um den Faktor 70 (!) im Preis klettert.

Ich hab da wenig Illusionen.

Und die Enterpriseplatte merkt, dass Redundanzen eingesetzt werden und verschlechtert sich dann beleidigt, weil sie wie eine öde Consumerplatte eingesetzt wird.

Das ist so einfach kompletter Unsinn. Nur weil der Anteil der HIV-Infizierten in Deutschland recht gering ist (Faktor 1000) ist es trotzdem sinnvoll möglich, Überlebensraten zu vergleichen und sinnvoll zu bewerten,

Das war 2013, die Zahlen von 2018 geben auch nicht mehr her, allerdings sind auch da nur recht neue Platten bewertet.

Ich kann verstehen, wenn Du argumentierst, der Zeithorizont sei zu kurz, damit die Enterprise-Platten ihre Vorzüge ausspielen können („more data needed“). Aber einfach nur zu sagen, das sei nicht Plausibel erscheint mir etwas dünn.

Was ist denn daran unplausibel? Dass die Enterprise-Platten nicht viel toller sind, so wie in der Werbung besprochen?

Das ist ein von Hardwareherstellern unabhängiger Betreiber eines Datencenters mit Schwerpunkt auf Datenspeicherung, der regelmäßig und recht transparent Zahlen veröffentlicht. Ich kann an den Daten nichts anrüchiges finden (nun gut, vielleicht bestätigen sie eben nicht Deine vorgefasste Meinung).

Wenn Du bessere Zahlen hast, die die Qualität Platten anders bewerten und insbesondere ein besseres Ergebnis bei Enterprise-Platten liefern: gerne.

Aber bitte kein Herstellermaterial. Über die Validität von solchen Herstellerangaben haben wir in den letzten Jahren ja von unseren deutschen Diesel-Deppen einiges lernen dürfen …

Das ist ein ziemlich blöder Spruch und deine obigen Ausführungen lassen erkennen, dass Dir die Methoden und die Möglichkeiten einer validen Statistik nicht übermäßig geläufig sind.

Aber wenn Du bessere Zahlen hast: Gerne.

Welche denn konkret (außer dem bereits genannten Kritikpunkt, dass die Platten vielleicht länger hätten betrieben werden müssen)? Und was meinst Du mit „Anlegen von Messdaten“? Mir klingt das sehr nach einem inneren Widerspruch oder nach der Unterstellung, hier werde bewußt gefälscht.

Ein Satz von völlig folgenloser Richtigkeit …

Mich würden mal Deine Zahlen interessieren, auf deren Grundlage Du argumentierst, also eine Quellenangabe.

1 Like

Ich habe mich in diesem Satz auf das „Umgebungs-KLIMA“ bezogen. Das ist etwas Anderes und berücksichtigt mehr Faktoren als nur die Temperatur.

Da vergleichst Du Äpfel mit Schnitzeln. Wie gesagt, beschäftige Dich mal mit Material-Technologie und dann dürfte es Dir klar werden.

Gehen Dir langsam die Argumente aus, dass Du das hier ins Lächerliche ziehen musst?

Das ist wieder Äpfel mit Birnen vergleichen. Der Faktor alleine ist nicht aussagekräftig. Die absoluten Mengen in Relation zum Faktor aber schon eher.

Und darauf habe ich hingewiesen.

Ich habe alles ausführlich erklärt. Du argumentierst nicht mehr.

Ich beziehe mich nicht auf Werbung – das ist nicht meine Welt –, sondern auf jahrzehntelange Erfahrungen (nicht nur mit Festplatten).

argumentum ad hominem … der Argumentations-Killer … :roll_eyes:

Muss ich nicht. Ich habe lediglich die Fehler in den von Dir angebrachten Statistik-Auswertungen aufgeführt.

Zu einer „validen Statistik“ gehören Methoden, die einer kritischen Prüfung standhalten (der Begriff wäre eigentlich selbsterklärend gewesen). Es reicht eben nicht, einfach nur vorgekaute Berichte unkritisch hinzunehmen.

Das habe ich versucht Dir sachlich und unvoreingenommen aufzuzeigen.

Was Du nun damit anfängst, bleibt Dir überlassen.

Dann möchte ich mal von Dir erklärt haben, inwiefern Redundanzen einen Einfluß auf „Data-Life-Cycles“ (Deine Definition ist wie genau?) haben und wie sich das auf die Festplattenlebensdauer auswirkt. Ich kann Deiner Argumentation nämlich nicht folgen.

Mal sehen …

Naja …

Nein. Niemand muss was, nur aufs Klo und am Ende sterben.

Dafür dass Du Dich nicht einmal bemühst, auch nur ein Factoid hier aufzuführen lehnst Du dich meiner Meinung echt weit aus dem Fenster.

Ihr habt doch beide haufenweise Ahnung vom Thema und seid eine Bereicherung für www. Wollt ihr euch nicht einfach vertragen, bevor jemand richtig beleidigt ist?

1 Like

@anon45458312:
Danke für Deine netten Worte, aber ohne Sachlichkeit bin ich sowieso raus …