Externe Festplatte - keinen Zugriff mehr auf Daten

Liebe Fachleute,

habe eine externe Festplatte:
Seagate, Expansion Portable Drive, PN: 1TEAP6-500 2 TB
und betreibe diese alternativ an

Laptop, Lenovo
64-Bit-Betriebsystem, x64 basierter Prozessor
Windows 10 Pro, Version 1903, USB-Anschluss 3.0
bzw. an
Desktop-Computer,
64-Bit-Betriebssystem, x64-basierter Prozessor
Windows 10 Home, Version 1809, USB-Anschluss 3.0

Normalerweise erkannte sowohl der Laptop als auch der DT-Computer die Festplatte problemlos, gleich ob ich sie vor oder nach dem Gerätestart eingesteckt hatte (habe sie vor dem Entfernen natürlich ordentlich abgemeldet oder Gerät mit angeschlossener Festplatte heruntergefahren).

Nun habe ich das Problem, dass ich auf die Festplatte weder vom Laptop noch vom DT-Computer zugreifen kann.
Sie wird zwar auf beiden Geräten im Explorer angezeigt (jedoch ohne Symbol, nur mit einem weißen Rahmen als Symbol), und auch die blaue Kontroll-Lampe an der Festplatte brennt, eine leichte Vibration des Gehäuses zeigt auch an, das sich etwas darin bewegt. Klickt man jedoch auf das kleine Rahmen-Symbol im Explorer, bekommt man die Meldung: „Auf E: kann nicht zugegriffen werden, Zugriff verweigert.“

Steckt man die Festplatte erst nach dem Gerätestart ein, wird gemeldet, dass es ein Problem mit ihr gäbe und man sie reparieren solle; doch wenn man auf die „Reparatur“-Zeile klickt, kommt wieder die Meldung: „Auf E: kann nicht zugegriffen werden …“, wie oben.

Habe zwar eine Datensicherung vom 05.10., aber in den 3 Wochen seitdem habe ich auf der Festplatte gearbeitet und bräuchte die Daten …
Hat jemand eine Idee, wie ich an diese noch herankommen kann?

Liebe GrĂĽĂźe
und schon mal Danke im Voraus fĂĽr Hilfe,
Dantis

Da es auf 2 Rechnern nicht funktioniert würde ich zunächst mal die Rechner ausschließen und das Problem an der Festplatte suchen.

Demnach wäre mein erster Versuch der Tausch des USB Kabels. Vielleicht ist hier ein Fehler vorhanden.
Wenn dies auch nicht funktioniert, und die Möglichkeit besteht, dann mal einen LINUX basierten Rechner probieren. Manchmal funktioniert auch das.
Alternativ auf dem eigenen Rechner eine 2. Partition erstellen und Linux installieren.

Evtl. hilft auch ein Datenrettungsprogramm. Da gibt es über google sehr viele zu finden. Diese schaffen auch Daten von Geräten zu holen, die nicht erkannt werden.

Wenn alles nicht hilft, dann gibt es Firmen die die Daten von der Festplatte auf anderen Wegen retten können.

Viel Erfolg.

1 Like

Und wenn das auch nicht hilft:
In so einem externen Speicher stecken ĂĽblicherweise zwei Dinge:

  • die Platte/SSD
  • ein USB<->SATA konverter

Wenn letzterer kaputt ist, könnte man das Gehäuse öffnen, die Platte rausnehmen und an einem externen Konverter betreiben - oder man besorgt sich ein neues Gehäuse mit USB-Anschluss. Gibt’s im Asien-Import zum Teil für < 5 Euro.

GruĂź,

Kannitverstan

1 Like

Hallo!

An ein defektes Kabel glaube ich nicht - schlieĂźlich merkt Windows mindestens, daĂź das ein Laufwerk, und keine Maus ist.

Die Meldung klingt nach einem Berechtigungsproblem statt nach einem Hardwareproblem.

Was passiert denn bei einem RECHTSKLICK auf das Symbol? Kannst du die Eigenschaften angucken? Interessant wäre z.B., was im Reiter Sicherheit so alles steht.

2 Like

Hallo Dantis,

vorweg gleich mal, Festplatten sind eines meiner Spezialgebiete und Deine Festplatte scheint so richtig im Eimer zu sein, wenn sie bei Deinen beiden Systemen nicht mehr erkannt wird.

Es ist ein übliches Symptom von externen HDD’s, dass sie den Überhitzungstot sterben, da die meisten (günstigeren) externen Gehäuse sehr schlecht die Hitze ableiten, was wiederum bei HDD’s essentiell ist. Überdies verschlechtert sich die Gesundheit der HDD sehr rasch, wenn eines dieser „tollen“ Kunststoff-Gehäuse verwendet wird. Die lassen die Geräte zwar nicht so heiß werden, dass man sie nicht mehr anfassen kann, doch das ist eben der Isolationseffekt von Kunststoff: die Hitze wird nach innen isoliert und damit gestaut, anstatt sie abzuführen!

Die Speicherung bei HDD’s erfolgt über eine magnetisierbare Trägerschicht, welche sehr anfällig für Hitze und vor allem Hitzeschwankungen ist. Dies wirkt sich so aus, dass anfangs überall nur ganz feine Mikrorisse entstehen, welche aber dann mit der Zeit – und unter weiterer Hitzezufuhr – zunehmend größer werden. Dadurch verliert dann diese Trägerschicht zunehmend ihre Speicherfähigkeit. Solche Material-Fehler können in einigen Bereichen gravierender (→ defekte Sektoren) und in Anderen unauffälliger (→ ggf. i.d.F. reparierbare Dateisystem-Fehler) sein. Dieser Effekt ist aber schleichend progressiv und kann anfangs noch durch Fehlerkorrekturmaßnahmen des HDD-Controllers ausgeglichen werden, doch irgendwann reichen diese Techniken auch nicht mehr und dann ist „plötzlich“ Schluss.
Das Ganze geht sogar irgendwann so weit, dass sich – verstärkt durch die hohen Rotations-Geschwindigkeiten – kleinere Partikel dieser Schicht ablösen und dann ist auch wirklich nichts mehr zu retten.

Aus diesem Grund wird bei jeder HDD herstellerseitig auch immer eine Maximal-Temperatur angegeben und gemessen (S.M.A.R.T.), welche man tunlichst nicht erreichen sollte – oder wenn doch, dann nur selten und als kurzzeitiger Peak.
Wenn man aber (u.a.) für eine gute Kühlung der HDD sorgt, kann diese sogar bis zu 10 Jahren halten (bei guter Qualität – z.B. Samsung, WD – sogar 20 Jahre!), anstatt der üblichen 1-2 Jahre.

Mittlerweile spielt für die Lebensdauer aber auch die Größe des Datenträgers eine tragendere Rolle. Je größer die HDD, desto anfälliger wird sie, da sich die physikalischen Sektor-Größen verkleinern und somit Material-Fehler auch relevanter werden. (Ich empfehle für Backup-HDD’s nur max. 4 TB.)

Mal ganz einfach ĂĽberlegt:
Was nützt Dir ein Daten-Backup, wenn dieser Backup-Datenträger selbst ein Backup benötigt?

Im Vorfeld dieser Ereignisse hätte es noch diverse Möglichkeiten gegeben, die Daten mit Board-Mitteln zu retten, doch wenn die Schäden so weit fortgeschritten sind, dass sogar Windows – und das ist hier das am meisten Fehler-tolerante OS! (→ was aber eben in solchen Fällen eher nachteilig ist) – die HDD nicht mehr erkennt, dann hilft leider nur noch ein professioneller Datenrettungsdienst.
Leider ist ab hier auch der (User-seitige) Einsatz eines Linux-Forensik-Systems zur Datenrettung viel zu spät.

Jetzt kommt es nun auf die Wichtigkeit Deiner Daten an, denn das kann einige hundert Euro kosten (ganz grob ab 500 €). Zudem kommt noch hinzu, dass dieser Service keine Garantie auf Wiederherstellung Deiner Daten bieten kann, doch das ist eben in solchen Fällen die allerletzte Chance überhaupt noch etwas zu retten. Manche Dienste bieten aber die Möglichkeit nichts oder nur eine kleine Gebühr zu zahlen, wenn eine erfolgreiche Rettung unmöglich erscheint und keine tieferen Rettungsversuche unternommen wurden. Das wird dann auch vorher kommuniziert.

Übrigens führt JEDER weitere Versuch Deinen Datenträger zu lesen, zu weiteren, progressiv fortschreitenden Fehlern, denn Windows selbst setzt zusätzlich einige weitere (aggressivere) Mechanismen ein, die zwar im Vorfeld hätten hilfreich sein können, aber in diesem schlechten Zustand den Datentod nur noch beschleunigen und eine Rettung erschweren, bzw. unmöglich machen!
Ganz besonders der Einsatz vom beliebten Windows-Hausmittel „CHKDSK“ (Fehlerprüfung) gibt Deinen Daten ab hier den Rest – falls es Dir doch nochmal gelingen sollte, die Partition(en) anzusprechen!
Also: FINGER WEG VON WEITEREN VERSUCHEN !!!

FĂĽr die Zukunft:
Besorge Dir ein vernünftiges externes HDD-Gehäuse mit einer effektiven Kühlung. Wird eine externe HDD nur selten angeschlossen – was in jedem Fall für Backup-Datenträger sinnvoll ist –, reicht meist schon eine gute Passiv-Kühlung (z.B. von IcyBox). Aktiv gekühlte Gehäuse sind oft teurer und mit angenehm größeren Ventilatoren (die Kleinen fiepen sehr unangenehm), hat man meist schon gleich eine NAS-Station.
Allerdings wäre selbst eine gute NAS-Station immer noch billiger gewesen, als ein Datenrettungs-Dienst!

Noch eine Zusatzinfo:
Oft werden an dieser Stelle – von „Spezis“ – SSD’s als Alternative zu diesen „anfälligen“ HDD’s angebracht. Leider gibt es hiermit ganz andere Probleme und deren Lebensdauer ist wiederum von ganz anderen Faktoren abhängig. Reale Alltags-Messdaten sind hier einfach noch nicht existent, da die Technologie eben nicht so alt und verbreitet ist. Allerdings lässt sich anhand der Technologie-verwandten Flash-Drives schon erahnen, dass – trotz des verbesserten Technologie – auch hier die Lebensdauer unter idealen Bedingungen kaum über 5-7 Jahre hinaus hält und zudem eine permanente Überwachung erfordert.
Im Gegensatz zu HDD’s führt hier der Verlust von speziellen Datenbereichen auch zum unwiederbringlichen Verlust der gesamten Daten! Wo bei HDD’s mit etwas Bastelarbeit sogar schwer beschädigte Bereiche wiederhergestellt werden können, ist dies bei SSD’s – aufgrund der besonderen Art der Datenspeicherung – völlig unmöglich.
SSD’s sind zwar schön schnell, aber für Backups derzeit leider noch recht spekulativ bis riskant.

In diesem Kontext noch ein genereller Tipp für Backup-HDD’s:
Regelmäßige Defragmentierung von HDD’s (→ gilt NUR für HDD’s!!!) erhöht die Chance auf die Möglichkeit der Datenrettung!
Windows-Dateisysteme (FATxx/NTFS) tendieren naturgemäß zu schneller Fragmentierung der gespeicherten Daten – bei geringerem freien Speicher sogar um so mehr. Bei einer Reparatur (CHKDSK) von Dateisystem-Fehlern (welche auch recht häufig vorkommen) kann dann meist nur das erste Fragment einer betroffenen Datei gerettet werden und der Rest geht verloren.

Sorry, wenn ich keine guten Nachrichten fĂĽr Dich habe, aber jetzt weiĂźt Du wenigstens, was Sache ist.

Viele GrĂĽĂźe,
Jens

2 Like

Hallo Mille1404,
danke fĂĽr Deine Antwort.
Entschuldigung, dass ich heute erst wieder poste – aber die Scan- und Rep-Versuche brauchten längere Zeit …
Habe inzwischen über die Festplatte einen Windows-Checkdisk laufen lassen – keine Besserung.
Dann habe ich eine Software namens „SeaTools“, von Seagate speziell für Seagate Festplatten, entdeckt und laufenlassen. Ergebnis: Die Dateien auf der Festplatte sind offenbar noch da. Jedoch: Klickt man auf „Wiederherstellen“, wird man auf eine Seite von „Pixel8“ weitergeleitet, wo die Festplatte nochmals gescannt wird und die vorhandenen Daten aufgelistet werden. Zur Speicherung auf einem anderen Medium muss jedoch eine Lizenz für € 99,-- € gekauft werden … Dazu wäre ich vielleicht sogar bereit gewesen, aber man hätte mir die Dateien nicht in ihrer bisherigen Baumstruktur, sondern nur nach Dateiarten (docx, pdf, jpg, mp3 …) sortiert auf einen anderen Speicher übermittelt. Das Sortieren würde für mich eine ziemliche Arbeit bedeuten.
Umbenennung des Laufwerksbuchstabens brachte auch nichts.
Gibt’s noch weitere Tipps, was man tun kann?

Nachdem ich das Posting unten von Jens gelesen habe, habe ich allerdings nur noch geringe Hoffnung.

Lieben GruĂź
Dantis

Hallo Kannitverstan,

danke für Deinen Hinweis. Die mobile Festplatte auseinandernehmen und einen externen Konverter anschließen, traue ich mir allerdings nicht zu. Bin nur ein User, kein Bastler …

Lieben GruĂź
Dantis

Hallo Jens,

danke für Deine ausführlichen Erklärungen.
Das klingt nicht sehr aussichtsreich fĂĽr meine Festplatte.
Allerdings wird sie immerhin im Explorer als "Seagate Expansion Drive"angezeigt, nur ein Zugriff auf die Daten ist nicht möglich.
Und - wie in der Antwort an Mille1404 beschrieben - konnten die Dateien auch von „Seatools“ und bei "Pixel8 " auch angezeigt werden.

Eine teure Datenrettung lohnt sich sicher nicht, es geht nicht um berufliche, sondern „nur“ um private Daten.

Lieben GruĂź
Dantis

Hallo sweber,

danke fĂĽr Deinen Beitrag. Ich denke auch, dass es kein Kabelproblem ist, da ich immerhin eine Anzeige im Explorer sehe.
Siehe meine Antwort an Mille1404, was ich inzwischen unternommen habe.
Rechtsklick auf „Seagate Explorer Drive“ kann ich durchaus „Eigenschaften“ ansehen. Allerdings steht da „0 Byte“ als Datenmenge, zugleich, dass die Festplatte randvoll ist (blauer Ring), was nicht stimmen kann. Und unter "Sicherheit steht „Vollzugriff“.

Lieben GruĂź
Dantis

Hallo Dantis,

leider gehören eben alle Reparaturversuche, die Du oben aufgeführt hast, zu jenen Maßnahmen, die im Vorfeld hätten hilfreich sein können und jetzt eigentlich nur noch schaden.

Zu „Pixel8“ kann ich auch nur sagen, dass das ganz offensichtlich reine Abzocker sind, denn Deine HDD wird hiermit eben NICHT unter Labor-Bedingungen untersucht, sondern auf Deinem unsicheren Windows-System. Kurz gesagt, solche „Methoden“ sind hanebüchener Unsinn oder machen bestenfalls weit im Vorfeld irgendwie Sinn. Investiere die 99 € lieber in eine eine neue HDD, denn eine Rettung der Daten kann ohnehin nur noch direkt und ohne Umwege (z.B. via Internet) auf einen weiteren Datenträger erfolgen.

Zudem käme ein Upload von 4TB per ADSL 16 auf eine Dauer von ganz grob 15 Monaten – bei konstantem Datenstream und ohne die Verzögerungen beim Scannen! Selbst bei Kabel 100 würde es immer noch 2 Monate dauern.
Also bei den Zahlen sollte wohl klar werden, wie komplett absurd dieses Pixel8-„Angebot“ ist.

Aber im schlimmsten Fall können die Baumstruktur und die Datei-Namen leider tatsächlich verloren gehen. Das wäre dann ohnehin der Fall bei der Verwendung von Windows’ CHKDSK.

Wie Du geschrieben hast, hast Du CHKDSK bereits angewandt. Da wäre jetzt ggf. das Protokoll aussagekräftig (?:\System Volume Information\Chkdsk\ChkdskYYYYMMDDhhmmss.log → nur Admin-Zugriff) und die wiederhergestellten Dateien befinden sich unter ?:\Found.###\(DIR####\)FILE####.CHK.

Das unter Found.### hättest Du dann auch von Pixel8 zurück erhalten – nur nach Typ sortiert – was man dann auch selbst machen kann, wenn man sich nur mal die Magic-Number anschaut.

Jaa … so viel zu „Pixel8“ … :unamused:

Was allerdings stimmt ist, dass Deine Daten alle noch auch der HDD vorhanden sind, nur ist eben der Zugriff „erschwert“. Ohne Profi-Kenntnisse nützt die das aber auch nichts und auch alle Tools der Welt können Dir nicht helfen, ohne mindestens fundamentale Kenntnisse in Dateisystemen und da hat Mikrosaft schon vor Jahrzehnten dafür gesorgt, dass sich User damit nicht mehr „beschäftigen“ müssen.

Sorry, wenn das alles nach Miesmacherei klingt, aber leider hat Dich der Worst Case Daten-Gau erwischt und leider hast Du es durch Deine Panik-Handlungen (Selbst-Reparatur) u.U. nur noch schlimmer gemacht.

Wenn Du nicht so viel Geld fĂĽr die Datenrettung ausgeben willst, bleibt nur noch die letzte Option, privat einen Daten-Forensiker zu finden, also jemanden, der sich mit solchen Dingen (Dateisysteme/NTFS/$MFT/GPT/Linux/dd/etc.) wirklich auskennt. Das kann man auch nicht ĂĽber eine Fernwartung bewerkstelligen.

Noch ein weiterer Tipp fĂĽr die Zukunft:

Unterteile solche Backup-Datenträger lieber in mehrere kleinere Partitionen.
Der Vorteil liegt darin, dass wenn einmal die Metadaten (z.B. $MFT) der Partition beschädigt werden – wie es offensichtlich bei Dir der Fall zu sein scheint –, dann sind nicht gleich alle Daten verloren, sondern schlimmstenfalls nur diejenigen, der betroffenen Partition und der Rest bleibt intakt.

Dadurch hast Du zwar einen Mehrbedarf an Laufwerksbuchstaben – welche naturgemäß begrenzt sind –, doch das kann man durch Einhängepunkte (→ Datenträgerverwaltung) wieder (fast) unbegrenzt ausgleichen.

Je größer eine Partition ist, desto größer ist auch der Daten-Verlust in genau solchen Fällen!
Bei mir haben daher Partitionen auch nicht mehr als 512 GB – und das auch nur für sehr große Dateien.

Noch Fragen? Gerne.

Viele GrĂĽĂźe,
Jens

2 Like

Hallo Jens,

danke für Deine weiteren Erläuterungen. Die Festplatte kann ich wohl vergessen.
Kann die drei Wochen seit meinem letzten Sichern immerhin nachvollziehen - ist halt einige Arbeit.
Habe durch Deine Ausführungen aber gelernt, dass ich …

  • kĂĽnftig noch häufiger sichere, mindestens wöchentlich;
  • beim Kauf einer externen Festplatte darauf achte, dass sie ein Metall-Gehäuse (statt Kunststoff) hat, wegen besserer Wärmeabfuhr;
  • die Festplatte partitioniere, in Partitionen von max. ca. 500 GB;
  • eine solche Festplatte nur fĂĽr den kurzzeitigen Backup-Einsatz nutze, nicht fĂĽr stundenlange Sitzungen.

Lieben GruĂź
Dantis

Hi,

diese Angebote Online sind alle der größte Quatsch. Das ist ja bereits geschrieben worden.
Die Datenrettungsprogramme ĂĽber Linux laufen entsprechend, dass man das ganze eben direkt auf seinem Rechner macht. Das sollte aber dann jemand machen der sich damit auskennt.

Schau mal ob du nicht einen Laden in der nähe findest. Die können dir da in der Regel besser weiter helfen.
Wenn du eine Datensicherung von damals hast, dann kannst du diese ja nutzen.
Die Daten die im Anschluss hinzu gekommen sind, kannst du dann ja abgleichen und brauchst nur die neuen Daten nach einer Datenrettung sortieren.

Vor Ort Service in einem Ladenlokal ist in diesem Fall nicht zu ersetzen.

Viel Erfolg weiterhin!

1 Like

@Mille1404:

Sorry, wenn ich da widersprechen muss, aber nicht alle Online-Angebote sind Quatsch und gerade die Vor-Ort-Services sind hier seltenst besonders qualifiziert, was Daten-Forensik betrifft.

Es gibt – im Gegensatz zu diesem Seltsam-Beispiel „Pixel8“ – online durchaus sehr qualifizierte Datenrettungsdienste, die ihr Angebot hauptsächlich online anbieten, weil sie eben räumlich sehr breit aufgestellt sein müssen, um überhaupt wirtschaftlich arbeiten zu können.

Solche Labore müssen einen großen Vorrat von allen möglichen Datenspeichern und Ersatzteilen unterhalten, um eben auch z.B. Bau-Komponenten für die Datenrettung austauschen zu können. Nicht immer ist es nur der „übliche“ Magnetschicht-Schaden, den ich eingangs beschrieben habe. Auch müssen häufig z.B. das Spindel-Lager oder der Controller – in einem Rein-Raum! – ausgetauscht werden, um an die Daten wieder heran zu kommen.

Solche Dinge können Vor-Ort-Services niemals leisten – mal abgesehen von der fachlichen Qualifikation, denn Daten-Forensik ist nichts, was man mal eben „nebenbei“, bzw. in einem Lehrgang lernt.

Vor-Ort-Services sind aber durchaus vorzuziehen, wenn es um den Umbau, bzw. Analyse und Reparatur von Hardware-Komponenten geht. Hierin liegt deren Stärke, bzw. Vorteil. Denn mindestens das Einschicken eines ganzen Desktop-PC’s ist doch wesentlich aufwändiger und teurer, als bei einer kleiner Festplatte.

Die seriösen Datenrettungs-Dienste übernehmen für Letzteres sogar die Versandt-Kosten und berechnen auch nichts, wenn sich ein Kunde – nach der erwähnten Vorab-Besprechung – gegen eine Datenrettung entscheidet.

Der „Trick“, solche seriösen Services zu finden ist auch recht simpel:
eine inhaltliche Internet-Recherche und nicht gleich den erst-besten Google-Treffer wählen! :wink:

Was nun diese Linux-Programme betrifft: ja, damit arbeiten auch die Profis. Aber die nützen einem gar nichts, wenn man nicht ganz genau weiß, was man da tut! Wer hierbei – aus mangelnder Sachkenntnis – Fehler macht, kann sich dann auch ganz schnell die letzten Rettungs-Optionen selbst zerschießen und dann kann auch der beste Profi nichts mehr retten! Das geht Ratz-Fatz!

Gerade User aus dem Windows-Bereich haben hier wirklich seltenst die richtigen Grundkenntnisse. Das fängt schon mit solchen Unbegriffen wie „Laufwerk“ (anstatt „Partition“) an, geht dann über die ausgeblendeten Bereiche im Windows-Explorer (die dann mal einfach vergessen werden) und spätestens bei „$MFT“ verabschiedet man sich dann innerlich … :ghost:

Es sieht einfacher aus als es ist, doch einen Desktop bedienen zu können und ein System zu beherrschen – sowohl Betriebs-System als auch Datei-System – dazwischen liegen Welten. Und deshalb muss ich dringend von solchen Selbst-Versuchen abraten – wenn die Daten und Hardware wichtig sind.

Wer darauf natĂĽrlich verzichten kann, der soll es einfach mal probieren. Am Besten lernt man durch Fehler. :stuck_out_tongue_winking_eye:

@Dantis:

Die Größe einer Partition sollte sich nach dem Verwendungszweck richten. Eine 500 GB Partition mit vielen kleinen Dateien (z.B. Bilder) kann bei einem Schaden genauso fatal sein, wie eine 4 TB Partition. Auch die Anzahl der Dateien in einer Partition sollte berücksichtigt werden. Denn letztlich kommt es im Schadensfall auf die Daten-Menge an und da tut der Verlust aller eigenen Dokumente mehr weh, als der Verlust eines HD-Films, wobei beide (grob) dasselbe Daten-Volumen haben.

Erstelle die Partitionen besser nach dem Verwendungszweck, z.B. für Programme/Games (→ leicht ersetzbar, häufiger Zugriff), Eigene Dateien (→ sehr kleine Dateien), Bilder, Musik, Videos/BD-Rips (→ sehr große Dateien), Backup-Sets (→ seltener Zugriff), etc.
Das ist i.d.R. so die beste Methode zu Partitionieren.

Wie auch bereits erwähnt, ist eine regelmäßige Defragmentation angeraten. Kleiner Partitionen haben hier auch wieder den Vorteil, dass diese Defragmentation schneller erledigt ist, was wiederum die thermische Beanspruchung der HDD reduziert. Es muss ja dann auch nicht jedes Mal die gesamte HDD defragmentiert werden, sondern eben nur die Partitionen, auf die neu geschrieben wurde.

Für die Performance sollte man die kleineren Partitionen (mit vielen kleinen Dateien) möglichst an den Anfang der HDD platzieren. Das reduziert die Zugriffszeiten und damit auch wieder die Defragmentationszeiten. Auch häufig genutzte Partitionen (→ lesen & schreiben) sollten am Anfang der HDD stehen, da dort die Zugriffszeiten kürzer sind. Kürzere Zugriffszeiten bedeuten weniger mechanische Arbeit und das bedeutet weniger Hitze-Entwicklung.

Zum Case:
Einfach nur ein Metall-Case ist nicht alleine der SchlĂĽssel. Es kommt darauf an, dass das Metall-Case mit der HDD Kontakt hat, damit hierĂĽber die Hitze abgefĂĽhrt werden kann. Das kann direkt durch ein besonders enges Case erfolgen oder ĂĽber Kontakt-Lamellen, welche auf die HDD drĂĽcken. Da gibt es unterschiedliche Konzepte.

Sorry, wenn das alles wirklich viel Text ist, aber es ist auch kein Thema für’s Vorbeigehen. Alles bleibt immer einfach in der Bedienung und Wartung – solange es keine Probleme gibt. Aber wenn dann mal solch ein Daten-GAU passiert, ist Holland in Not und dann … hätte, hätte, Fahrradkette … :sob:

Der nächste Daten-GAU kommt garantiert. Es ist nur eine Frage der Zeit. Vermeiden kann man ihn nicht. Aber man kann vorsorgen … wenn man weiß wie. :nerd_face:

Viele GrĂĽĂźe,
Jens

1 Like

Hallo Jens,

danke für diese zusätzlichen Infos.
Werde versuchen, zukĂĽnftig besser vorzubauen!
Daten-GAU ist wahrscheinlich ähnlich wie ein Wohnungseinbruch anzusehen: Niemals ganz zu vermeiden, aber wenn Türen und Fenster gut gesichert sind, ist man schon mal auf einer sichereren Seite.

Lieben GruĂź
Dantis

Hallo, Mille 1404,

danke auch für Deine Beiträge.
Hier in der Stadt gibt es einen kleinen Laden mit zwei Computer-Freaks, die sich sehr einsetzen - habe ich schon selbst erlebt und auch von andern gehört. Wahrscheinlich wäre es sinnvoller gewesen, die externe Festplatte gleich mal dort hinzubringen - jetzt ist es wohl zu spät. Aber, wie schon geschrieben, der Schaden hält sich in Grenzen, kann die Daten erneut eingeben.

Lieben GruĂź
Dantis

1 Like

Die Platte ist kaputt. Du solltest jetzt so wenig wie möglich „irgendwas versuchen“, die Chance, dass noch mehr kaputt geht ist recht groß.

Die S.M.A.R.T.-Parameter könnte man spaßeshalber mal auslesen, manchmal geben die einen Wink in die richtige Richtung.,

Der Effekt der Kühlung wird gemeinhin überschätzt, klar, kochen sollen die Platten nicht, aber 8° machen die Ausfallrate auch nicht besser …

Das halte ich fĂĽr einen ganz guten Plan. Erstmal ein Image der Platte machen, dann an der Kopie des Images Rettungsversuche machen.

„dd“ und noch vielmehr „dd_rescue“ sind die Werkzeuge der ersten Wahl.

Linux zeigt in der Regel auch deutlich aussagekräftigere Fehlermeldungen an.

Ich würde niemals eine Backup nur auf einem Datenträger machen wollen …

Hmm. Linux macht zumindest bessere Fehlermeldungen :slight_smile:

Lange vorher Dinge mit der Originalplatte zu probieren vermindert ĂĽbrigens die Chancen, dass hier was zu retten ist.

Manche Dienste haben offenbar auch ein sehr unseriöses Geschäftsmodell. Wollte ich nur mal erwähnen.

Amen!

Das kann ich nur unterstreichen. Obwohl meine privaten Rechner gut gekĂĽhlt sind und im Betrieb nicht bewegt werden sind mir schon so einige Platten gestorben.

Da ist irgendein Konzept schon sinnvoll. Der Festplattentod kommt. Todsicher.

1 Like

Darum wird auch immer ein unteres Limit angegeben. Wer seine HDD so weit herunter kĂĽhlt muss sich dann nicht ĂĽber Korrosion durch Kondensat wundern! AuĂźerdem erzeugt man damit ebenso extreme Temperaturschwankungen in einer Umgebung mit Raumtemperatur, welche dann wiederum zu schnellerem Zerfall fĂĽhren.

Die Kühlung derart zu übertreiben ist genauso tödlich, wie sie zu ignorieren oder zu unterschätzen.

Ich möchte hier nicht um Sinn und Unsinn von Kühlung, bzw. Temperierung von HDD’s diskutieren. Tatsächlich werden nicht umsonst die meisten HDD-Defekte – innerhalb der ersten 2-4 Jahre – von Usern gemeldet, die sich eben NICHT um die Temperaturen kümmern. Und spätestens die Hersteller würden auch keine Temperaturbereiche angeben, wenn das nicht wirklich wichtig wäre.

Die User-seitige „Ignoranz“ dieses Punktes ergibt sich einfach aus den Umständen, dass die physikalischen Degenerationen nie von den Usern selbst beobachtet werden. Auch der zeitliche Kontext – im privaten Konsum-Bereich – beginnt erst nach ca. 20 Jahren, auffällig zu werden und schließlich sind wir es inzwischen gewohnt, dass nichts länger hält als maximal 5 Jahre. Und nicht zu vergessen: „Shit happens“ …

Ja, meine auch. Aber dazu bedarf es dann eben doch wieder tiefer gehende Kenntnisse der Materie. Doch auch mit diesen Tools treten immer mal wieder Ausnahmen auf, die manueller Nacharbeit bedürfen. Das ist einfach nichts für Anfänger und im Notfall schon gar nichts für Windowsianer, die sich überhaupt erst mal in Linux reinarbeiten müssen.

Das stimmt definitiv. Doch das hat nichts mir Fehler-Toleranz zu tun.
Das war allerdings auch nicht positiv gemeint, denn dadurch bleiben eben solche Fehler-Meldungen unberücksichtigt und dann geht das eine oder andere Device „ganz plötzlich“ kaputt.

Danke fĂĽr den Link.

Bei „[…] behauptet bei einem ersten Telefonat gar, dass die Magnetscheibe defekt sei“ musste ich laut lachen! :rofl::joy:

1 Like

OK, dann will ich Dir diesen Bericht mal auseinander nehmen:

Zunächst einmal bewegen wir uns hier im Data Center Bereich mit konstanter Umgebung und effizienterer Kühlung! Das sieht im PC-Bereich völlig anders aus.

Die gelisteten Durchschnitts-Temperaturen bewegen sich allesamt im Ideal-Bereich (→ „And almost all of the drives are in the nice comfortable range from 15° to 30°.“). Dass eben hier die Temperaturen eher eine untergeordnete Rolle spielen, ist dann mehr als offensichtlich.

Zudem sind Durchschnitts-Temperaturen auch wenig aussagekräftig. Relevant für das Versagen der Magnetschicht sind die Peaks und die Dauer der Peaks. Denn erst jetzt beginnt der Hitze-Stress zu wirken. Bei unter 30°C ist das noch kein Thema.

Wie aber bereits erwähnt, kommt es hierdurch nicht zum sofortigen Ausfall, sondern zunächst erst zu unbedeutenden Mikro-Schäden. Diese wiederum verstärken sich aber (durch verschiedene Faktoren) mit der Zeit zunehmend, bis die ersten Sektoren „ausfallen“.

Doch selbst das geschieht auch nicht von jetzt auf gleich, sondern auch hier gibt es im Vorfeld Fehler-Verzögerungen, welche im normalen Betrieb aber leider nicht auffallen, bis diese Fehler-Raten durch den Controller oder den Treiber nicht mehr ignoriert werden können. Die meisten User missinterpretieren dann aber merkbare Verzögerungen als die übliche Trägheit des OS (bzw. Windows).

Im End User Bereich hingegen – und ganz besonders bei externen Festplatten – werden Ruck-Zuck und dauerhaft Temperaturen erreicht, die in diesen Listings nicht mal erwähnt werden. Da geht es über die Maxima (ca. 60°C) auch schon mal dauerhaft hinaus. Aber selbst ab ca. 50 °C entsteht schon Hitze-Stress, der die Lebensdauer erheblich reduziert.
Diese herstellerseitigen Extrema sind Richtwerte und keine Drop-Points!

Wenn ein Data Center unter solchen Bedingungen wie im End-User-Bereich arbeiten würde, wären die ganz schnell pleite!

In diesem Einsatz- und Temperatur-Bereich spielen eher die generelle Modell-Qualität und natürliche Schwankungen in der Produktions-Qualität eine tragende Rolle.

Auch der hier genannte Bezug auf „Green“ HDD’s ist eher undurchdacht. Sicherlich ist der Gedanke an niedrigere Betriebstemperaturen durch niedrigeren Energieverbrauch völlig richtig. Doch die Hersteller investieren im Green-Bereich dann auch nicht mehr in die gleiche Material-Qualität wie bei den High-End-HDD’s. Diese Green-HDD’s sind auf Kante genäht – um sie günstig zu halten – und dadurch erreichen sie dann auch per se nicht mehr die Lebensdauer der High-End-Geräte, vor allem dann, wenn sie dauerhaft betrieben werden, wie in einem Data Center.

Dennoch sei angemerkt, dass sich der Einsatz – bei einer gesamt-durchschnittlichen Lebensdauer von 2 Jahren – betriebswirtschaftlich und kurzfristig rechnet.

Backup-Data-Center sind eine ganz andere Welt und diese müssen auch ganz anders kalkulieren und gehen hier auch kein Risiko ein. Hier müssen Daten für Jahrzehnte aufbewahrt werden und da wird man diese Billigheimer-Modelle nicht finden. Die Preise liegen dann dementsprechend auch ein „klein wenig“ anders.

Alles in allem würde ich auch keines der hier gelisteten Modelle als Backup-Datenspeicher empfehlen. Für den Einsatz als OS- oder Cache-Disk sind sie völlig OK und empfehlenswert. Nur sollte man seine eigenen (wichtigen!) Dateien – ggf. auch Einstellungen – (Win: C:\Users\*, Mac: /Users/*, *nix: /home/*) beim Einsatz hiermit sicherheitshalber auf eine High-End-HDD auslagern.

Im privaten Bereich geht es schnell ins Portemonnaie, wenn man sich alle 2 Jahre eine neue Backup-Disk kaufen muss. Zudem ist das Spiegeln (RAID) als zusätzliche Sicherheits-Maßnahme bei externen HDD’s (NAS mit RAID ausgenommen) völlig sinnfrei – mal ganz abgesehen von der Verschwurbeltheit :stuck_out_tongue_winking_eye:. Das kann man keinem 08/15-User zumuten.

Doch letztendlich und vor allem ist der Verlust der Backups unbezifferbar.

Der Artikel war recht interessant, doch für den End-User-Bereich leider überhaupt nicht aussagekräftig.