Backup ohne tar

Hi,
ich habe hier ein Backup-script welches auf einem entfernten Server bisher ein tar.Z (tar+compress) Archiv erzeugte. Es werden Userdaten und einige Systemdateien gesichert.

Nun habe ich auf zip (nicht gzip) umgestellt, weil:
-das sicherer gegen Archivfehler ist
-ich damit leicht- und schnell durch’s Archiv surfen kann (midnight commander) und einzelne Dateien (userdaten) schnell restauriert werden können.

Leider habe ich mir dabei zwei Probleme eingehandelt:
-max. Archivgröße ist 2GB (kann ich evtl. mit 7zip umgehen)
-Dateirechte gehen verloren (ich habe die aber in einer extra Liste zum nachlesen)

Zur Zeit bin ich etwas ratlos was ein guter künftiger Weg ist um Komfort, Sicherheit und Rechte gleichermaßen zu erhalten. Keine Alternative ist z.B. rar, da es das nicht für Solaris gibt (!).

Ideen?

J~

Moien

bzip2 ?

Ausserdem: wieviele Fehler sind den so in einem Archiv ? Solltest du da nicht eher die Fehler ausmerzen… ?

cu

Hi,

bzip2 ?

das kann keine Archive erstellen, nur komprimieren. Man braucht also tar, …

Ausserdem: wieviele Fehler sind den so in einem Archiv ?

Bei tar reicht leider ein einziges falsches Bit um das ganze Archiv zu zerstören :frowning:

Solltest du da nicht eher die Fehler ausmerzen…

:smile: Noch gibt’s ja keine…

J~

Tach

bzip2 ?

cpio, afio!

Solltest du da nicht eher die Fehler ausmerzen… ?

ACK.

Moien

Ausserdem: wieviele Fehler sind den so in einem Archiv ?

Bei tar reicht leider ein einziges falsches Bit um das ganze
Archiv zu zerstören :frowning:

nee, tar ist relativ cool was Fehler angeht. Es springt meistens zur nächsten Datei.

Was dir den Spass verdirbt ist gzip (die -z Option macht nix anders als nach dem tar ein gzip anzuhängen). Das steigt bei einem falschen Bit komplett aus.

Also änder die Reihenfolge: zuerst gzip/bzip2/… , dann tar (ohne -z). Weniger Kompression, wahrscheinlich ein bisschen spielen mit Parametern und pipes um alles ohne tmp-Dateien in eine Bash-Zeile zu bekommen… aber es geht.

Solltest du da nicht eher die Fehler ausmerzen…

:smile: Noch gibt’s ja keine…

Wieso sind dann welche zu erwarten ?

cu

Hi,

nee, tar ist relativ cool was Fehler angeht. Es springt
meistens zur nächsten Datei.

Was dir den Spass verdirbt ist gzip

Also änder die Reihenfolge

OK, danke für die Korrektur und die neue Idee!

Dann habe ich allerding ein tar voller gzips. Komfort habe ich daurch leider nicht gewonnen, ein Archivbrowsing und einfache Restaurierung ist (wohl?) nicht möglich.

Die häufigste Verwendung des Backups ist die Wiederherstellung einzelner Dateien eines Benutzers der diese gelöscht oder den Inhalt vermurkst hat. Bisher war es so, dass er diese im Archivindex vom Vortag auszuwählen hatte bis dann in der folgenden Nacht das „große-restore-script“ seine Datei wieder zurück holte.
Tatsächich sind Benutzer mit sowas überfordert und man muss dann doch „mal schnell“ das ganze Archiv ent-tar-en und solange danebensitzen und warten bis es fertig ist.

:smile: Noch gibt’s ja keine…

Wieso sind dann welche zu erwarten ?

Fehler sind IMMER zu erwarten :smile: Im Ernst, man kann natürlich nur die Wahrscheinlichkeit ihres Auftretens zu veringern versuchen. Das ein Tape, eine DVD oder eine Festplatte einen Oberflächenfehler habe ist nun mal einfach drin. Ebenso, dass „zufällig“ ein Archivbit umkippt.

Grüße,
J~

Moien

Dann habe ich allerding ein tar voller gzips. Komfort habe ich
daurch leider nicht gewonnen, ein Archivbrowsing und einfache
Restaurierung ist (wohl?) nicht möglich.

Doch, schon, browsen geht immernoch. Indexe sind von der Umstellung ja nicht betroffen. Du hast dann halt alle Dateien mit der Zusatzendung .gz oder bz2 und du kannst nicht einfachso in die Dateien reinkucken (zless müsste man mal testen…).

Dafür ist das extrahieren schneller. Man muss nicht die ersten X-tausend Dateien unzipen um an Datei X-tausend + 1 zu kommen. tar kann einfach drüber seeken, was beim Zugriff von Platte verdammt schnell sein sollte. (Bei Tapes bringt’s wahrscheinlich nicht viel, es sei denn das Tape ist intelligent genug um den seek umzusetzen).

Tatsächich sind Benutzer mit sowas überfordert und man muss
dann doch „mal schnell“ das ganze Archiv ent-tar-en und
solange danebensitzen und warten bis es fertig ist.

Kenn ich …

cu