Shell-Ebene.
Du sagst das so, als ob es was Schlimmes waere.
nee, sicher nicht… Aber mein Problem mit der Shell ist,
dass ich mich da nicht so gut auskenne
Wer hat Dir eigentlich die Qualifikation zugesprochen, eine solide backup-Strategie ausarbeiten zu koennen? Meine ja nur…
- manche man pages bringen mich nicht gerade weiter…
Konkrete Fragen zu man pages werden hier (und anderswo) weitaus lieber gesehen als „wie kann ich /etc/rc.d/rc.local editieren?“.
Vor allem aber dass man die Befehle kennen muss um sie
benutzen zu können 
Papier? Bleistift? Auf Linux ist apropos ganz nuetzlich.
das hatte ich auch schon gelesen, aber die backups sollten ja
nach möglichkeit auf CD gebrannt werden. Für tar hab ich aber
keinen Schalter gefunden, der mir eine 1,5 GB Datei auf 2 CD’s
verteilen könnte oder zumindest zurechtlegt…
Wird das backup auch so grosz, wenn Du das System aus selbigem rauslaesst. Ansonsten gibt es hier (GNU-tar) die Option --tape-length. Und dann gibt es noch split. Und, und, und…
[tar und gzip]
Backups komprimieren? [nicht]
wie oben gesagt sollen die Daten auf CD gesichert werden. Gzip
kann mir die Dateien splitten
Ehrlich? Wie denn? (Weisz ich wirklich nicht.)
Trotzdem ist das Argument natuerlich haltlos (siehe oben). Und wenn in Deinem backup ein einziges bit umkippt kannst Du alle nachfolgenden Dateien vergessen. Du hast ein 1.5GB-backup. Nach Murphy liegt die Wahrscheinlichkeit, dass ein solcher Defekt in den ersten 200kB auftritt bei ca. 98.5%. Wenn Du schon komprimieren muszt, nimm wenigstens bzip2, das komprimiert blockweise und Dir geht maximal ein solcher Block (einstellbarer Groesze) verloren.
Das System selbst gehoert nicht ins backup.
Ich muss dazu sagen, dass ich noch nie eine Solaris
installiert habe,
Wird’s Zeit.
Ich weiss es aber von SuSE und von Windows in einigen
Versionen… Und ich weiss wie schnell ich ein auf den Rechner
zurechtgeschnittenes Betriebssystem mittels Norton Ghost
wiederherstellen kann…
Alles eine Frage der Uebung.
Deswegen möchte ich mir diesen Weg eigentlich sparen, weil es
schnell mal sehr sehr viel Zeit in Anspruch nehmen kann…
Sind die Rechner alle identisch? Dann pack das System nicht in das backup jeder Maschine sondern ziehe ein image von einem frisch installierten System.
Werden in /etc auch die Konfigrationen von anderen Programmen
gesichert? (ist das usus?) Oder verwenden andere Programme
ihre eigenen Konfigurationsfiles, die dann eben nicht im /etc
liegen…?
$ man hier
Systemweite Konfiguration gehoert (hier, Linux) nach /etc. Installationen am Paketmanagement vorbei installierte software legt die Konfiguration gelegentlich in /usr/local/etc ab. Ist aber eher selten und kann i. A. per ./configure-Schalter umgelenkt werden. Nutzerspezifische Konfiguration gehoert ins /home/$user. Es gibt ein paar haeszliche Programme, die sich einbilden, dem nicht zu folgen, die sollten aber (insbesondere unter Solaris) eher selten sein (und auch moeglichst schnell sterben).
Die Userverwaltung liegt in /usr?
Nein. usr steht fuer Unix System Resource (oder irgend sowas). Dort liegen Programme und Daten (Dokumentation, kannst Du Dir ja mal ansehen). Ganz gutes gemeinsames Merkmal ist, dass alles dort nicht zum booten benoetigt wird. Die Kiste sollte ohne /usr hochfahren koennen und voll netzwerkfaehig werden (um /usr z. B. aus dem Netzwerk zu mounten).
Gar nicht. Du installierst zuerst das System neu und bootest
davon. Die Differenz vom frischen System zum letzten backup
holst Du aus der Sicherung.
aber was für einen Unterschied macht das?
Dass das backup kleiner wird?
Wenn es sich um das gleiche System handelt, dann sollte es
doch egal sein ob ich nur die Konfiguration zurückschreibe,
oder eben das komplette System (und mir dabei die installation
des Systems spare)
Meinethalben, wenn Speicherplatz egal ist.
[Grundlagen: vollstaendiges, differentielles,
inkrementelles backup, Umgang mit den Medien]
gelesen hab ich darüber auch schon einiges (aber nicht in der
C’T)… meistens wird dabei aber (ufs)dump genannt…
Darin ging es weniger um Programme, eher um Begriffsdefinition und Konzepte.
(…) Dein Vorschlag (…)
klingt generell ja nicht schlecht, nur ist da wieder mein
Problem, dass ich mich nicht so besonders gut auskenne mit dem
System, deswegen versuche ich hier auch meine Zweifel zu
beseitigen auf der Suche nach der idealen Lösung…
Allerdings fällt der Vorschlag mit dem mounten schon wieder
flach, weil ich nicht davon ausgehen kann, dass ein Netzwerk
besteht und eine Maschine den für das backup benötigten
Speicher liefert…
Du arbeitest in sehr ungewoehnlicher Umgebung.
Deswegen bleibt mir eben fast nur die Möglichkeit mit den
CD-ROMs (weil eben kein Streaming Laufwerk vorhanden ist)
Hat jede Maschine einen Brenner? Oder rennst Du dann mit einem externen rum? Rechner ohne Netzwerk hab ich eigentlich auch vor geraumer Zeit aus meinem Weltbild verbannt.
an cronjobs hatte ich auch gedacht,
Ja, natuerlich! Willst Du rumrennen und das backup von Hand anschmeiszen? Willst Du die Leute root sein und die das machen lassen?
so könnte man sich die Zeit sparen, um das backupfile zu
erzeugen, aber was wenn die Maschine dann übernacht
ausgeschalten wird…? Gibt ja schliesslich manchmal komische
Leute *g*
Du arbeitest in wirklich ungewoehnlicher Umgebung.
Das mit der konsistenz macht mir auch noch ein flaues Gefühl
im Magen - Ghost erzeugt images auf DOS-Ebene, um da auf der
sicheren Linie zu sein… Die Jungs von PowerQuest meinten zu
mir, dass die Backups sicher wiederherstellbar wären
Erklaeren die Jungs von PowerQuest auch, welche Art Magie sie dazu einsetzen? Wuerde mich wirklich interessieren.
Hm, zufaelligerweise funktioniert
ls backup.diff.$HOSTNAME.* backup.inc.$HOSTNAME.* |
grep --after-context=$hugenumber ls backup.diff.$HOSTNAME.\* |tail -n1
vielleicht, da d vor i kommt. So richtig
schoen ist das nicht, aber was sinnvolles faellt mir gerade
nicht ein. Anybody else?
d vor i? versteh ich grade nicht, bzw finde ich nicht 
$ man Alphabet
ls backup.diff* listet alle differentiellen backups auf. Dank der Namensgebung sind sie chronologisch geordnet. Pipen durch tail -n1 findet das letzte davon. ls backup.{diff,inc}* listet alle differentiellen und inkrementellen backups auf. Da d vor i im Alphabet kommt kommen erst die differentiellen, dann die inkrementellen. grep filtert das eben gefundene letzte differentielle raus sowie durch --after-context noch $hugenumber weitere (die inkrementellen) backups.
Das ist aber alles Quark, da mir vorhin eingefallen ist, dass
# find . -newer `ls backup.diff.$HOSTNAME.* |tail -n1`
alle Dateien findet, die neuer als das letzte differentielle backup.
Nur mal so, damit Du weiszt, was geht: hier stand mal eine Kiste rum, die wurde (vom bios) jede Nacht gestartet, hat das backup vom server gezogen und ist dann wieder eingeschlafen. Auch sehr witzig (als proof of concept) war das dezentrale backup in eine untrusted Umgebung. Die toolchain war etwa tar |bzip2 |gpg |netcat. Gescheitert ist es daran, dass bestimmte Leute unbedingt 4GB durch eine Leitung schieben wollten, die nur unwesentlich dicke als DSL war.
HTH,
Gruss vom Frank.