Backups, was ist Sinnvoll?

Hallo beisammen, angedeutet hatte ich das Thema ja schon mal… Jetzt will ich das ganze aber nochmal konkretisieren…
Ich will nach wie vor eine Unix (Solaris 8) Maschine backuppen…
Nunja, im Prinzip mehrere… Das Problem dabei ist aber die richtig(st)e Methode dabei zu finden. Es gäbe zahlreiche Programme, die das ganze auf x86 Maschinen könnten, wie z.B. Drive Image, Norton Ghost, HDClone etc…
Nun hilft mir das ganze aber nicht, da es ausschliesslich um SPARC (also SUN) Kisten geht…

Da ich dafür keine Programme gefunden habe sehe ich mich also mehr oder weniger gezwungen selbst etwas zu schreiben auf Shell-Ebene. Nun bin ich mir aber als Unix-Neuling nicht so ganz darüber im klaren was gut und was schlecht ist…
Archivierungsprogramme gibt es ja mehrere, aber ich bin mir nicht sicher ob das ganze nicht mehr ein „verwenden von Winzip“ auf Unix ist…

Nun könnte man vielleicht sagen „tar ist doch genau das was Du brauchst“, aber das Problem dabei ist, dass an den Maschinen keine Tape Streamer angeschlossen sind, sondern nur externe CD-Brenner…
Es sollen aber dennoch Backups erstellt werden, die dann ein System im Zweifelsfall wiederherstellen können…
Als Backupmethode habe ich vorerst mal ufsdump (Linux-äquivalent ist „dump“) ins Auge gefasst. tar und gzip klingen für mich auch nicht schlecht, aber ich bin mir nicht so ganz sicher ob diese auch entsprechende Dienste leisten können…
Szenario wäre dabei dass nach einem Backup die Festplatte crasht und die Daten wiederhergestellt werden müssen… Also Betriebssystem mit allen einstellungen und installierten Programmen… Und das auf eine nagelneue Festplatte.
Da es sich um Ausfallszenarien handeln sollte wäre es nicht so tragisch wenn es aufwändig wäre das ganze zu sichern, aber fein wäre natürlich ein „CD rein, backup zurückspielen und weitermachen“…
Kopfzerprechen macht mir dabei wie gesagt zum einen die Wiederherstellung an sich. d.h. sind alle Zugriffsrechte korrekt gesetzt, bekomme ich alle Konfigurationen (IP, Treiber…) wieder etc…
Zum anderen aber auch die Prozedur an sich… Ich denke da vor allem daran, wie ich eine auf SPARC Maschinen bootbare CD erstellen soll und ob die CD jedesmal erstellt werden soll oder ob es einfach eine „dummy-CD“ sein soll, mit der man dann einfach nur bootet um anschliessend von einer anderen CD das wiederherstellungsimage zu bekommen…

Für jegliches brainstorming bin ich sehr dankbar…
Bye
Munich

Ich will nach wie vor eine Unix (Solaris 8) Maschine
backuppen…

Hast Du denn noch genug Platz auf einer Partition, um die Images dort zwischenzuspeichern? Dann sollte das ganz einfach mit „dd“ gehen. Die Ausgabe von dd (also die Daten der zu sichernden Partition) wird dann noch durch gzip gejagt und mit split in 650 MB Happen tranchiert. Fertig zum Brennen…

Gruß
Bastian

Hast Du denn noch genug Platz auf einer Partition, um die
Images dort zwischenzuspeichern? Dann sollte das ganz einfach
mit „dd“ gehen.

Wichtig dabei: Mache ***NIE*** Images von aktiven Partitionen mit dd.

Bis auf den Bootloader sollten sich alle Daten mit tar speichern lassen.

Moin

Wenn’s mehrere Machinen sind und du nicht mit dem Ausfall aller Platten gleichzeigtig rechenst:

Kuck dir http://faubackup.sourceforge.net/ für die erste „online“ Stufe an.

Ansonten: Streamer sind was tolles.

cu

Ich will nach wie vor eine Unix (Solaris 8) Maschine
backuppen…

Dann sollte das ganz einfach mit „dd“ gehen. Die Ausgabe von
dd […] wird dann noch durch gzip gejagt und mit
split in 650 MB Happen tranchiert.

Oergs! Niemals gzip fuer backups verwenden!

Gruss vom Frank.

Hallo

Hi,

Ich will nach wie vor eine Unix (Solaris 8) Maschine
backuppen…

Vorab: ich kenne mich mit Solaris-Maschinen eher wenig aus.

Da ich dafür keine Programme gefunden habe sehe ich mich also
mehr oder weniger gezwungen selbst etwas zu schreiben auf
Shell-Ebene.

Du sagst das so, als ob es was Schlimmes waere.

Nun könnte man vielleicht sagen „tar ist doch genau das was Du
brauchst“,

Ja.

aber das Problem dabei ist, dass an den Maschinen keine Tape
Streamer angeschlossen sind, sondern nur externe CD-Brenner…

tar muss nicht direkt auf ein device schreiben, es kann auch normale Dateien ausgeben.

tar und gzip klingen für mich auch nicht schlecht, aber ich
bin mir nicht so ganz sicher ob diese auch entsprechende
Dienste leisten können…

Backups komprimieren? Ziel ist es doch, eine (vollstaendige) Redundanz anzulegen (eben das backup). Redundanzen dann wieder durch die Komprimierung zu entfernen erscheint mir ziemlich widersinnig.

Szenario wäre dabei dass nach einem Backup die Festplatte
crasht und die Daten wiederhergestellt werden müssen… Also
Betriebssystem mit allen einstellungen und installierten
Programmen…

Das System selbst gehoert nicht ins backup. Das kannst Du doch von Installationsmedium wiederherstellen. Ins backup kommen nur Daten und Konfiguration.

Kopfzerprechen macht mir dabei wie gesagt zum einen die
Wiederherstellung an sich. d.h. sind alle Zugriffsrechte
korrekt gesetzt, bekomme ich alle Konfigurationen (IP,
Treiber…) wieder etc…

Das Stichwort: etc. Genauer /etc. Dort wird eben die Konfiguration abgelegt. Um Zugriffsrechte und Dateieigentuemer kuemmert sich tar. Es sichert dabei user IDs, nicht Namen. Die Zuordnung ID Name muss anderweitig wiederhergestellt werden: entweder von der zentralen Nutzerverwaltung oder durch /etc/passwd aus dem backup.

Zum anderen aber auch die Prozedur an sich… Ich denke da vor
allem daran, wie ich eine auf SPARC Maschinen bootbare CD
erstellen soll und ob die CD jedesmal erstellt werden soll
oder ob es einfach eine „dummy-CD“ sein soll, mit der man dann
einfach nur bootet um anschliessend von einer anderen CD das
wiederherstellungsimage zu bekommen…

Gar nicht. Du installierst zuerst das System neu und bootest davon. Die Differenz vom frischen System zum letzten backup holst Du aus der Sicherung.

Für jegliches brainstorming bin ich sehr dankbar…

In einer C’T gab es mal einen ganz interessanten Artikel mit den Grundlagen: vollstaendiges, differentielles, inkrementelles backup, Umgang mit den Medien, etc. Leider find ich die nicht mehr. AFAIR war er in 8/03, zumindest lese ich das gerade aus dem Artikel-Recherche-Kaffeesatz.

Ich wuerde etwa folgendes implementieren: Auf dem frisch installierten System wird in ein Verzeichnis ein backup volume auf einer anderen Maschine via NFS o. ae. eingehangen (eg. in /mnt/backup/). Dort wuerde ich zwei Dateien /mnt/backup/lastfull.$HOSTNAME und lastinc.$HOSTNAME mit touch oder mit date +%Y-%j >$filename anlegen. Auszerdem wuerde ich dort eine Textdatei (backup.files) mit den zu sichernden Verzeichnissen ablegen. Mit

# tar -cO --files-from=/mnt/backup/backup.files \
\>backup.full.$HOSTNAME-`date +%Y-%j` &&
date +%Y-%j \>/mnt/backup/lastfull.$HOSTNAME &&
date +%Y-%j \>/mnt/backup/lastinc.$HOSTNAME

wird ein vollstaendiges backup des Systems abgelegt und das Datum fuer dieses vermerkt. Mit

# tar -cO --files-from=/mnt/backup/backup.files --newer=/mnt/backup/lastfull.$HOSTNAME \
\>/mnt/backup.diff.$HOSTNAME-`date +%Y-%j` &&
date +%Y-%j \>/mnt/backup/lastinc.$HOSTNAME

wird ein (zum letzten vollstaendigen) differentielles backup abgelegt.

# tar -cO --files-from=/mnt/backup/backup.files --newer=/mnt/backup/lastinc.$HOSTNAME \
\>/mnt/backup/backup.inc.$HOSTNAME-`date +%Y-%j` && 
date +%Y-%j \>/mnt/backup/lastinc.$HOSTNAME

legt ein inkrementelles backup an.

Das per cron zu guenstigen Zeiten (Nachts) in sinnvollen Intervallen (vollstaendig: einmal pro Woche, differentiell oder inkrementell jede Nacht). Die zu sicherenden Partitionen muessen dabei readonly gemountet sein, da das Dateisystem sonst nicht konsistent musz.

Das Wiederherstellen wird etwas kniffliger: Zuerst das System neu installieren und das backup volume einhaengen. Dann muss als erstes das letzte vollstaendige backup eingespielt werden.

# tar x`ls /mnt/backup/backup.full.$HOSTNAME.* |tail -n1`

sollte das tun. Dann das letzte differentielle, falls vorhanden. Das findet man genauso, wie das letzte vollstaendige. Danach muessen alle inkrementellen seit dem letzten differentiellen (bzw. vollstaendigen) backup zurueckgespielt werden. Hm, zufaelligerweise funktioniert

 ls backup.diff.$HOSTNAME.\* backup.inc.$HOSTNAME.\* |
grep --after-context=$hugenumber `ls backup.diff.$HOSTNAME.* |tail -n1`

vielleicht, da d vor i kommt. So richtig schoen ist das nicht, aber was sinnvolles faellt mir gerade nicht ein. Anybody else?

Alles ungetestet, bitte kritisch betrachten. Falls, wie letztens angedeutet, einzelne Optionen dem Solaris-tar unbekannt sind, wuerde ich an Deiner Stelle die Quellen vom GNU-tar kompilieren (oder Du suchst nach den passenden Pendants).

HTH,
Gruss vom Frank.

hui wow, danke
ich hoffe mal dass ich das alles verwerten kann…

Shell-Ebene.

Du sagst das so, als ob es was Schlimmes waere.

:wink: nee, sicher nicht… Aber mein Problem mit der Shell ist, dass ich mich da nicht so gut auskenne - manche man pages bringen mich nicht gerade weiter… Vor allem aber dass man die Befehle kennen muss um sie benutzen zu können :wink:

aber das Problem dabei ist, dass an den Maschinen keine Tape
Streamer angeschlossen sind, sondern nur externe CD-Brenner…

tar muss nicht direkt auf ein device schreiben, es kann auch
normale Dateien ausgeben.

das hatte ich auch schon gelesen, aber die backups sollten ja nach möglichkeit auf CD gebrannt werden. Für tar hab ich aber keinen Schalter gefunden, der mir eine 1,5 GB Datei auf 2 CD’s verteilen könnte oder zumindest zurechtlegt…

tar und gzip klingen für mich auch nicht schlecht, aber ich
bin mir nicht so ganz sicher ob diese auch entsprechende
Dienste leisten können…

Backups komprimieren? Ziel ist es doch, eine (vollstaendige)
Redundanz anzulegen (eben das backup). Redundanzen dann
wieder durch die Komprimierung zu entfernen erscheint mir
ziemlich widersinnig.

wie oben gesagt sollen die Daten auf CD gesichert werden. Gzip kann mir die Dateien splitten und wenn ich die backupdateien erst auf die Platte entpacken muss, dann soll mir das recht sein :wink:
Einzelne Daten aus dem Backup zurückzugewinnen dürfte theoretisch nicht vorkommen… Aber wie das mit der theorie so ist kann schnell mal einer kommen und sagen dass er genau das will, was die theorie ausgeschlossen hatte *g*

Szenario wäre dabei dass nach einem Backup die Festplatte
crasht und die Daten wiederhergestellt werden müssen… Also
Betriebssystem mit allen einstellungen und installierten
Programmen…

Das System selbst gehoert nicht ins backup. Das kannst Du
doch von Installationsmedium wiederherstellen. Ins backup
kommen nur Daten und Konfiguration.

Naja, sicher kann man das vom Medium selbst herstellen…
Ich muss dazu sagen, dass ich noch nie eine Solaris installiert habe, und deswegen weiss ich auch nicht wie lange das dauert…
Ich weiss es aber von SuSE und von Windows in einigen Versionen… Und ich weiss wie schnell ich ein auf den Rechner zurechtgeschnittenes Betriebssystem mittels Norton Ghost wiederherstellen kann…
Deswegen möchte ich mir diesen Weg eigentlich sparen, weil es schnell mal sehr sehr viel Zeit in Anspruch nehmen kann…

Kopfzerprechen macht mir dabei wie gesagt zum einen die
Wiederherstellung an sich. d.h. sind alle Zugriffsrechte
korrekt gesetzt, bekomme ich alle Konfigurationen (IP,
Treiber…) wieder etc…

Das Stichwort: etc. Genauer /etc. Dort wird eben die
Konfiguration abgelegt. Um Zugriffsrechte und
Dateieigentuemer kuemmert sich tar. Es sichert dabei user
IDs, nicht Namen. Die Zuordnung ID Name muss
anderweitig wiederhergestellt werden: entweder von der
zentralen Nutzerverwaltung oder durch /etc/passwd aus dem
backup.

das war eine sehr wichtige Information für mich… Danke nochmal!
Werden in /etc auch die Konfigrationen von anderen Programmen gesichert? (ist das usus?) Oder verwenden andere Programme ihre eigenen Konfigurationsfiles, die dann eben nicht im /etc liegen…?
Die Userverwaltung liegt in /usr?

Zum anderen aber auch die Prozedur an sich… Ich denke da vor
allem daran, wie ich eine auf SPARC Maschinen bootbare CD
erstellen soll und ob die CD jedesmal erstellt werden soll
oder ob es einfach eine „dummy-CD“ sein soll, mit der man dann
einfach nur bootet um anschliessend von einer anderen CD das
wiederherstellungsimage zu bekommen…

Gar nicht. Du installierst zuerst das System neu und bootest
davon. Die Differenz vom frischen System zum letzten backup
holst Du aus der Sicherung.

aber was für einen Unterschied macht das?
Wenn es sich um das gleiche System handelt, dann sollte es doch egal sein ob ich nur die Konfiguration zurückschreibe, oder eben das komplette System (und mir dabei die installation des Systems spare)

In einer C’T gab es mal einen ganz interessanten Artikel mit
den Grundlagen: vollstaendiges, differentielles,
inkrementelles backup, Umgang mit den Medien, etc. Leider
find ich die nicht mehr. AFAIR war er in 8/03, zumindest lese
ich das gerade aus dem Artikel-Recherche-Kaffeesatz.

gelesen hab ich darüber auch schon einiges (aber nicht in der C’T)… meistens wird dabei aber (ufs)dump genannt…

(…) Dein Vorschlag (…)

klingt generell ja nicht schlecht, nur ist da wieder mein Problem, dass ich mich nicht so besonders gut auskenne mit dem System, deswegen versuche ich hier auch meine Zweifel zu beseitigen auf der Suche nach der idealen Lösung…
Allerdings fällt der Vorschlag mit dem mounten schon wieder flach, weil ich nicht davon ausgehen kann, dass ein Netzwerk besteht und eine Maschine den für das backup benötigten Speicher liefert…
Deswegen bleibt mir eben fast nur die Möglichkeit mit den CD-ROMs (weil eben kein Streaming Laufwerk vorhanden ist)

Das per cron zu guenstigen Zeiten (Nachts) in sinnvollen
Intervallen (vollstaendig: einmal pro Woche, differentiell
oder inkrementell jede Nacht). Die zu sicherenden Partitionen
muessen dabei readonly gemountet sein, da das Dateisystem
sonst nicht konsistent musz.

an cronjobs hatte ich auch gedacht, so könnte man sich die Zeit sparen, um das backupfile zu erzeugen, aber was wenn die Maschine dann übernacht ausgeschalten wird…? Gibt ja schliesslich manchmal komische Leute *g*
Das mit der konsistenz macht mir auch noch ein flaues Gefühl im Magen - Ghost erzeugt images auf DOS-Ebene, um da auf der sicheren Linie zu sein… Die Jungs von PowerQuest meinten zu mir, dass die Backups sicher wiederherstellbar wären - ohne Dateiverluste etc (abgesehen von denen, die nach dem erstellen des Backups erst angelegt wurden *g*)

Hm, zufaelligerweise funktioniert

ls backup.diff.$HOSTNAME.* backup.inc.$HOSTNAME.* |
grep --after-context=$hugenumber ls backup.diff.$HOSTNAME.\* |tail -n1

vielleicht, da d vor i kommt. So richtig
schoen ist das nicht, aber was sinnvolles faellt mir gerade
nicht ein. Anybody else?

d vor i? versteh ich grade nicht, bzw finde ich nicht :confused:

Danke schon mal
Munich

Shell-Ebene.

Du sagst das so, als ob es was Schlimmes waere.

:wink: nee, sicher nicht… Aber mein Problem mit der Shell ist,
dass ich mich da nicht so gut auskenne

Wer hat Dir eigentlich die Qualifikation zugesprochen, eine solide backup-Strategie ausarbeiten zu koennen? Meine ja nur…

  • manche man pages bringen mich nicht gerade weiter…

Konkrete Fragen zu man pages werden hier (und anderswo) weitaus lieber gesehen als „wie kann ich /etc/rc.d/rc.local editieren?“.

Vor allem aber dass man die Befehle kennen muss um sie
benutzen zu können :wink:

Papier? Bleistift? Auf Linux ist apropos ganz nuetzlich.

das hatte ich auch schon gelesen, aber die backups sollten ja
nach möglichkeit auf CD gebrannt werden. Für tar hab ich aber
keinen Schalter gefunden, der mir eine 1,5 GB Datei auf 2 CD’s
verteilen könnte oder zumindest zurechtlegt…

Wird das backup auch so grosz, wenn Du das System aus selbigem rauslaesst. Ansonsten gibt es hier (GNU-tar) die Option --tape-length. Und dann gibt es noch split. Und, und, und…

[tar und gzip]

Backups komprimieren? [nicht]

wie oben gesagt sollen die Daten auf CD gesichert werden. Gzip
kann mir die Dateien splitten

Ehrlich? Wie denn? (Weisz ich wirklich nicht.)

Trotzdem ist das Argument natuerlich haltlos (siehe oben). Und wenn in Deinem backup ein einziges bit umkippt kannst Du alle nachfolgenden Dateien vergessen. Du hast ein 1.5GB-backup. Nach Murphy liegt die Wahrscheinlichkeit, dass ein solcher Defekt in den ersten 200kB auftritt bei ca. 98.5%. Wenn Du schon komprimieren muszt, nimm wenigstens bzip2, das komprimiert blockweise und Dir geht maximal ein solcher Block (einstellbarer Groesze) verloren.

Das System selbst gehoert nicht ins backup.

Ich muss dazu sagen, dass ich noch nie eine Solaris
installiert habe,

Wird’s Zeit.

Ich weiss es aber von SuSE und von Windows in einigen
Versionen… Und ich weiss wie schnell ich ein auf den Rechner
zurechtgeschnittenes Betriebssystem mittels Norton Ghost
wiederherstellen kann…

Alles eine Frage der Uebung.

Deswegen möchte ich mir diesen Weg eigentlich sparen, weil es
schnell mal sehr sehr viel Zeit in Anspruch nehmen kann…

Sind die Rechner alle identisch? Dann pack das System nicht in das backup jeder Maschine sondern ziehe ein image von einem frisch installierten System.

Werden in /etc auch die Konfigrationen von anderen Programmen
gesichert? (ist das usus?) Oder verwenden andere Programme
ihre eigenen Konfigurationsfiles, die dann eben nicht im /etc
liegen…?

$ man hier

Systemweite Konfiguration gehoert (hier, Linux) nach /etc. Installationen am Paketmanagement vorbei installierte software legt die Konfiguration gelegentlich in /usr/local/etc ab. Ist aber eher selten und kann i. A. per ./configure-Schalter umgelenkt werden. Nutzerspezifische Konfiguration gehoert ins /home/$user. Es gibt ein paar haeszliche Programme, die sich einbilden, dem nicht zu folgen, die sollten aber (insbesondere unter Solaris) eher selten sein (und auch moeglichst schnell sterben).

Die Userverwaltung liegt in /usr?

Nein. usr steht fuer Unix System Resource (oder irgend sowas). Dort liegen Programme und Daten (Dokumentation, kannst Du Dir ja mal ansehen). Ganz gutes gemeinsames Merkmal ist, dass alles dort nicht zum booten benoetigt wird. Die Kiste sollte ohne /usr hochfahren koennen und voll netzwerkfaehig werden (um /usr z. B. aus dem Netzwerk zu mounten).

Gar nicht. Du installierst zuerst das System neu und bootest
davon. Die Differenz vom frischen System zum letzten backup
holst Du aus der Sicherung.

aber was für einen Unterschied macht das?

Dass das backup kleiner wird?

Wenn es sich um das gleiche System handelt, dann sollte es
doch egal sein ob ich nur die Konfiguration zurückschreibe,
oder eben das komplette System (und mir dabei die installation
des Systems spare)

Meinethalben, wenn Speicherplatz egal ist.

[Grundlagen: vollstaendiges, differentielles,
inkrementelles backup, Umgang mit den Medien]

gelesen hab ich darüber auch schon einiges (aber nicht in der
C’T)… meistens wird dabei aber (ufs)dump genannt…

Darin ging es weniger um Programme, eher um Begriffsdefinition und Konzepte.

(…) Dein Vorschlag (…)

klingt generell ja nicht schlecht, nur ist da wieder mein
Problem, dass ich mich nicht so besonders gut auskenne mit dem
System, deswegen versuche ich hier auch meine Zweifel zu
beseitigen auf der Suche nach der idealen Lösung…
Allerdings fällt der Vorschlag mit dem mounten schon wieder
flach, weil ich nicht davon ausgehen kann, dass ein Netzwerk
besteht und eine Maschine den für das backup benötigten
Speicher liefert…

Du arbeitest in sehr ungewoehnlicher Umgebung.

Deswegen bleibt mir eben fast nur die Möglichkeit mit den
CD-ROMs (weil eben kein Streaming Laufwerk vorhanden ist)

Hat jede Maschine einen Brenner? Oder rennst Du dann mit einem externen rum? Rechner ohne Netzwerk hab ich eigentlich auch vor geraumer Zeit aus meinem Weltbild verbannt.

an cronjobs hatte ich auch gedacht,

Ja, natuerlich! Willst Du rumrennen und das backup von Hand anschmeiszen? Willst Du die Leute root sein und die das machen lassen?

so könnte man sich die Zeit sparen, um das backupfile zu
erzeugen, aber was wenn die Maschine dann übernacht
ausgeschalten wird…? Gibt ja schliesslich manchmal komische
Leute *g*

Du arbeitest in wirklich ungewoehnlicher Umgebung.

Das mit der konsistenz macht mir auch noch ein flaues Gefühl
im Magen - Ghost erzeugt images auf DOS-Ebene, um da auf der
sicheren Linie zu sein… Die Jungs von PowerQuest meinten zu
mir, dass die Backups sicher wiederherstellbar wären

Erklaeren die Jungs von PowerQuest auch, welche Art Magie sie dazu einsetzen? Wuerde mich wirklich interessieren.

Hm, zufaelligerweise funktioniert

ls backup.diff.$HOSTNAME.* backup.inc.$HOSTNAME.* |
grep --after-context=$hugenumber ls backup.diff.$HOSTNAME.\* |tail -n1

vielleicht, da d vor i kommt. So richtig
schoen ist das nicht, aber was sinnvolles faellt mir gerade
nicht ein. Anybody else?

d vor i? versteh ich grade nicht, bzw finde ich nicht :confused:

$ man Alphabet

ls backup.diff* listet alle differentiellen backups auf. Dank der Namensgebung sind sie chronologisch geordnet. Pipen durch tail -n1 findet das letzte davon. ls backup.{diff,inc}* listet alle differentiellen und inkrementellen backups auf. Da d vor i im Alphabet kommt kommen erst die differentiellen, dann die inkrementellen. grep filtert das eben gefundene letzte differentielle raus sowie durch --after-context noch $hugenumber weitere (die inkrementellen) backups.

Das ist aber alles Quark, da mir vorhin eingefallen ist, dass

# find . -newer `ls backup.diff.$HOSTNAME.* |tail -n1`

alle Dateien findet, die neuer als das letzte differentielle backup.

Nur mal so, damit Du weiszt, was geht: hier stand mal eine Kiste rum, die wurde (vom bios) jede Nacht gestartet, hat das backup vom server gezogen und ist dann wieder eingeschlafen. Auch sehr witzig (als proof of concept) war das dezentrale backup in eine untrusted Umgebung. Die toolchain war etwa tar |bzip2 |gpg |netcat. Gescheitert ist es daran, dass bestimmte Leute unbedingt 4GB durch eine Leitung schieben wollten, die nur unwesentlich dicke als DSL war.

HTH,
Gruss vom Frank.

:wink:

Wer hat Dir eigentlich die Qualifikation zugesprochen, eine
solide backup-Strategie ausarbeiten zu koennen? Meine ja
nur…

Das Problem an Personalrationalisierungen…
Sagen wir mal so; Wenn nicht ich, wer dann *fg*

[tar und gzip]

Ehrlich? Wie denn? (Weisz ich wirklich nicht.)

hmm… grade mal durchgesehen - vllt hab ich da was verwechselt ;/

Trotzdem ist das Argument natuerlich haltlos (siehe oben).
Und wenn in Deinem backup ein einziges bit umkippt kannst Du
alle nachfolgenden Dateien vergessen. Du hast ein
1.5GB-backup. Nach Murphy liegt die Wahrscheinlichkeit, dass
ein solcher Defekt in den ersten 200kB auftritt bei ca. 98.5%.

hmm…
naja ich hab davon leider nicht sooo viel Ahnung, aber nachdem es unter Windows z.B. auch programme gibt, die ein laufendes System so sichern können, dass es mit einer CD wiederhergestellt werden kann dachte ich nicht dass das bei Unix so komplett anders ist…?

Wenn Du schon komprimieren muszt, nimm wenigstens bzip2, das
komprimiert blockweise und Dir geht maximal ein solcher Block
(einstellbarer Groesze) verloren.

das wird das grösste Problem sein…
Vermutlich wäre nicht mal gzip per default auf den Kisten *narf*

Das System selbst gehoert nicht ins backup.

Ich muss dazu sagen, dass ich noch nie eine Solaris
installiert habe,

Wird’s Zeit.

tjaaa… aber auf welchen Kisten denn?
Wenn dann sollte es schon eine SUN-Kiste sein, aber die werden alle benötigt und ich kann nicht mal eben eine Platt machen…

Ich weiss es aber von SuSE und von Windows in einigen
Versionen… Und ich weiss wie schnell ich ein auf den Rechner
zurechtgeschnittenes Betriebssystem mittels Norton Ghost
wiederherstellen kann…

Alles eine Frage der Uebung.

im Zweifelsfall haben die Leute die das machen gar keine Übung… :frowning:
idr sollten sie sich aber doch mit dem System auskennen…

Sind die Rechner alle identisch? Dann pack das System nicht
in das backup jeder Maschine sondern ziehe ein image von einem
frisch installierten System.

thats the problem - es handelt sich wie gesagt um mehrere Rechner von SUN… Diese Rechner werden je nach Netzwerkumgebung umkonfiguriert… Dabei kann man davon ausgehen, dass von SUN auch unterschiedliche Hardwarekomponenten eingebaut werden, was das ganze unmöglich machen dürfte… Allein die Monitorunterstützung dürfte da schon enorme Probleme geben…

Du arbeitest in sehr ungewoehnlicher Umgebung.

leider, das macht das ganze ja erst so kompliziert…

Deswegen bleibt mir eben fast nur die Möglichkeit mit den
CD-ROMs (weil eben kein Streaming Laufwerk vorhanden ist)

Hat jede Maschine einen Brenner? Oder rennst Du dann mit
einem externen rum? Rechner ohne Netzwerk hab ich eigentlich
auch vor geraumer Zeit aus meinem Weltbild verbannt.

nach den Infos vom Kollegen hat jedes System ein internes CDROM und einen externen Brenner. Die Rechner können Standalone stehen aber eben auch in nem grösseren Netzwerk stehen…

an cronjobs hatte ich auch gedacht,

Ja, natuerlich! Willst Du rumrennen und das backup von Hand
anschmeiszen? Willst Du die Leute root sein und die das
machen lassen?

ja :wink:
die Leute haben das root-Passwort ohnehin. Nein, nicht die User der Maschine, aber die Leute die sich um die Wartung unserer Maschinen kümmern…

so könnte man sich die Zeit sparen, um das backupfile zu
erzeugen, aber was wenn die Maschine dann übernacht
ausgeschalten wird…? Gibt ja schliesslich manchmal komische
Leute *g*

Du arbeitest in wirklich ungewoehnlicher Umgebung.

vor allem mit unberechenbaren Leuten :wink:
siehste ja daran, dass sie nen Unix-N00b an sowas ranlassen :wink:

Das mit der konsistenz macht mir auch noch ein flaues Gefühl
im Magen - Ghost erzeugt images auf DOS-Ebene, um da auf der
sicheren Linie zu sein… Die Jungs von PowerQuest meinten zu
mir, dass die Backups sicher wiederherstellbar wären

Erklaeren die Jungs von PowerQuest auch, welche Art Magie sie
dazu einsetzen? Wuerde mich wirklich interessieren.

leider nein, aber fakt ist dass es funktioniert… Ein System unter WinXP konnte ich sogar mit etwas aufwand auf einen ähnlichen Rechner übertragen…

Nur mal so, damit Du weiszt, was geht: hier stand mal eine
Kiste rum, die wurde (vom bios) jede Nacht gestartet, hat das
backup vom server gezogen und ist dann wieder eingeschlafen.
Auch sehr witzig (als proof of concept) war das dezentrale
backup in eine untrusted Umgebung. Die toolchain war etwa tar
|bzip2 |gpg |netcat. Gescheitert ist es daran, dass bestimmte
Leute unbedingt 4GB durch eine Leitung schieben wollten, die
nur unwesentlich dicke als DSL war.

das klingt echt cool… Ich werd immer begeisterter von Unix :wink:
Nur ist es am Anfang immer doof wenn man nur die Möglichkeiten kennen lernt, aber nichts von wegen wie das überhaupt geht bzw das nicht versteht, was damit gemeint ist *g*

Hallo Munich,

am besten ist da immer noch ufsdump. Kann man auch auf Festplatte schreiben, oder besser ein Bandlaufwerk (gib’s ja schon kostengünstig bei EBAY), aber Platte geht auch. Ein Restore ist dann ganz einfach, von CDROM booten (die org. Installations-CD), dann die neue Festplatte partitionieren, ufsrestore zurück, dann neue Platte bootfähig machen.
Man muss sich aber notieren, welche Partition vorher wie gross war. Dann ist das eigentlich sehr einfach (einfacher als bei Windows), da man den ufsdump sogar bei laufendem System machen kann. Wir haben das erfolgreich bei großen Produktionsmaschinen durchgeführt.

Bei Interesse kann ich den gesamten Ablauf mal schreiben, ist jedoch ne ganze Menge, die beachtet werden sollte. Ist auch im Admin-Guide von SUN enthalten …

Gruß Stephan