PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Backupserver



Seiten : [1] 2

Cerox
16.08.06, 14:13
Hallo zusammen,

ich möchte für eine Schule einen Backupserver einrichten. Hardware ist bald vorhanden (in ein paar Wochen); als OS werde ich Debian verwenden.

Ich habe nun schon ein bisschen gesucht usw., aber ich möchte Tipps und Anregungen von euch haben, wie sowas bestmöglich und effizient durchgeführt werden kann.

Es soll das gesamte System (der Schulserver, nicht der Backupsserver) (wöchentlich) sowie das /home Verzeichnis (täglich) gesichert werden. Das werde ich wohl per cronjob realisieren.

Nun meine Fragen...

1. Was eignet sich am besten zum Sichern der root-Partition (cp) ? Es muss ja jede Woche automatisch geschehen. Wie kann ich überprüfen, ob der Vorgang erfolgreich war?

2. Die Home-Shares (komplettes Verzeichnis /home) sollen jeden Samstag gesichert werden; montags bis freitags inkrementell. Das möchte ich alles mit tar realisieren. Ist das sinnvoll?

3. Sollte man die Daten lieber nicht komprimieren, um evtl. Fehler zu vermeiden (auf tar bezogen)? Ich möchte die Backups nach dem Sichern natürlich auch überprüfen; falls was fehlgeschlagen ist, werde ich es protokollieren lassen. Daher halte ich die Komprimierung hier nur für ein Hindernis, vor allem bei der Überprüfung, sowie für eine weitere Fehleranfälligkeit.

4. Nunja, ich wüsste jetzt wie ich mit tar das gesicherte /home wieder zurückspielen kann. Jedoch wird das wohl nie der Fall sein. Nehmen wir also an, User xyz möchte, dass ein Restore seines gestern gesicherten Verzeichnisses durchgeführt wird. Wie kann man das dann realisieren oder ist mein Konzept dann völlig daneben?

marce
16.08.06, 14:23
Wichtigste Frage: müssen es eignene Skripte auf tar / rsync / ... -Basis sein oder darf auch eine (evtl. Kostenpflichtige) Backup-SW zum Einsatz kommen?

Cerox
16.08.06, 14:28
Nein, es darf nichts kosten.

Daher werde ich tar verwenden.

killerhorse
16.08.06, 14:48
Hallo,

Habe seit einiger Zeit DAR erfolgreich im Einsatz.
http://dar.linux.free.fr/

Ein Howto, dass prinzipiell zeigt wie DAR funktioniert findest Du hier:
http://gradha.sdf-eu.org/textos/dar-differential-backup-mini-howto.en.html

Hab mir dann vor Kurzem aus dem Ganzen kleine Scripts gebastelt die als Cronjobs ausgeführt werden.
Mache immer einmal in der Woche ein Vollbackup und dann Täglich ein differenzielles. Das Ganze wird zuerst Lokal gespeichert, danach mit GPG verschlüsselt, dann wir das Verschlüsselte File upgeloadet und das Unverschlüsselte als Referenz für die diferenziellen Backups auf der Lokalen Festplatte belassen.
Jeweils bevor wieder ein neues Vollbackup gemacht wird wird der Ordener in dem die Backups liegen von "this_week" auf "last_week" verschoben (Lokal und am Backupserver). So habe ich immer Tagesaktuelle Backups von mind. einer Woche.

Wenn Du Lokal kein Platz für das Backup hast, kannst Du es z.B. direkt auf die Standartausgabe ausgeben lassen und mit einer Pipe and ssh übergeben und dann mit dd direkt in ein File am Backupserver schreiben.
Wobei es dann mit den diferenziellen Backups komplizierter wird, da DAR aber auch die Möglichkeit bietet ein Katalogfile zu erstellen, bzw. den File Katalog aus dem dar Archiv zu extrahieren, lässt sich das auch als Referenz für die diferenziellen Backups verwenden und DU musst nur diesen Katalog lokal speichern.

Weiterer Vorteil von DAR: Jedes File wird einzeln komprimiert und dann ins Archiv gepackt, das heisst, wenn wirklich (was unwarscheinlich ist) ein Fehler beim Komprimieren auftritt, dann ist nur ein File kaputt und nicht alles.

Finde DAR wirklich gut! Aber man muss ein wenig basteln.

MfG

Christian

marce
16.08.06, 14:50
hm, meine mich zu erinnern, dass hier auch schon mal einige kostenlose Backuplösungen genannt wurden, die alle Features bieten, die Du so verlangst.

Die SuFu hier mal befragt? Ok, rein mit "Backup" wird man von den Ergenissen erschlagen, aber es lohnt sich glaube ich, sich mal durch die Liste durchzuwurschteln...

stefaan
16.08.06, 15:49
Servus!

Zwei Optionen, die ich zur Zeit einsetze:

-) backup2l für Sicherungen auf eine eigene Partition, die dann übers Netzwerk syncronisiert wird...
-) Arkeia Smart Backup ist kostenlos bis 50GB...

Grüße, Stefan

BedriddenTech
16.08.06, 16:18
- Bacula, oder
- ENBD+lvm2

pibi
16.08.06, 16:21
Kommt im Wesentlichen auf Deine Kenntnisse an bzw. auf die Zeit, die Du investieren kannst/willst.

- Recht einfach ist eine Sammlung von rsync-Scripten. Beispiele gibt es zuhauf im Netz.
- Eine dedizierte Backup-Software bietet mehr Komfort, ist in der Regel aber etwas komplexer. Mein Favorit ist hier bacula (http://www.bacula.org/). Absolut genial.

Gruss Pit.

baumgartner
16.08.06, 17:08
2. Die Home-Shares (komplettes Verzeichnis /home) sollen jeden Samstag gesichert werden; montags bis freitags inkrementell. Das möchte ich alles mit tar realisieren. Ist das sinnvoll?


Also für diesen Fall würd ich mir das Pythonskript rdiff-backup ansehen und jeden Samstag dann noch irgendein Rotate über ein Cron.
Das einzige Problem was du bekommen könntest wäre die Performance, da rdiff-backup ziemlich Ressourcen braucht. Der Vorteil ist aber dass du immer ganz leicht die letzte Version eine einzelne Datei zurückspielen kannst. Was mit tar doch etwas schwerer wird ;)

Blade
16.08.06, 21:12
Bei kostenlos und sicher fällt mir immer wieder rsync ein, dass ich seit einiger Zeit erfolgreich zur internen und externen Sicherung übers Internet per ssh benutze.

Zugegeben, das Script kostet ein wenig Zeit bis es passt und perfekt läuft. Dann ist aber Ruhe angesagt. :D

Cerox
17.08.06, 09:15
Also vielleicht sollte ich nochmal die wichtigsten Anforderung deutlich machen...

Die Backuplösung soll es ermöglichen, auf schnelle Weise zu überprüfen, ob die Backups erfolgreich waren oder nicht. Ich habe keine Lust oder Zeit, jeden Tag die Logfiles zu durchstöbern, um zu gucken, ob tar bei der Überprüfung der Archive auch keine Fehler gefunden hat.

Ein Restore muss natürlich problemlos möglich sein. Wenn ein Schüler also die Daten von Mittwoch restored haben will, muss das schnell von Statten gehen (mit schnell ist eher die Ansteuerung per Kommandozeilenbefehl gemeint; das muss also wirklich mal eben so in 5 Minuten machbar sein).

Gedanken müsste man sich auch über die Datensicherheit machen. Falls der Schulserver kompromittiert wird, darf es nicht möglich sein, die Daten des Backupsservers zu erreichen.

Ich vermute mal, dafür brauche ich wohl eine Backuplösung und mit normalen Tools wie tar/dar wird es wohl nicht gehen?

killerhorse
17.08.06, 09:30
Hallo,

Sicher ist das mit das mit DAR möglich , denn genau dafür ist es da!

MfG

Christian

Cerox
17.08.06, 09:33
Hm, also ich überlege gerade wieder hin und her und solch eine Backupsoftware wie bacula braucht natürlich entsprechend eine Einarbeitungszeit.

Ich schaue mir gerade dar an und frage mich, warum es besser geeignet sein soll, als tar.

Also nehmen wir an Schüler XY verlangt ein Restore....

Unter /home/schueler befinden sich circa 3000 Homeshares welches alle als einzelne Archive gesichert werden müssen. Nur so kann ein einzelnes Homeverzeichnis schnell wiederhergestellt werden.

D.h. ich würde mit einer for-Schleife den Inhalt von /home/schueler auslesen und jeweils ein Archiv mit tar oder dar erstellen (samstags komplett, sonntags gar nicht, ansonsten inkrementell).

mamue
17.08.06, 09:58
Unter /home/schueler befinden sich circa 3000 Homeshares welches alle als einzelne Archive gesichert werden müssen. Nur so kann ein einzelnes Homeverzeichnis schnell wiederhergestellt werden.

D.h. ich würde mit einer for-Schleife den Inhalt von /home/schueler auslesen und jeweils ein Archiv mit tar oder dar erstellen (samstags komplett, sonntags gar nicht, ansonsten inkrementell).

Das kannst Du so machen, aber ich rate eher davon ab.
1.: Du kannst genauso gut aus einem einzigen tar-file ein einzelnes Verzeichnis wieder herstellen (tar xf backup.tar verzeichnisname).
2.: Du hättest eine unüberschaubare Anzahl von Backup-Dateien
3.: Nimm nicht tar. Eines Tages wirst Du womöglich samba nutzen wollen und Deine user wollen Windows-ACL setzen. Du wirst XFS oder reiserFS einsetzen und Dich beim nächsten restore wundern, wo die EA (erweiterten Attribute) geblieben sind.

Ich habe bislang star verwendet, was sich m Prinzip so bedienen lässt wie tar, aber das tool ist sehr langsam bei den differentiellen backups in komprimierten Archiven. Ich bekomme das Backup kaum noch zwischen 22:00 und 7:00 fertig. Ich weiß noch nicht, wie sich hierbei dar verhält.

HTH,
mamue

P.S.: Ach ja, ich kenne andere Schulen, die einen sehr interessanten Ansatz zur Datensicherung betreiben: In jedem Raum steht ein PC mit Brenner, wer sichern will, kann das dort tun. Wer das nicht will, muß mit den Konsequenzen leben.
Die Anwender sind meines Wissens zufrieden damit, ich überlege mir manchmal, ob ich da nicht auch so machen sollte, denn ich weiß, dass vieles, was man im Schulnetz so sichert zum einen redundant ist (_jeder_ Schüler hat eine Kopie davon) oder schlicht Unsinn ist (MP3-Sammlungen, wav-Dateien, lustige Filmchen etc.). Trotz Quota sind das hier ~16GB bei den Schülern.

Cerox
17.08.06, 10:11
3.: Nimm nicht tar. Eines Tages wirst Du womöglich samba nutzen wollen und Deine user wollen Windows-ACL setzen. Du wirst XFS oder reiserFS einsetzen und Dich beim nächsten restore wundern, wo die EA (erweiterten Attribute) geblieben sind.

Es wird ein reiner Backupserver, der die Daten auch schützen soll; d.h. außer den Administratoren bekommt darauf keiner Zugriff.

Meinst du mit Samba den normalen Schulserver? Dieser Server setzt bereits Samba 3 ein, um den Windows-Clients Zugriff auf ihre Home-Verzeichnisse zu gewähren.

Was genau meinst du mit erweiterten Attributen? Sowas wie a (append only), i (unveränderbar) und was es da noch alles gibt? Solche Attribute werden nicht gesetzt. "Normale" Berechtigungen sollen natürlich übernommen werden - d.h. der Owner soll erhalten bleiben und das Homeshare soll weiterhin die Rechte 700 haben.

edit:


Die Anwender sind meines Wissens zufrieden damit, ich überlege mir manchmal, ob ich da nicht auch so machen sollte, denn ich weiß, dass vieles, was man im Schulnetz so sichert zum einen redundant ist (_jeder_ Schüler hat eine Kopie davon) oder schlicht Unsinn ist (MP3-Sammlungen, wav-Dateien, lustige Filmchen etc.). Trotz Quota sind das hier ~16GB bei den Schülern.

- Natürlich ist es Unsinn die Homeshares der Schüler zu sichern - von denen beschwert sich auch keiner
- Wichtig ist es die Shares der Lehrer zu sichern, denn da ist das Geheule dann gleich groß, wenn Daten abhanden kommen - damit meine ich nicht versehentliches Löschen, sondern z.B. einen Festplattencrash oder ähnliches - dafür soll hauptsächlich gesichert werden

edit2:


1.: Du kannst genauso gut aus einem einzigen tar-file ein einzelnes Verzeichnis wieder herstellen (tar xf backup.tar verzeichnisname).

Nö, dann sagt er mir:


tar: /testverzeichnis_im_homeshare: Nicht im Archiv gefunden.
tar: Fehler beim Beenden, verursacht durch vorhergehende Fehler.

mamue
17.08.06, 11:03
Was genau meinst du mit erweiterten Attributen? Sowas wie a (append only), i (unveränderbar) und was es da noch alles gibt? Solche Attribute werden nicht gesetzt. "Normale" Berechtigungen sollen natürlich übernommen werden - d.h. der Owner soll erhalten bleiben und das Homeshare soll weiterhin die Rechte 700 haben.

Naja, Unix, genauer der Posix Dateisystem-Layer kennt nur Eigentümer, Gruppe und den Rest. Windows kennt da ein bisschen mehr, zum Beispiel kann man verschiedene Gruppen oder Benutzer angeben, die darauf zugreifen dürfen etc. Das geht auch ganz prima mit samba, sofern man ein geeignetes Dateisystem verwendet, zum Beispiel XFS oder ReiserFS. Normalerweise gibt es sonst so komische Fragen von den usern, wie "Wieso verschwinden die Berechtigungen immer wieder?". Tar sichert diese EA nicht mit, dar und star hingegen schon. rsync kennt die auch, AFAIK.



- Natürlich ist es Unsinn die Homeshares der Schüler zu sichern - von denen beschwert sich auch keiner
- Wichtig ist es die Shares der Lehrer zu sichern, denn da ist das Geheule dann gleich groß, wenn Daten abhanden kommen - damit meine ich nicht versehentliches Löschen, sondern z.B. einen Festplattencrash oder ähnliches - dafür soll hauptsächlich gesichert werden

Andere (Bundes)Länder, andere Sitten. Wenn das so ist, dann ist das wohl so. Mir wurde gesagt, ich solle die Schülerdaten sichern, sie könnten (und sind es bisweilen auch) relevant für Zensuren sein.



Nö, dann sagt er mir:

tar: /testverzeichnis_im_homeshare: Nicht im Archiv gefunden.
tar: Fehler beim Beenden, verursacht durch vorhergehende Fehler.

Re Nö.
Wenn ich "tar cf backup.tar /home/shuelerX" sichere, muß ich natürlich auch "tar xf backup.tar home/schuelerX" zurücksichern. Soll heißen, der Pfad muß stimmen.

mamue

Cerox
17.08.06, 11:16
Re Nö.

Ok, hatte mich vertippt^^

Samba-ACLs werden soweit ich weiß nicht verwendet.

Die Komprimierung würde ich jedoch nicht aktivieren, da das nur ewig dauert und bei Fehlern habe ich ein Problem.

Ich werde das nochmal durchdenken wenn ich Zeit habe, vor allem ein Konzept, wie lange ich die Daten aufbewahre etc...

Bei Problemen melde ich mich wieder^^

PS: Wie würdet ihr die tar-Archive auf den Backupserver übertragen?

Ich habe vor den, Schulserver direkt mit einer separaten NIC an den Backupserver zu hängen - der Backupserver wird vom Netz sonst nicht erreichbar sein, da der Schulserver nichts an dieses Netz routen wird und der Backupserver keine anderen Netzwerkverbindung haben wird.

Von daher ist es nicht nötig, die Daten verschlüsselt, beispielsweise per SCP, zu übertragen.

Ich überlege gerade, welche Möglichkeit sich am besten eignet, täglich die Daten schnell und effizient zu übertragen. Prinzipiell käme mir FTP oder NAS in den Sinn, wobei ich mit NAS keine Erfahrungen habe. Am besten sollte man dann auf dem Backupserver ein Script laufen lassen, welches die Archive, wenn sie angekommen sind, anderes berechtigt, so dass der Schulserver darauf keinen Zugriff mehr hat.

baumgartner
17.08.06, 12:47
Also bei uns in der Schule stand ungefähr sowas zum Thema Datensicherheit in der EDV-Ordnung.

Jeder Nutzer ist selbst verantwortlich für die Sicherheit seiner Daten. Die Administration entzieht sich hierbei jeder Haftung und trägt bei Datenverlust keine Haftung
----------

Von daher ist es nicht nötig, die Daten verschlüsselt, beispielsweise per SCP, zu übertragen.

Ich überlege gerade, welche Möglichkeit sich am besten eignet, täglich die Daten schnell und effizient zu übertragen. Prinzipiell käme mir FTP oder NAS in den Sinn, wobei ich mit NAS keine Erfahrungen habe. Am besten sollte man dann auf dem Backupserver ein Script laufen lassen, welches die Archive, wenn sie angekommen sind, anderes berechtigt, so dass der Schulserver darauf keinen Zugriff mehr hat.

Und ich schreibe es dir noch einmal, sieh dir mal rdiff-backup an!

Fly
17.08.06, 12:51
Moin,

habt ihr noch nichts vom Backuppc gehört? Klicke hier! (http://backuppc.sourceforge.net/) Die Software ist Opensource und man kann über Weboberfläche bequem Daten sichern und Retoursichern... Die Daten können wahlweise über smb, rsync,tar und rsyncd gesichert werden. Da sich die Daten auch nicht täglich verändern, erstellt Backuppc auch inkrementale sicherungen.

Cerox
17.08.06, 13:16
Jeder Nutzer ist selbst verantwortlich für die Sicherheit seiner Daten. Die Administration entzieht sich hierbei jeder Haftung und trägt bei Datenverlust keine Haftung

Natürlich; es sollte auch jeder selbst verantwortlich sein. Aber wie schon gesagt: ich kann das nicht entscheiden - ich bestimme nicht, was gesichert werden soll.

Ich werde mich nochmal genauer über die Forderungen informieren und dann entscheiden ob ich zu herkömmlichen kleinen Tools oder zu Programmen wie BackupPC greife. Mit Webinterface ist es natürlich praktisch und schnell bei einem Restore...

marce
17.08.06, 18:09
'ne Idee wäre vielleicht auch noch, das ganze auf Suberversion / CVS-Basis zu realisieren...

Wobei von der Usability her meist reine Backupprogramme am besten geeignet sind... Ein paar wurden ja schon genannt, gerade backuppc ist glaube ich auch hier im Forum am beliebtesten...

killerhorse
17.08.06, 18:29
Hallo,

Was ich jetzt nicht ganz verstehe, du willst alle Home Verzeichnisse einzeln archivieren? Warum das?

MfG

Christian

Cerox
17.08.06, 18:59
Ich wusste nicht, dass ich mich tar auch einzelne Ordner wieder auspacken kann; daher sagte ich, ich würde die Ordner dann einzeln packen.

mamue
17.08.06, 19:00
Er will, wenn ich das richtig verstanden habe, sehr schnell einzelne Verzechnisse zurücksichern können. Wenn Du _ein_ großen Archiv hast, kann das recht lange dauern, wie mir erst später eingefallen ist. Auf der anderen Seite sind viele Archive nicht ganz so handlich, aber ob ich nun 2 oder 2000 Dateien habe, ist sooo wichtig nun auch nicht. Diese Fragestellung mag sich mit rsync oder ählichem natürlich auch mittlerweile längst erledigt haben.

mamue

Edit: Wollte natürlich nicht unqualifiziert dazwischenquatschen...

Cerox
17.08.06, 19:02
Hast du nicht; ich überlege mir das noch, ob ich nun eine Backupsoftware oder normale UNIX-Tools einsetze...

Blade
17.08.06, 20:06
Ich kann nur zu rsync raten, spiegle damit doch ganz einfach jede Nacht die gewünschten Verzeichnisse auf die HD des Backupservers. Das ganze kannst Du per ssh und cronjob laufen lassen. Die Protokolle slässt Du Dir per Mail zuschicken und liest sie oder lässt es sein. Vorteil ist, die Daten werden 1:1 gesichert, liegen unkomprimiert und nicht zerstückelt vor und können mit ein par Befehlen an der Konsole oder dem MC rasent schnell zurück gesichert werden. Ich sichere die sensiblen Daten jeden Wochen-Tag in ein eigenes Vezeichnis ... Montag, Dienstag etc. und vor dem Überschreiben alter gesicherter Daten erstelle ich zuvor eine Sicherung der Datei und habe so unendlich lange Zugriff auf alle alten Dateiversionen. Das Spiel geht so lange, bis die Platte platzt :D

killerhorse
17.08.06, 21:06
Hallo,

Der Nachteil den Ganzen Server mehr oder weniger zu spiegeln ist aber:
Was ist wenn irgendwas schief geht. z.B. der Server wird erfolgreich angegriffen. Wenn es nicht gerade ein Scriptkiddie ohne Ahnung von irgendwas war bekommt man erstmal nicht viel davon mit.
Ein paar Tage später kommst Du drauf. Was jetzt.
Das Backup enthält die Gleichen Daten wie das Original....

Oder es geht was anderes schief, irgendwelche wichtigen aber selten benötigte Daten werden versehentlich gelöscht und 4 Tage später willst Du sie wiederherstellen!?

Deswegen sind zumindest ,meiner Meinung nach Lösungen bei denen alles gespiegelt wird nur zusätzlich interessant um bei einmem Hardwaredefekt schnell wieder ein laufendes System wiederherstellen zu können.

Mehrere Backupgenerationen oder eben ein Vollbackup und dann eben immer diferenzielle Backups sind meiner Meinung nach aber trotzdem unumgänglich. So dass man zumindest eine Woche rückwirkend Daten wiederherstellen
kann.

Wenn Du für jeden Tag alles in ein eigenes Verzeichniss speicherst, frisst das mengen an Festplattenspeicher und ist sinnlos, weil warum sollte man Daten speichern die schon vorhanden sind?

MfG

Christian

marce
17.08.06, 21:24
diese Frage ist Philosophie...

wenn man jeden Tag ein Fullbackup hat kann man sehr einfach zurücksichern und ist nicht darauf angewiesen, dass die vorherigen Backups vollständig und funktionsfähig sind - dafür habe ich "viel" Redundanz und verbrauche daher auch viel Speicherplatz - ob das relevant ist, hängt von den Gegebenheiten ab - 1GB pro Tag oder 300GB z.B.?

Mache ich nur differentielle Backups habe ich Stress beim rücksichern, so es nicht eine Software für mich übernimmt - und selbst dann... Ausserdem bin ich darauf angewiesen, dass sämtliche Sicherungen seit dem letzten Vollbackup vorhanden und funktionsfähig sind, dafür hat man wesentlich weniger Platz "verschwendet".

Meine Erfahrung aus dem täglichen Leben zeigt: Nur Fullbackups sind stressfrei und sicher - dass man mehrere vorhalten muss ist logisch. Ich würde, solange es die HW und die Datenmenge zulässt auf Fullbackups setzen.

Blade
17.08.06, 21:45
Der Nachteil den Ganzen Server mehr oder weniger zu spiegeln ist aber:
Was ist wenn irgendwas schief geht. z.B. der Server wird erfolgreich angegriffen. Wenn es nicht gerade ein Scriptkiddie ohne Ahnung von irgendwas war bekommt man erstmal nicht viel davon mit.
Ein paar Tage später kommst Du drauf. Was jetzt.
Das Backup enthält die Gleichen Daten wie das Original....

Oder es geht was anderes schief, irgendwelche wichtigen aber selten benötigte Daten werden versehentlich gelöscht und 4 Tage später willst Du sie wiederherstellen!?

Darum sichere ich jeden Tag in ein eigenes Verzeichnis wie gesagt ... Montag, Dienstag etc, und vor dem Überschreiben oder Löschen von Dateien werden diese nochmals in ein Backup-Verzeichnis mit Tagesdatum weggesichert. So habe ich Zugriff auf alle Dateiversionen bis zum Nimmerleinstag. Diese Freeks die Schaden anrichten wollen haben so keine Chance, zumal ich in den tägliche zugemailten Log-Files genau sehe was gelöscht oder überschrieben wird. Das klappt, musst es nur mal durchdenken. Ich habe auch ein paar Wochen daran geknabbert. Neulich hatte ich eine alte benötigte Datei-Version rückgesichert mit Stand vor 8 Wochen, der Verlust wurde vor 3 Tagen erst bemerkt :D Es ist nur eine Frage der HD-Kapazität. :p

Blade
17.08.06, 21:51
Meine Erfahrung aus dem täglichen Leben zeigt: Nur Fullbackups sind stressfrei und sicher - dass man mehrere vorhalten muss ist logisch. Ich würde, solange es die HW und die Datenmenge zulässt auf Fullbackups setzen.

Bin ganz Deiner Meinung marce ... zumal die Hardware heute kein Kostenfaktor mehr ist. Ich setze dazu sogar externe HD's ein und das klappt bestens. :D