PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Backupserver mit Backuppc



farion
05.07.08, 20:04
Hallo,

es geht um einige Server in Rechenzentren und Workstations sowie Laptops im Büro. Die Server laufen alle mit Debian etch, die Bürorechner sind Ubuntu, bzw. MacOSX.
Ich möchte nun von all diese Rechner zentral Backups erstellen, dazu habe ich mir backuppc rausgesucht. Backuppc spart wohl ziemlich viel Platz, da es gleiche Dateien rechnerübergreifend erkennt, was besonders bei den etch-Servern viel Sinn macht. Ausserdem kann es inkrementelle Backups und benötigt keine Clientinstallation.
Für das Ganze möchte ich hier im Büro einen Rechner hinstellen, der nur dafür zuständig ist. Ideal wäre es, wenn der Rechner nur zum Backup an wäre und danach wieder ausgeht.

Angehen sollte kein Problem sein - dazu schicke ich ein Wake-on-Lan von unserem Router aus los. Nur kann ich backuppc anweisen den Rechner nach getaner Arbeit wieder herunterzufahren?
Und ist das ganze überhaupt praktikabel so - gibt es bessere Lösungen?

Gruss Frieder

farion
04.08.08, 21:47
Ich habe mich jetzt dafür entschieden einen NSlug2 (weil ich den sowieso schon habe) und eine Maxtor OneTouch 4 Plus (1TB) zu verwenden. Das System wird jetzt den ganzen Tag laufen, da das einfach praktischer ist, deswegen ja auch die minimalistische Hardware.
Den NSlug2 habe auf 266Mhz laufen und nicht wie ausgeliefert auf gedrosselten 133Mhz. Backuppc läuft auf einem Debian 4.0.

Es läuft eigentlich alles, nur leider extrem langsam. Okay, das war mir klar - aber vielleicht fällt ja noch dem einen oder anderen ein Tuningtipp ein.
Das Problem ist, dass er für 1GB ca. 1 Stunde braucht und das über lokales Netzwerk. Bei den Vollbackups kommen da schnell mal 100GB zusammen und dann rattert das Ding halt 4 Tage.
Die inkrementellen Backups sind da natürlich deutlich pflegeleichter, aber auch da kann es vorkommen, dass da mal mehrere GB gesichert werden müssen. Grade bei den Laptops ist es halt so, dass diese nicht ewig am Netz hängen.
Die CPU-Auslastung ist zu 60% auf BackupPC_dump und zu 40% auf ssh verteilt - also mal so ganz grob.

Ist das jetzt das Ende der Fahnenstange? Kann ich mehr Leistung nur durch bessere Hardware erreichen?

Gruss Frieder

solarix
04.08.08, 23:43
Hallo,
also in dem Wiki erzählen Sie was von Empfehlungen (http://backuppc.wiki.sourceforge.net/Infrastructure+Ideas) was der Backupserver so haben sollte. Ein NSlug2 ist jetzt auch nicht unbedingt das I/O Monster schlechthin. Ein echter Geschwindigkeitsgewinn, wäre bei der Möhre noch ueber NFS zu holen, aber wenn ich mir das so durchlese in dem Wiki, scheint NFS nicht unterstützt zu werden. Backup über SSH ist zwar sicher, aber in einer abgeschlossenen Umgebung, wenn man eh schon knappe Ressourcen hat, nicht gerade das klügste. Ausserdem ist eine USB Platte auch nicht gerade das was Performance bringt.

Simples Rsync und NFS würde für Deine Zwecke evtl. auch schon reichen und noch mal Performance bringen.

Vielleicht solltest du einfach mal eine Weile iostat oder vmstat laufen lassen um die Lese und Schreibgeschwindigkeit einschätzen zu können. Aber da wird wohl nicht mehr viel zu machen sein.

Zum Vergleich... ich habe hier eine Ultra5 (Ultrasparc II 300 Mhz) ich benutze das Gerät als provisorischen Backuprechner. Die Lese und Schreibgeschwindigkeit beträgt so im Schnitt 10MB/s was ziemlich grausig ist. Mein Testserver mit Fibrechannel Platten liefert konstant 200MB/s das sind schon andere Dimensionen. IDE/Sata und besonders im Zusammenhang mit USB ist einfach eine Krücke.

Wenn Du das Backupsystem fuer eine professionelle Umgebung brauchst, würde ich nicht an der I/0 Leistung sparen und wenn es interner Verkehr unter Unix/Linuxkisten ist.. alles über NFS. Wenn das Netz nach aussen gut abgesichert ist, solltest Du auch keine grauen Haare bekommen.

Vielleicht solltest Du Dir mal Bacula ansehen. Das ist ebenfalls ein sehr sehr gutes System

Gruesse

farion
05.08.08, 13:58
Ich lasse wohl doch einen runtergetakteten Athlon XP laufen. Der NSlug rechnet immer noch :( da muss was professionelleres her.
Diesen würde ich dann sagen wir mal um 14:00 per wol wecken und ab 20:00 per cronjob runterfahren. In dieser Zeit sollten die Chance am besten sein alle Rechner online zu erwischen. Die Server sind ja sowieso immer da und die sind das wichtige. Der Cronjob fährt allerdings nur runter, wenn kein Backup mehr aktiv ist. Ist eines aktiv probiert ers eine halbe Stunde später erneut. Hat jemand Erfahrung mit solchen Cronjobs? Ist das zuverlässig?

Gruss Frieder

farion
09.08.08, 18:38
Sooo, es läuft alles ganz gut, bis auf das Herunterfahren:

/opt/backupscripts/backup_shutdown.sh


#!/bin/bash

if [ `ps -C ssh | wc -l` -gt 1 ]
then
echo "ssh " >> /root/shutdownlog
echo `date` >> /root/shutdownlog
exit 0
elif [ `ps -C BackupPC_dump | wc -l` -gt 1 ]
then
echo "dump " >> /root/shutdownlog
echo `date` >> /root/shutdownlog
exit 0
elif [ `ps -C BackupPC_nightly | wc -l` -gt 1 ]
then
echo "nightly " >> /root/shutdownlog
echo `date` >> /root/shutdownlog
exit 0
else
echo "shutdown now " >> /root/shutdownlog
echo `date` >> /root/shutdownlog
fi

shutdown -h now
exit 0


crontab -e


0 20-23,0-13 * * * /opt/backupscripts/backup_shutdown.sh


/opt/backupscripts/backup_shutdown.sh funktioniert, wenn man es aus direkt in einer Shell ausführt. Wird es per Cronjob ausgeführt wird zwar der logeintrag gemacht, aber ein Herunterfahren ist Fehlanzeige. Hat da jemand ne Idee zu ?

Gruss Far

farion
09.08.08, 18:47
gnaa, habs....

/sbin/shutdown statt shutdown hat geholfen - ist doch immer wieder das gleiche mit diesen cron jobs :D

Gruss Frieder