PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : backuplösung inkl.snv



Leibnitz
10.09.07, 17:36
Hallo

ich bin auf der suche nach einer Backuplösung für Webseiten etc.
Ich möchte diverse Webseiten regelmäßig sichern.

Das Script oder Tool sollte z.b. einmal am Tag, per FTP sich wo anmelden und die Daten vergleichen ob sich was geändert hat und falls ja, dass ganze unter einen bestimmtes Pfad mit einer neuen Versionsnummer (z.b. Seite xyz 1.5) downloaden.

Die ganze Versionierung würde reichen, wenn einfach ein neuer Ordner angelegt wird, wo die Dateien enthalten.

Natürlich wäre es auch interessant das ganze in Subversion etc zu bekommen.

Hat jemand eine Lösung für obiges Szenario oder kennt jemand eine Lösung.

Ich danke im voraus.

MfG Leibnitz

marce
10.09.07, 22:41
wieso nicht einfach direkt mit svn quasi "committen"?

Ansonsten die üblichen Verdächtigen: tar, rsync, div. Backup-Tools (-> Suchfunktion)...

kreol
10.09.07, 22:52
Wenn es um das backuppen von Webseiten geht kannst Du Dir auch die Option -nc von wget mal näher ansehen.


Kreol

Leibnitz
11.09.07, 08:25
das ganze muss sich per FTP auf verschiedenen Servern einloggen und nach und nach die komplette Files downloaden.

kann svn das? kann rsync das?

Mfg Leibnitz

marce
11.09.07, 08:32
dann würde ich wget nehmen.

svn - gibt bestimmt einen Client dafür...

rsync + ftp geht OutOfTheBox nicht...

Leibnitz
11.09.07, 10:13
hab mir das wget manuel mal angeschaut, finde aber nichts, wie ich das machen soll das sich das script bei nem ftp server einloggt und die files downloaded.

das das ganze in SVN geladen wird muss ja nicht sein, es reicht, wenn ein vollbackup in z.b. 1.0 geladen wird und wenns sich dateien geändert haben die geänderten dateien (inkrementel) ind z.b. 1.1 geladen werden.

marce
11.09.07, 10:19
hab mir das wget manuel mal angeschaut, finde aber nichts, wie ich das machen soll das sich das script bei nem ftp server einloggt und die files downloaded.

... dann solltest Du dir die Man-Page nochmals durchlesen... (ftp Options, ca. Zeile 700)

... oder auch einen Blick auf curl werfen, das kann ein paar Dinge dort etwas eleganter...

cane
11.09.07, 13:33
Benutzt keine der Webseiten eine Datenbank? Dann kommst Du nämlich mit den hier beschriebenen Lösungen nicht optimal weiter...

mfg
cane

Leibnitz
11.09.07, 17:50
Hi

also hab mir die wget methode genauer angeschaut und es funktioniert auch soweit, nur werd ich da keine inkremetele versionierung hin bekommen.
Da ja wget auf der lokales seite nichts löschen kann etc.

Doch datenbanken gibt es aber diese werden momentan noch anders gesichert, sollen aber früher oder später auch in diese Backup Script reinkommen.

BedriddenTech
11.09.07, 18:34
Inkrementelle Backups via FTP ist wie Tempo 220 mit nem Van - geht zwar, aber toll ists nicht. Das Problem ist, daß es keinen wirklich vernünftigen Standard für Datumsangaben gibt. Der Server generiert die selbst, sagt aber nicht zwingend, in welcher Zeitzone er steht, oder welches Format er dir jetzt schickt. Du wirst inkrementelle Backups nur mit vielen Schmerzen durch selbstimplementiertes Verarbeiten der Datumsangeben des Servers lösen können, und davon würde ich die Finger lassen.
Lade doch einfach erstmal alles runter und löse das Problem »inkrementell« lokal mit cmp & Co.

cane
11.09.07, 19:00
Doch datenbanken gibt es aber diese werden momentan noch anders gesichert, sollen aber früher oder später auch in diese Backup Script reinkommen.

Wie werden diese denn momentan gesichert?

Hast Du SSH Zugriff auf den Server wo die Webseiten liegen?
Ein Server oder mehrere Server?
Wieviele Versionen der Webseiten + Datenbanken sollen gesichert werden?
Sind es alles deine privaten Seiten oder bist du Provider für andere?


Je genauer Du das Szenario beschreibst desto bessere Empfehlungen bekommst Du :)

mfg
cane

403
11.09.07, 19:55
Wenn die Webseiten auch regelmaessig ge-updated werden, kannst Du doch die Delta's holen? Einfach per Webauftritt einen SVN Server und dann mit SVN Client die Inkrementellen Aenderungen abholen.

Oder du drehst die Sache um, und machst nur _einen_ SVN Server, auf dem alle Webseiten liegen, und checkst die dann aus und machst backups der
Deltas. Oder SVK. Das ist dafuer aber sicherlich ueberdimensioniert.


Gruss 403


EDIT: marce hatte das ja schon angeregt

Leibnitz
12.09.07, 10:59
Hallo

also ich hab mir jetzt ein script gebastelt, dass mir die Daten vom FTP Server downloaded und dann in ein Tar packt, dass funktioniert auch soweit.

Hier mal das Script:


#!/bin/bash

ADRESSE=www.domain.de

# Variablen, um auf andere FTP-Server anzupassen
# Verzeichnis, in dem das Backup landen soll
BACKUPDIR=/data/backups/$ADRESSE

# Datei, in der die Befehle stehen, die lftp abarbeiten soll
FILE=/backupscripts/$ADRESSE.ftp

# Ermittelt aktuelles Datum, um es als Dateinamen zu verwenden
DATUM=`date +%Y%m%d`

# Wechsel in das Backup-Verzeichnis
cd $BACKUPDIR

# Termporäs Verzeichnis erstellen und dahin wechseln
mkdir $ADRESSE
cd $ADRESSE

# FTP-Befehle abarbeiten
lftp -f $FILE

# Wieder zurüd ein tar-Archiv mit dem Datum im Dateinamen erstellen
cd ..
tar -cvf $ADRESSE-backup_${DATUM}.tar $ADRESSE


# Das ganze noch zusammenpacken, damit es nicht so viel Platz braucht.
gzip $ADRESSE-backup_${DATUM}.tar

# Und das temporä Verzeichnis löen
rm $ADRESSE/ -rf

Und hier die Befehle für lftp


#Auf dem Server einloggen
open ftp.domain.com

# Username und Passwort üben
user user passwort

# Das Verzeichnis s incl. aller Unterverzeichniss und dem entsprechenden Inhalt vom Server runterkopieren.
mirror

# Und den FTP-Client wieder beenden.
bye

Das funktioniert jetzt schon ganz gut.

So jetzt will ich das Script erweitern und zwar soweit, das ich nicht immer alle Files sicher sondern nur die neuen.

Wie kann ich am besten 2 Verzeichnisse vergleichen und neue dateien wegkopieren?

Mfg Leibnitz

P.S. die Bandbreite, Traffic etc ist egal da das ganze über ein LAN läuft. SSH Zugriff hab ich leider nicht und werds auch nicht bekommen.