Anzeige:
Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 15 von 16

Thema: dd Input oder Outputfile gleich (de)komprimiern?

  1. #1
    Registrierter Benutzer
    Registriert seit
    Sep 2002
    Beiträge
    91

    dd Input oder Outputfile gleich (de)komprimiern?

    Hallo

    mit
    :dd if=/dev/hda1 of=DATEINAME
    kann man wunderbar ein Festplattenimage erstellen.

    Ist es möglich die Datei gleich mit zu komprimieren und dies nicht hinterher umständlich mit
    :bzip2 DATEINAME
    , oder anderem ausführen zu müssen.
    Gut dabei wäre auch, das man Plattenplatz spart.

    Danke

  2. #2
    Registrierter Benutzer
    Registriert seit
    May 2002
    Beiträge
    629
    dd if=/dev/hda | gzip >imagename.gz

    www.cargal.org | Jabber ID: spunzATcargal.org
    Cargal.org Jabber Channel: cargal@jabber.cargal.org

    promote my opera

  3. #3
    - - - - - - - - - - Avatar von zander
    Registriert seit
    Mar 2001
    Beiträge
    6.144
    In der anderen Richtung ginge dann z.B. zcat [datei] | dd of=/dev/hda1. Das ganze funktioniert auch mit bzip2 und bzcat.

  4. #4
    Registrierter Benutzer Avatar von Berufspenner
    Registriert seit
    Mar 2002
    Ort
    Hamburg
    Beiträge
    3.007
    Hi@all

    Wäre das eine sinnvolle Lösung für ein komplettes Systembackup oder eher eine Notlösung? Das würde mich mal interessieren.

    Cu
    André

  5. #5
    Moderator Avatar von taylor
    Registriert seit
    Dec 2000
    Ort
    Mannheim
    Beiträge
    5.618
    Original geschrieben von Berufspenner
    Wäre das eine sinnvolle Lösung für ein komplettes Systembackup oder eher eine Notlösung?
    Ich sichere lieber die Dateien einzeln, weil mir das die Möglichkeit gibt, auch einzelne Dateien wiederherzustellen.

    Meine Favoriten sind 'backup2l' und 'mondo' (Beide bei Freshmeat zu finden).
    Debian GNU/Linux Sid, KDE, Kernel 2.6.10-as6, XFS - Richtig Fragen stellen

    Besucht uns im IRC auf irc.linuxforen.de in #linuxforen.de

  6. #6
    cirad
    Gast
    Wohl eher eine Notlösung. Das Problem ist, daß dd das komplette FS von Anfang bis Ende zieht. Selbst wenn 2GB nur leer sind, werden sie gezogen und bei weitem nicht so gut komprimiert, wie man meinen möchte. Es sind eben nicht nur "Nullen", die da stehen. Da kann jeder Müll stehen.

    Das Dauert nicht nur beim Lesen und Schreiben, sondern benötigt auch mehr Platz.

    partimage geht da "klüger" vor:
    http://www.partimage.org/

  7. #7
    OSS Hacker Avatar von Trillian
    Registriert seit
    Apr 2001
    Ort
    Das Fleischhaus
    Beiträge
    1.987
    AFAIK soll man Backups garnicht packen:
    Wenn das gepackte Archiv kaputt geht, wirds sehr viel schwerer, da noch was sinnvolles rauszukriegen, als wenn ein nicht gepacktes Backup kaputtgeht...

  8. #8
    Moderator Avatar von taylor
    Registriert seit
    Dec 2000
    Ort
    Mannheim
    Beiträge
    5.618
    Original geschrieben von Trillian

    Wenn das gepackte Archiv kaputt geht, wirds sehr viel schwerer, da noch was sinnvolles rauszukriegen, als wenn ein nicht gepacktes Backup kaputtgeht...
    Ich denke, der beste Weg ist einfach, nicht alles in *ein* Archiv zu packen, sondern viele kleine Archive zu erstellen. Da "kann dann ruhig auch mal eins kaputtgehen".
    Debian GNU/Linux Sid, KDE, Kernel 2.6.10-as6, XFS - Richtig Fragen stellen

    Besucht uns im IRC auf irc.linuxforen.de in #linuxforen.de

  9. #9
    OSS Hacker Avatar von Trillian
    Registriert seit
    Apr 2001
    Ort
    Das Fleischhaus
    Beiträge
    1.987
    Ja, kommt drauf an, wie wichtig die Daten sind, bzw. wieviel Plattenplatz zur Verfügung steht.

  10. #10
    - - - - - - - - - - Avatar von zander
    Registriert seit
    Mar 2001
    Beiträge
    6.144
    Wenn man ernsthafte Sicherungen erstellen will wird man um dedizierte Backuplösungen nicht herumkommen, da bei tar & Co., wie Trillian bereits erwähnt hat, keine oder keine zuverlässigen Fehlerkorrekturverfahren integriert sind.

  11. #11
    Spurious Interrupt
    Registriert seit
    Feb 2002
    Beiträge
    209
    Original geschrieben von cirad
    Wohl eher eine Notlösung. Das Problem ist, daß dd das komplette FS von Anfang bis Ende zieht. Selbst wenn 2GB nur leer sind, werden sie gezogen und bei weitem nicht so gut komprimiert, wie man meinen möchte. Es sind eben nicht nur "Nullen", die da stehen. Da kann jeder Müll stehen.
    [...]
    http://www.partimage.org/
    Falls man es dennoch so machen will, dann empfiehlt es sich, vorher mit

    dd if=/dev/zero of=tempdatei [weitere args grad ned im kopf - irgendwas mit bs und count]

    eine datei anzulegen deren größe fast dem freien speicher auf dem zu sichernden filesystem entspricht. wenn man diese datei dann löscht, hat man zumindest einen großteil des mülls entsorgt.

    Ich selbst bevorzuge zum "backup-en" aber rsync, das lässt wunderbar per cronjobs ausführen und man kann auch unterverzeichnisse angeben, die nicht gebackuped werden sollen.
    Making children use non-free software is teaching them not to share.

    Abstand halten! - Gefahr der Infektion durch Versionitis...

  12. #12
    Registrierter Benutzer
    Registriert seit
    Sep 2002
    Beiträge
    91
    Danke für dien Tip mit der Ausgabeumleitung nach gzip.

    Nun kann ich damit ohne einen Diskimager und eventuellen Neustart schnell mal eine Platte sichern.

    Als Datensicherung ist dies natürlich nicht gedacht, da mache ich von den wichtigsten Vereichnis jährlich eine volle Datensicherung und monatlichj nur das was sich im neuen Jahr geändert hat.

    FH

  13. #13
    Registrierter Benutzer
    Registriert seit
    Jun 2003
    Beiträge
    131
    bei dd mit count zu arbeiten ist keine schlechte sache:

    dd if /dev/hda bs=1024 | gzip | dd of /dev/hda2/name.gz

    es lässt sich auch direkt mittels ssh auf einen Server übertragen!

    dies bringt dir ein image auf einer zweiten Partition.

    Doch hat dd ein Paar schwachstellen:
    dd hat wenn es um NTFS- Partitionen geht eine 2Gig- grenze!
    es kann nicht on the fly splitten! (im nachhinnein mit /dev/hda2/name split=650 oder ahnlich)

    Wenn du noch weitere Linuxalternativen suchst, schau mal unter diesem link:
    http://www.linuxtag.org

    Da habe ich mir schon einen mit Partimage und Co abgebrochen. Es sind zu diesem thema noch ein paar andere Quellen zu finden!
    mfg
    meiner einer

  14. #14
    .
    Registriert seit
    Oct 2001
    Ort
    Oberbayern
    Beiträge
    2.281
    Zitat Zitat von Coffi
    dd if /dev/hda bs=1024 | gzip | dd of /dev/hda2/name.gz

    Doch hat dd ein Paar schwachstellen:
    dd hat wenn es um NTFS- Partitionen geht eine 2Gig- grenze!
    es kann nicht on the fly splitten! (im nachhinnein mit /dev/hda2/name split=650 oder ahnlich)
    also splitten kann man schon on the fly... siehe man split
    dd if=/dev/hda | gzip | split --bytes=650m - splitimage.gz.

    meine frage nun: wenn man das image nun zurück auf die platte haut, ist es dann wieder voll bootfähig? (sofern sich an der hardware nichts verändert hatte)

    greetz
    Core i3 | 2x3tb btrfs-raid1 | 2x2tb sw-raid1+lvm2

  15. #15
    Registrierter Benutzer Avatar von mamue
    Registriert seit
    Oct 2002
    Beiträge
    2.455
    Nach meinen Erfahrungen ist das der Fall. dd if=/dev/hda sichert auch die Partitionstabelle und den MBR.

    mamue

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •