Fight-Night
04.06.05, 08:46
Hallo @ all, nachdem ich ein Suse 9.0 Installation von einer 60 GB Platte udma 66 auf eine 80 GB Platte udma100 mit Acronis MigrateEasy mehr oder weniger 1:1 erfolgreich geclond habe ,sin folgenede kleine Probleme aufgetreten:
NR 1:Wenn ich als Root angemeldet bin und rufe dort eine shell auf steht dort nicht wie erwartet als User Root (Root#) sondern sh-2.43# .Was ist da passiert ? .melde ich mich als normaler User an sieht die Shell dort ganz normal aus ??
----------------------------------------------------------------------
Problemm Nr 2:Auf dem Bootscreen sehe ich am Anfang folgende beunruhigende Meldung :
----------------------------------------------------------------------
<4>reiserfs: enabling write barrier flush mode
<6>lvm-mp: allocating 42 lowmem entries at c202c000
<6>LVM version 1.0.5+(mp-v6d)(22/07/2002) module loaded
<4>hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
<4>hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
<4>hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
<4>hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
<4>hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
<4>hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
<4>hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
<4>hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
<4>hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
<4>hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
<4>reiserfs: enabling write barrier flush mode
------------------------------------------------------------------------
in var/boot/msg sind diese Meldungen aber nicht protokolliert, die Platte ist mechanisch vollkommen in Ordnung Ide Kabel ist in Ordnung (neu und rund)
nachdem ich den DMA mode im Yast von 66 auf 100 umgestellt hatte waren die Fehlermeldungen beim booten weg , aber beim nächsten booten wieder da,die Platte läßt sich auch nicht auf dma 100 einstellen sonder geht immer wieder zurück in dma 66 wobei das Board udma 100 eindeuitig unterstützt.
Hat jemande vielleicht ne Lösung für diese Problemchen ?
NR 1:Wenn ich als Root angemeldet bin und rufe dort eine shell auf steht dort nicht wie erwartet als User Root (Root#) sondern sh-2.43# .Was ist da passiert ? .melde ich mich als normaler User an sieht die Shell dort ganz normal aus ??
----------------------------------------------------------------------
Problemm Nr 2:Auf dem Bootscreen sehe ich am Anfang folgende beunruhigende Meldung :
----------------------------------------------------------------------
<4>reiserfs: enabling write barrier flush mode
<6>lvm-mp: allocating 42 lowmem entries at c202c000
<6>LVM version 1.0.5+(mp-v6d)(22/07/2002) module loaded
<4>hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
<4>hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
<4>hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
<4>hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
<4>hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
<4>hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
<4>hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
<4>hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
<4>hda: dma_intr: status=0x51 { DriveReady SeekComplete Error }
<4>hda: dma_intr: error=0x84 { DriveStatusError BadCRC }
<4>reiserfs: enabling write barrier flush mode
------------------------------------------------------------------------
in var/boot/msg sind diese Meldungen aber nicht protokolliert, die Platte ist mechanisch vollkommen in Ordnung Ide Kabel ist in Ordnung (neu und rund)
nachdem ich den DMA mode im Yast von 66 auf 100 umgestellt hatte waren die Fehlermeldungen beim booten weg , aber beim nächsten booten wieder da,die Platte läßt sich auch nicht auf dma 100 einstellen sonder geht immer wieder zurück in dma 66 wobei das Board udma 100 eindeuitig unterstützt.
Hat jemande vielleicht ne Lösung für diese Problemchen ?