PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Fileserver - I need speed



Seiten : [1] 2

ssn
19.05.05, 13:11
also ich hab hier erfolgreich nen debian server am laufen der eigentlich das komplette heimnetz bedient. zur zeit läuft da eigentlich nur samba, nfs, mldonkey und ein paar spielereien drauf.
hardware is ein älteres board mit via c3 1ghz prozzi und es laufen 2 160er samsungs im sofware raid (gespiegelt).
soweit so gut, nur bin ich mit der performance irgendwie ned so ganz glücklich, sobald mehr als 2 clients drauf zugreifen bricht das ganze irgendwie ein ;) ok, meistens bins eh nur ich allein der das ding wirklich gut ausreizt aber da im server und auch in meinem pc 2nics arbeiten (load balancing) könnte das ganze schon schneller sein.
meine frage:
ich plane die hardware des servers komplett zu ersetzen, wahrscheinlich wirds ein athlon xp mobile werden (hab ich zur zeit in meinem client drin, hat den vorteil dass man ihn schön undervolten kann), neue platten (oder zumindest mehr) dürfens auch werden.
wie schaff ichs dass der datendurchsatz größer wird ohne gleich auf scsiraid umzusteigen?
ich lege auch auf datensicherheit wert, bringts da raid5?
danke schonmal

torsten_boese
19.05.05, 14:11
also erstmal ist raid 5 ne gute Lösung.. du hast bei z.B. 5 Partitionen die Performance von 4 und einr Sicherung auf der fünften .. kannst also bei ausfall einer platte, alles recontruiren..

Was heißt bricht ein? CPU unter Volllast, festplatten am limit?

Nächste sache .. was bringt dir software-raid mit 100MB pro Sekunde, wenn deine 100MBit Karte max. 12.5 leitet.. in diesem Fall auf eine GB Netzkarte umsteigen

An den Platten DMA Aktiviert?

NFS ist nicht das schnellste System ... Ich habe gute erfahrung mit ftp gemacht..
nfs: durschnitt 3,5 MB
ftp: durschnitt 10 MB

taylor
19.05.05, 15:41
Wenn Du nur 3,5 MB/s über eine 100Mbit NFS Verbindung kriegst, läuft da irgendwas falsch.

torsten_boese
19.05.05, 16:09
hmm ..
also das schnellste soll ja nfs nicht sein ....
kann aber sein das es nicht so langsam ist ..
jedoch weiß ich nicht woran es bei mir liegen könnte zumal ja ftp recht flott ist

flo#bre
19.05.05, 16:27
hmm ..
also das schnellste soll ja nfs nicht sein ....
kann aber sein das es nicht so langsam ist ..
jedoch weiß ich nicht woran es bei mir liegen könnte zumal ja ftp recht flott ist

ich hab locker 10MB/s mit nfs
da ist irgendwas falsch bei dir! ;)

ssn
19.05.05, 17:27
nein, nfs is schnell außerdem laufen ja samba und nfs (da kann man schon was tunen :D ), es geht einfach um die pure hd performance. ich denke aber dass raid5 schon ziemlich viel cpu last verursacht, oder?

Jasper
19.05.05, 17:38
nein, nfs is schnell außerdem laufen ja samba und nfs (da kann man schon was tunen :D ), es geht einfach um die pure hd performance. ich denke aber dass raid5 schon ziemlich viel cpu last verursacht, oder?

welche performance? lesen oder schreiben? für lesen ist raid5 ok, aber beim schreiben haperts. wenn dann noch eine platte ausfällt, sackt die performance ab in den keller.
raid10 ist besser, bessere schreibperformance, bessere redundanz. ist aber aufgrund des mehrbedarfs an platten teurer. wenn hauptsächlich gelesen wird, nimm raid5. anderenfalls raid1 (bei 2 platten) oder raid10 (bei 2*x, x>1 platten).


-j

ssn
19.05.05, 17:45
also es wird hauptsächlich gelesen, wenn was geschrieben wird is ned so dramatisch, und die raid5 performance wird ja wohl ned unter der einer einzelnen platte liegen, oder?

Jasper
19.05.05, 21:25
also es wird hauptsächlich gelesen, wenn was geschrieben wird is ned so dramatisch, und die raid5 performance wird ja wohl ned unter der einer einzelnen platte liegen, oder?

doch. liegt im design von raid5. für jeden write sind 4 i/o notwendig: 1x lesen daten, 1x lesen parity, 1x schreiben daten, 1x schreiben parity.


-j

ssn
19.05.05, 21:28
hm, das is blöd ;) noch eine frage: kann ich ne 4 platte zu nem bestehenden 3 platten raid5 array dazuhängen?

Tomek
20.05.05, 10:59
hm, das is blöd ;) noch eine frage: kann ich ne 4 platte zu nem bestehenden 3 platten raid5 array dazuhängen?
Hmm, ich habe mal gehört, dass das funktionieren soll, weiss aber leider nicht wie.

maxxle
20.05.05, 15:01
Vielleicht solltest du mal definieren, was du damit meinst: Der Datendurchsatz sollte schneller werden.

Wie schnell denn? Reichen 10MByte/s denn nicht aus?

torsten_boese
20.05.05, 16:29
ich hab locker 10MB/s mit nfs
da ist irgendwas falsch bei dir! ;)

gibs da irgendwelche speziellen optionen die man angeben/weglassen sollte oder hast eine "normale" config?

Russel-Athletic
20.05.05, 17:06
Wenn du mehr Performance wünschst, dann nimm nen neuen vernünftigen Raid-Controller, also einen der wirklich das macht und nicht alles über ne CPU erledigt.

ssn
22.05.05, 11:10
ich denke nicht dass das einen unterschied macht


Vielleicht solltest du mal definieren, was du damit meinst: Der Datendurchsatz sollte schneller werden.

Wie schnell denn? Reichen 10MByte/s denn nicht aus?

nein, das is zu wenig

maxxle
23.05.05, 12:53
Das ist ja schon mal ein Anfang.
Und wieviel TerraByte/s würdest du gerne übertragen?

Ich will damit nur sagen, das du dir erst mal im Klaren sein solltest, wieviel Speed du möchtest/brauchst und dann über ein Lösung nachdenken solltest. Vielleicht kommt dann schnell die Einsicht, das das was du dafür investieren musst (Geld) viel zu viel ist für ein paar MB mehr Durchsatz.

chrigu
23.05.05, 13:20
nein, das is zu wenig

Ok, dann brauchst du Gigabit und Raid, wenn möglich SCSI. Sonst kannst du das vergessen!

Gruss
Chrigu

ssn
30.05.05, 20:16
also die platten schaffen zur zeit nur etwas über 30mb/s, 3x100mbit per bonding zusammengefasst müssten das gut ausreizen. das is mir aber irgendwie zu lahm....
50mb/s hät ich schon gern..

chrigu
30.05.05, 21:33
also die platten schaffen zur zeit nur etwas über 30mb/s, 3x100mbit per bonding zusammengefasst müssten das gut ausreizen. das is mir aber irgendwie zu lahm....
50mb/s hät ich schon gern..
Ok, 50mb/s macht auch eine aktuelle IDE-Platte. Trotzdem brauchst du Gigabit damit das ins Netzwerk wandert!

Gruss
Chrigu

ssn
31.05.05, 11:36
warum, reicht da ein guter 100mbit switch und mehrere nics im load balancing bonding nicht auch?

bla!zilla
31.05.05, 11:40
Also NFS und SMB/CIFS sind nicht gerade Protokolle die im Ruf stehen unglaublich schnell zu sein. Teste doch bitte mal die maximale Netzwerkperformance mit NetIO und dann mal mit FTP als Übertragungsprotokoll testen.

chrigu
31.05.05, 15:45
warum, reicht da ein guter 100mbit switch und mehrere nics im load balancing bonding nicht auch?
1. Kostet eine Giga-Karte nicht mehr wirklich viel
2. Brauchst du dann 5 Ports auf dem Switch
3. 5 Nic's im Rechner, ich weiss ja nicht. Wäre mir zu Schade um die PCI-Steckplätze und um den Stromverbrauch...

Thrawn
31.05.05, 16:12
hm, das is blöd ;) noch eine frage: kann ich ne 4 platte zu nem bestehenden 3 platten raid5 array dazuhängen?

Da gabs nen Artikel in einer der letzteren C'Ts.
Such mal nach raidreconf - aber keine Garantie dass es funktioniert. Bei mir hats einmal geklappt und einmal hatte ich Fehler im Dateisystem. Ohne vorherige Sicherung der Daten ists ein bisschen wie russisches Roulette.

MfG Thrawn

ssn
31.05.05, 16:48
1. Kostet eine Giga-Karte nicht mehr wirklich viel
2. Brauchst du dann 5 Ports auf dem Switch
3. 5 Nic's im Rechner, ich weiss ja nicht. Wäre mir zu Schade um die PCI-Steckplätze und um den Stromverbrauch...

aber die gbit switches sind teuer

torsten_boese
31.05.05, 17:51
du weist schon das du für bonding ziemlich teure switche beauchst, die Port-Trunking unterstützen?

Taktloss
31.05.05, 20:39
Gbit Switch und teuer?
8x Switch von Dlink bekommste für nen hunni "hinterher geschmissen"...
und die 5er welche für dich wahrscheinlich schon reichen, gibts von Netgear ab 59€ :ugly:
Naja, bevor ich mir nen Hardware raid zulegen würde wäre gbit dran
MfG. Takt

pcdog
31.05.05, 21:04
nur soviel
habe heute zwischen 3.2 ghz p4 und athlon 2600+ scp'led
und hab 9 mbyte/sec erreicht...
hat mich noch erstaunt. bei scp kommts also wirklich nur auf die cpu an...
beil lahmen clients teilweise nur 400-1000 kbyte / sec
Grüsse
Silvan

netzmeister
31.05.05, 21:56
Hallo,

für richtige Geschwindigkeit brauchst Du richtige Hardware:

Schnelle Platten, natürlich SCSI, kein Raid5 (das ist zwar redundant, aber auch langsam), am schnellen Kontroller z.B. Hardware Cache Raid 1

Echte Servernetzwerkkarten, die an einen entsprechenden Switch hängen.

Ein Mainboard, daß auf dem Bus auch die Leistung bietet.

Die Software sollte auch noch angepasst werden.

Für zu Hause ist das sicherlich viel zu teuer und zu laut.

Viele Grüße

Eicke

chrigu
01.06.05, 07:53
nur soviel
habe heute zwischen 3.2 ghz p4 und athlon 2600+ scp'led
und hab 9 mbyte/sec erreicht...
hat mich noch erstaunt. bei scp kommts also wirklich nur auf die cpu an...
beil lahmen clients teilweise nur 400-1000 kbyte / sec

Nicht ganz. Das Netzwerk muss natürlich auch stimmen! Gerade die Art der Kabel und die Kabellänge können auch einen Einfluss haben.
Bei meinem PC (P4, 2.8GHz) erreiche ich 11,5MB/s bei scp, denke das ist das Maximum das über ein 100er-Netz geht!

Gruss
Chrigu

mamue
01.06.05, 09:17
'scp' ist secure copy, oder? Durch die Verschlüsselung entsteht die hohe CPU-last. Das gleiche habe ich jedenfalls auch bei sftp bemerkt. Ich hätte nie gedacht, dass das so viel ausmachen kann, aber um 100MBit ausreizen zu können per s(sft,cp) braucht man scheinbar schon etwas schnellere CPU (Eine VIA C3@800MHz ist _nicht_ schnell!).

mamue