PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Schlechte Performance mit einem NAS



Vyvyan
25.04.10, 19:53
Ich habe in einer spontanen Anwandlung ein NAS von SMC (SMCNAS04) gekauft und mit 4 1TB-Platten (RAID5) ausgestattet. Das NAS läuft unter Linux, genau wie mein Arbeitsrechner.

nmap weist das NAS als besseren schweizer Käse aus, den man tunlichst vor der Öffentlichkeit verstecken sollte – es kann wirklich nicht lange dauern, sowas zu hacken. Leider steht nirgends, wie man sich beispielsweise an dem offenen SSH-Port einloggen kann.

Wie man NFS konfiguriert, ist in der Anleitung halbherzig beschrieben. Leider gelang es mir jedoch nicht, irgendein NFS-Share zu mounten.

Also habe ich CIFS genommen. In Ermangelung besserer Hardware ist das NAS über einen nicht gerade für Performance bekannten Alice-DSL-Router angeschlossen. Eigentlich sollte in einer späteren Variante irgendein Mobil-Gerät per W-LAN auf das NAS zugreifen.

Die jetzige Performance ist jedoch trostlos.

10 Stunden für 100GB können es ja kaum sein – das entspricht ungefähr DSL-Geschwindigkeit. Ich habe ein wenig mit der CIFS-Paketgröße herumgespielt, aber anscheinend ist die Default-Einstellung auch die beste.

Es gibt anscheinend keine Fehler bei der Netzwerk-Kommunikation.

Bevor ich jetzt Unsummen für zusätzliche Hardware ausgebe – die eventuell gar nichts nutzt, dachte ich, ich frage mal lieber – vielleicht hat ja jemand ein paar Tipps.

Das NAS hat 5 separate Netzbuchsen – was die jedoch nutzen sollen bei nur einem konfigurierbaren physikalischen Device, bleibt ein Rätsel (nur 1 MAC-Adresse, nur 1 IP).

Laut Datenblatt kann die Netzwerkschnittstelle nur IEEE*802.3u, laut FAQ und Werbung aber „Gigabit-Ethernet“, allerdings keine Link-Aggregation.

Ich habe versucht, mein forcedth-Interface direkt per CrossOver-Kabel an das NAS anzuschließen. Das ist schneller, aber nicht realistisch viel verwendbarer.

Frage: Habe ich mir vielleicht einfach nur billigen Schrott andrehen lassen?

bla!zilla
25.04.10, 19:55
Um es kurz zu machen: Ja. Zum einen ist CIFS an sich nicht sonderlich schnell, zum anderen: Was erwartest du bei dem Preis? ;)

Vyvyan
25.04.10, 20:35
Um es kurz zu machen: Ja. Zum einen ist CIFS an sich nicht sonderlich schnell, zum anderen: Was erwartest du bei dem Preis? ;)

Wie ich gerade feststellte, kann man mit CrossOver-Kabel auch NFS mounten. (Offenbar hatte der Router das UDP des mountproto weggefiltert.) Es ist anscheinend schneller, aber eher lateral.

bla!zilla
25.04.10, 21:03
Was für Datenraten erreichst du? 1 GbE oder 100 Mbit/s? Welches RAID auf der NAS?

HBtux
26.04.10, 00:45
Das NAS hat 5 separate Netzbuchsen – was die jedoch nutzen sollen bei nur einem konfigurierbaren physikalischen Device, bleibt ein Rätsel (nur 1 MAC-Adresse, nur 1 IP).

Dabei handelt es sich laut Beschreibung von SMC um ein internen Switch....




Ich habe versucht, mein forcedth-Interface direkt per CrossOver-Kabel an das NAS anzuschließen.
Du hast hoffentlich ein Gigabit-CrossOver-Kabel verwendet?
Laut Beschreibung sollte das Gerät Gigabit können. ("Auto MDIX Ethernet Port (10/100/1000 Mbps)")

Wenn bei Dir nur eine 100Mbit-Verbindung zustande kommt, könnte es am falschen CrossOver-Kabel liegen.
Du kannst auch mal ein normales ungekreuztes Kabel (Cat.5e oder besser) probieren, da das Gerät ja einen eingebauten Switch hat.

Falls nicht mehr als 100 Mbit zustande kommen, solltest Du wenigstens noch prüfen, ob Full-Duplex richtig erkannt bzw. eingestellt ist.



Wie ich gerade feststellte, kann man mit CrossOver-Kabel auch NFS mounten.
Das ist totaler Quatsch. NFS hat überhaupt nichts mit CrossOver-Kabel zu tun....
Wenn Du das richtige Kabel verwendest und die Netzwerkverbindung eingerichtet ist, sollten alle Ethernet-Protokolle funktionieren....

bla!zilla
26.04.10, 13:57
Das ist totaler Quatsch. NFS hat überhaupt nichts mit CrossOver-Kabel zu tun....
Wenn Du das richtige Kabel verwendest und die Netzwerkverbindung eingerichtet ist, sollten alle Ethernet-Protokolle funktionieren....

Nicht wenn der SoHo Router dazwischen irgendwas filtert.

Vyvyan
26.04.10, 21:00
Wie ich gerade feststellte, kann man mit CrossOver-Kabel auch NFS mounten. (Offenbar hatte der Router das UDP des mountproto weggefiltert.) Es ist anscheinend schneller, aber eher lateral.

Ich bin jetzt noch beim Testen. NFS ist leider völlig instabil - warum auch immer :confused: nach 100GB ist geräuschvolles Warten bei hoher Load angesagt. Ich versteh's nicht.

Ich werde versuchen, die Netzwerkkarte auszutauschen, damit der Linux-Treiber überhaupt 1000BASE-T schaffen kann, und die restlichen Kröten in ein passendes Crossover-Kabel investieren.

HBtux
26.04.10, 21:58
Nicht wenn der SoHo Router dazwischen irgendwas filtert.
Ich habe die Funktion lediglich auf den Kabeltyp bezogen.

Die Feststellung "das man mit CrossOver-Kabel auch NFS mounten kann" hat mich etwas gestört.

Wenn natürlich noch ein Filter aktiv ist oder die Stromzufuhr vom NAS abgeschaltet ist, was ich von meinem PC aus nicht sehe, funktioniert NFS natürlich nicht.

Vyvyan
26.04.10, 22:14
Ich habe die Funktion lediglich auf den Kabeltyp bezogen.

Die Feststellung "das man mit CrossOver-Kabel auch NFS mounten kann" hat mich etwas gestört.

Wenn natürlich noch ein Filter aktiv ist oder die Stromzufuhr vom NAS abgeschaltet ist, was ich von meinem PC aus nicht sehe, funktioniert NFS natürlich nicht.

Es sind natürlich keine Filter aktiv, die die Kommunikation diesseits der Firewall bzw. des NAT stören würden, zumindest keine, die ich aktiv beeinflussen könnte. Auch die Stromzufuhr ist in der Regel gewährleistet, wenn ich einen Test mache.

Ich habe sogar ein wenig Paketbetrachtung gemacht - es scheint mir eine tatsächliche Antwort vom NAS gewesen zu sein, die als Ablehnung verstanden wurde (kein Timeout o.ä.). Ich müsste noch mal genauer untersuchen, was genau der Router gefiltert oder verfälscht hat.

HBtux
27.04.10, 20:53
wie sieht es denn nun effektiv mit der Netzwerkgeschwindigkeit aus....


Kommt die Verbindung als 100 Mbit/s oder 1 Gbit/s zustande?



Halb- oder Vollduplex?



Hast Du ein spezielles GBit-Crossover-Kabel verwendet....?
(dies hat eine andere Pin-Belegung als ein Standard-Cross-Over-Kabel)



Bei 100 Mbit/s und halbduplex ist 10 Stunden für 100 GB realistisch....

MiGo
28.04.10, 11:32
Hast Du ein spezielles GBit-Crossover-Kabel verwendet....?
(dies hat eine andere Pin-Belegung als ein Standard-Cross-Over-Kabel)
Öhm - GBit-Ethernet ists per Definition egal, ob Cross-Over oder Straight-through, das erkennt schon selber, über welche Adern es mit der Gegenseite reden muss.

Dementsprechend gibt es keine "Speziellen GBit-Crossover-Kabel".

Ich lasse mich aber auch gern eines besseren belehren (vorzugsweise mit Adernbelegung ^^)

Vyvyan
28.04.10, 13:15
Öhm - GBit-Ethernet ists per Definition egal, ob Cross-Over oder Straight-through, das erkennt schon selber, über welche Adern es mit der Gegenseite reden muss.

Dementsprechend gibt es keine "Speziellen GBit-Crossover-Kabel".

Ich lasse mich aber auch gern eines besseren belehren (vorzugsweise mit Adernbelegung ^^)

Das hat mich jetzt überrascht. Lt. Wikipedia hängt es von einer Eigenschaft Automatic MDI/MDI-X Configuration ab, die aber im Standard als optional beschrieben wird. Immerhin würde das meine Kabelversorgungslage rapide verbessern - im Moment warte ich aber noch auf die neue Netzwerkkarte. (Der Saturn um die Ecke hatte wieder mal Apothekenpreise für dieses Zubehör...)

Vyvyan
28.04.10, 20:23
Ich habe jetzt Daten: Die Interfaces synchronisieren tatsächlich mit 1000BASE-T FullDuplex. NFS hat einen Effektivdurchsatz von 0,6 MB/s, CIFS 6,4 MB/s.

Wie gesagt, Linux zu Linux. Keine berauschenden Zahlen.

HBtux
28.04.10, 21:51
Öhm - GBit-Ethernet ists per Definition egal, ob Cross-Over oder Straight-through, das erkennt schon selber, über welche Adern es mit der Gegenseite reden muss.

Dementsprechend gibt es keine "Speziellen GBit-Crossover-Kabel".

Ich lasse mich aber auch gern eines besseren belehren (vorzugsweise mit Adernbelegung ^^)

Stimmt nicht....

Bei normalen Crossover-Kabel (Fast-Ethernet) sind nur die benötigten PINs (1/2 + 3/6) gekreuzt...
Pin 4/5 + 7/8 sind 1:1 verbunden....

Bei Gbit sind (1/2 + 3/6 sowie 4/5 + 7/8) gekreuzt....
http://www.google.de/#num=30&hl=de&newwindow=1&ei=jJDYS7WTM9GFOJXtoe4G&sa=X&oi=spell&resnum=0&ct=result&cd=1&ved=0CAUQBSgA&q=gbit+crossover&spell=1&fp=80b4c32689d52fd

Es könnte also gut sein, dass Gbit bei einem reinen 1:1 Kabel alle notwendigen Pins automatisch kreuzt.
Wenn man aber ein Cross-Over-Kabel für Fast-Ethernet verwendet, könnte je nach Gerät vielleicht sogar nur 100Mbit/s zustande kommen, weil nicht zwei Adernpaar gekreuzt und die anderen Adernpaare ungekreutzt betrieben werden können....

HBtux
28.04.10, 21:59
Ich habe jetzt Daten: Die Interfaces synchronisieren tatsächlich mit 1000BASE-T FullDuplex. NFS hat einen Effektivdurchsatz von 0,6 MB/s, CIFS 6,4 MB/s.

Wie gesagt, Linux zu Linux. Keine berauschenden Zahlen.
Da bist Du ja noch schneller, wenn Du die Daten per Disketten zwischen zwei Servern hin und her kopierst.... :)

Kannst Du mal wenn möglich folgendes probieren.....
Verwende mal noch einen zweiten Linux-Server mit einer GBit-Karte und übertrage mal die Daten zwischen den beiden Linux-Servern.
Wenn es dann deutlich schneller geht, liegt es am NAS....

Notfalls tut es auch ein zweiter Linux-Server mit 100MBit/s-Karte. Da müssten die Daten trotzdem schneller flutschen...

MiGo
29.04.10, 00:09
Das hat mich jetzt überrascht. Lt. Wikipedia hängt es von einer Eigenschaft Automatic MDI/MDI-X Configuration ab, die aber im Standard als optional beschrieben wird.
Ich hatte die Fähigkeit für FastEthernet als optional, für Gigabit Ethernet aber als verpflichtend im Kopf, daher meine Aussage :)
Muss ich den Standard doch mal lesen, das mache ich aber um diese Uhrzeit nicht mehr ^^

Bei Gbit sind (1/2 + 3/6 sowie 4/5 + 7/8) gekreuzt....
Zu wenig nachgedacht - du hast Recht ^^. Ob's nötig ist, werde ich nochmal im Standard nachlesen.


Ich habe jetzt Daten: Die Interfaces synchronisieren tatsächlich mit 1000BASE-T FullDuplex. NFS hat einen Effektivdurchsatz von 0,6 MB/s, CIFS 6,4 MB/s.
Cifs würde so halbwegs auf 100MBit passen. Hast du einfach mal mit ifconfig nachgesehen, ob du eventuell Paketverluste hast?

MiGo
29.04.10, 00:26
Jetzt hab ich mich doch noch dran gemacht und der Standard sagt:

Implementation of an automatic MDI/MDI-X configuration is optional for 1000BASE-T
devices.

Ich nehme somit alles zurück und behaupte das Gegenteil :D

Vyvyan
29.04.10, 17:44
Cifs würde so halbwegs auf 100MBit passen. Hast du einfach mal mit ifconfig nachgesehen, ob du eventuell Paketverluste hast?

"Leider" habe ich keine Paketverluste. Das sieht aus wie eine "gesunde" Verbindung, die einfach nur erbärmlich langsam ist.

Was ich vor allem nicht verstehe ist, wie NFS bloß so langsam werden kann - zwischen zwei verschiedenen Architekturen vielleicht - aber so doch nicht.

Update Wie ich gerade bemerke, ist die Latenz ... sehr merkwürdig. Ping liefert bei 0% packet loss

rtt min/avg/max/mdev = 1.717/10.846/20.142/7.044 ms

Beide Rechner haben zu diesem Zeitpunkt keine Load und nix zu tun.

HBtux
29.04.10, 19:30
Update Wie ich gerade bemerke, ist die Latenz ... sehr merkwürdig. Ping liefert bei 0% packet loss

rtt min/avg/max/mdev = 1.717/10.846/20.142/7.044 ms

Beide Rechner haben zu diesem Zeitpunkt keine Load und nix zu tun.
Was heißt die beiden Rechner....?
Meinst Du den Linux-PC und das NAS oder zwei Linux-PCs? (oder zeigt das NAS auch den Load an)

Die Antwortzeit ist nicht sonderlich berauschend, wobei man daraus aber auch nicht unbedingt Rückschlüsse auf die Auslastung oder Performance des Systems ableiten kann....
Manche Gerätetypen - meist so kleinere Multimedia-Boxes haben von Haus aus etwas langsamere Antwortzeiten wie ein PC, der meist bei rund 1-2 ms liegt...

Hast Du mal zwei Linux-PCs miteinander verbunden und die Performance getestet....?????