PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Übertragungsgeschwindigkeit zu langsam



Seiten : [1] 2

ElDiablo666
28.02.11, 15:06
Hallo,

ich habe unter Fedora 14 ein Problem mit der Übertragungsgeschwindigkeit mit Samba und per FTP. Da ich leider bisher keine Antwort im Fedoraforum (http://www.fedoraforum.de/viewtopic.php?f=23&t=21077) bekommen habe frage ich hier jetzt auch noch einmal nach.

Ich bekomme beim Kopiervorgang vom Linux Server über Samba zu einem Windows Rechner über ein Gigabit LAN auf Übertragungsgeschwindigkeiten von ca. 25 MB/s.
Über FTP sieht das ganze auch nicht besser aus und bricht je länger der Download läuft auf einstellige MB/s ein. Anfangen tut er mit schwankenden 40-60 MB/s.
CPU hat eben beim Kopiervorgang per FTP Idle Werte von ca. 60-70% gehabt.
Netzwerkkarte ist sauber auf Gigabit eingestellt.
Die Festplatten (zwei sind eingebaut als Software RAID 1) schaffen laut hdparm -t ca. 80-90 MB/s, allerdings bricht die Performance drastisch ein (halbiert sich), sobald ich ein Logical Volume frage.

Hat irgendjemand eine Idee was ich für ein Problem haben könnte?

MfG

Andreas

nopes
28.02.11, 19:31
naja keine echte Lösung, aber du könntest mal Probieren, wie die Performance aus einem Ram-Drive ist (http://www.vanemery.com/Linux/Ramdisk/ramdisk.html), ist sie top, dann weißt du, dass das Problem bei den Platten bzw. Raid liegt, wenn nicht ist wohl doch was beim Netzwerk oder aber der Netzwerkkarte im argen...

derRichard
28.02.11, 20:44
hi!

in erster linie würde ich auch erst prüfen ob es nicht doch an den platten oder am dateisystem liegt.
hdparm ist nicht wirklich ein relevantes werkzeug um das zu testen.

du kannst es wie nopes geschrieben hat mit einer ramdisk (jetzt tmpfs) testen.
einfach "mount -t tmpfs ..."
teste auch die geschwindigkeit vom raid und dem dateisystem mit bonnie++

hth,
//richard

ElDiablo666
01.03.11, 22:03
Hi,

mit tmpfs sieht das ganze auch nicht besser aus. :(

MfG

Andreas

nopes
02.03.11, 20:43
Hast du das auch mal von einem anderem Rechner getestet, nicht das der Windows Rechner die Bremse ist, bzw. kannst du mit dem Windows Rechner von anderen Rechnern schneller laden?

ElDiablo666
03.03.11, 07:46
Hast du das auch mal von einem anderem Rechner getestet, nicht das der Windows Rechner die Bremse ist, bzw. kannst du mit dem Windows Rechner von anderen Rechnern schneller laden?
Hmmm wir haben drei Computer Zuhause. Meinen relativ schnellen (z.b. mit einer SSD), den Server mit den eigentlich schnellen Festplatten und den Rechner meiner Freundin mit einer alten und langsamen 80 GB Festplatte.

Gestern habe ich versucht vom Rechner meiner Freundin etwas zu mir bzw. andersherum zu kopieren. Das lief auch eher so bei 15 MB/s ab. Dann habe ich vorsichtshalber mit HDTune ihre Festplatte getestet und sie kam auf 50er MB/s Werte aber paar Sekunden später auch gerne einmal auf einstellige MB/s (Minimum 1,5 MB/s :( ). Von daher hat das nicht unbedingt eine Aussagekraft.

Wie wäre es denn mit einer Live CD wie z.B. Knoppix. Diese mit meinem Rechner starten bzw. mit dem Server (oder sogar beides) und dann Kopiervorgänge starten.
Ist es einfach möglich in Knoppix einen FTP bzw. Samba Server zu starten? Oder ist Knoppix dafür gar nicht ausgelegt?

Um das Netzwerk auszuschließen als Fehler könnte ich doch auch einfach meinen Server und meinen Rechner per Crossoverkabel verbinden ohne auch nur irgendwas umkonfigurieren zu müssen, oder?

nopes
03.03.11, 19:48
Ich würde ebenfalls eine LiveCD nehmen, booten eine RamDisk bzw. diesen TempFS Kram einrichten, dann RamDisk <-> LAN <-> RamDisk...

ElDiablo666
03.03.11, 20:06
Ich habe auf meinem Windows Rechner gerade die Knoppix 6.4.4 DVD gestartet und per FTP und per Samba eine Datei vom Server geladen:

Ergebnis:

Per Samba: Ca. 20 MB/s.

Per FTP: Ca. 30 MB/s.

Gespeichert habe ich die Datei immer in /tmp welches bei Knoppix auch ein tmpfs ist.

Offenbar lässt sich per Knoppix aber kein FTP bzw. Samba Server installieren (oder ich finde es nur nicht) von daher kann ich leider nicht beide per Knoppix booten und unabhängig vom Betriebssystem und den Festplatten einen Kopiervorgang machen. :(

nopes
03.03.11, 20:34
afaik ist bei knoppix synaptic dabei, damit kannst du beliebige software installieren...

davon ab, es schreit nach NIC.

ElDiablo666
03.03.11, 21:58
Knoppix fährt auf dem Server nicht einmal hoch, hilft mir also nicht wirklich.

Ich habe auf meinem Windows Rechner einen Filezilla Server (FTP) installiert aber der FTP Transfer vom Windows Rechner zum Server sieht auch nicht besser aus.

Jetzt habe ich sogar beide Rechner per Crossover Kabel verbunden um das Netzwerk also den Switch auszuschließen. Auch kein besseres Ergebnis.

Jetzt wieder normal verkabelt und unter Windows den Treiber der Netzwerkkarte aktualisiert. (Falls er nicht schon aktuell war). Auch keine wirkliche Besserung.

So langsam weiß ich nicht mehr weiter. :(

Können die Netzwerkkarten (D-Link DGE-528T Gigabit Ethernet Adapter) denn so schlecht sein? Als Switch benutze ich eine Fritz!Box 7390 und vor der Fritz!Box 7390 war es ein D-Link DGS-1008D Gigabit Switch, bei dem die Geschwindigkeit gleich schlecht war. Die Fritz!Box 7390 soll extrem schnelle Gigabit-LAN-Ports haben (Außerdem spendiert AVM der Box vier richtig schnelle Gigabit-LAN-Ports, bei denen wir im Test Übertragungsraten von durchschnittlich 1.074 MBit pro Sekunde messen konnten. Quelle: Chip.de (http://www.chip.de/artikel/AVM-FritzBox-Fon-WLAN-7390-WLAN-Router-Test_42151677.html)). Ich finde leider keine Webseite wo jemand die Geschwindigkeit der D-Link DGE-528T Gigabit Ethernet Adapter gemessen hat.

Newbie314
03.03.11, 23:18
Ganz blöde Frage:

Mal nen ganz anderen Rechner an der Stelle probiert (Karte / Wackelkontakt) ?

Taugen die Kabel was ? Die Stecker ?

just4uk
04.03.11, 00:10
...................Jetzt habe ich sogar beide Rechner per Crossover Kabel verbunden um das Netzwerk also den Switch auszuschließen...................................S chlechte Idee! Wenn beide Seiten wirklich GBit Netzwerkinterface sind hast Du die Verbindung doppelgemoppeld.
Versuch das nochmal mit einem "normalen" Netzwerkkabel (darauf achten das es nicht gerade ein 0815 Kabel ist).
Dann mal von jedem Rechner zu jedem Rechner.
Autonegotiation aus und Interface fix auf 1 Gbit einstellen.
Wenn mögl. mal andere Karte testen.
Lass mal den Outout von
lspci -ksehen.

Gruß aus L.E.
Uwe

ElDiablo666
04.03.11, 09:05
Mal nen ganz anderen Rechner an der Stelle probiert (Karte / Wackelkontakt) ?
Wir haben nur drei Rechner. Ich könnte noch einmal versuchen auf zwei davon (meiner und der meiner Freundin) Knoppix zu booten (auf dem Server fährt Knoppix ja leider nicht hoch) und ein Knoppix tmpfs -> Knoppix tmpfs Test machen.


Taugen die Kabel was ? Die Stecker ?
"Gute" Cat.5e Kabel (der Server und mein Rechner, bei meiner Freundin "nur" Cat.5, weil ich kein 5e mehr hatte was lang genug war) mit nicht selbst gecrimpteten Steckern.


Schlechte Idee! Wenn beide Seiten wirklich GBit Netzwerkinterface sind hast Du die Verbindung doppelgemoppeld.
Oh, wieder was gelernt (http://de.wikipedia.org/wiki/Crosskabel#1000BASE-T-Ethernet). Bei Gigabit ist gar kein Crossover mehr nötig.


Versuch das nochmal mit einem "normalen" Netzwerkkabel (darauf achten das es nicht gerade ein 0815 Kabel ist).
Ich hatte folgendes Kabel im Einsatz: Cross Over Cat.5e UTP Patchkabel, grau mit rotem Stecker, 2m (http://www.lindy.de/cross-over-cat5e-utp-patchkabel-grau-mit-rotem-stecker-2m/44743.html). Da das auch 1000Base-T-Unterstützung hat war mein Test wohl trotzdem OK.


Dann mal von jedem Rechner zu jedem Rechner.
Autonegotiation aus und Interface fix auf 1 Gbit einstellen.
So habe ich es ja gemacht bis auf Autonegotation an aber ethtohl hat Gigabit gesagt. (20 MB/s sind ja auch kein 100MBit/s mehr).


Wenn mögl. mal andere Karte testen.
Werde versuchen zwei andere Karten zu bekommen.


Lass mal den Outout von
lspci -ksehen.

00:00.0 RAM memory: nVidia Corporation MCP67 Memory Controller (rev a2)
Subsystem: ASRock Incorporation ALiveNF7G-HDready
00:01.0 ISA bridge: nVidia Corporation MCP67 ISA Bridge (rev a2)
Subsystem: ASRock Incorporation Device 0548
00:01.1 SMBus: nVidia Corporation MCP67 SMBus (rev a2)
Subsystem: ASRock Incorporation Device 0542
Kernel driver in use: nForce2_smbus
Kernel modules: i2c-nforce2
00:01.3 Co-processor: nVidia Corporation MCP67 Co-processor (rev a2)
Subsystem: ASRock Incorporation Device 0543
00:02.0 USB Controller: nVidia Corporation MCP67 OHCI USB 1.1 Controller (rev a2)
Subsystem: ASRock Incorporation Device 055e
Kernel driver in use: ohci_hcd
00:02.1 USB Controller: nVidia Corporation MCP67 EHCI USB 2.0 Controller (rev a2)
Subsystem: ASRock Incorporation Device 055f
Kernel driver in use: ehci_hcd
00:04.0 USB Controller: nVidia Corporation MCP67 OHCI USB 1.1 Controller (rev a2)
Subsystem: ASRock Incorporation Device 055e
Kernel driver in use: ohci_hcd
00:04.1 USB Controller: nVidia Corporation MCP67 EHCI USB 2.0 Controller (rev a2)
Subsystem: ASRock Incorporation Device 055f
Kernel driver in use: ehci_hcd
00:06.0 IDE interface: nVidia Corporation MCP67 IDE Controller (rev a1)
Subsystem: ASRock Incorporation Device 0560
Kernel driver in use: pata_amd
Kernel modules: ata_generic, pata_acpi, pata_amd
00:07.0 Audio device: nVidia Corporation MCP67 High Definition Audio (rev a1)
Subsystem: ASRock Incorporation Device 3662
Kernel driver in use: HDA Intel
Kernel modules: snd-hda-intel
00:08.0 PCI bridge: nVidia Corporation MCP67 PCI Bridge (rev a2)
00:09.0 SATA controller: nVidia Corporation MCP67 AHCI Controller (rev a2)
Subsystem: ASRock Incorporation Device 0554
Kernel driver in use: ahci
00:0a.0 Ethernet controller: nVidia Corporation MCP67 Ethernet (rev a2)
Subsystem: ASRock Incorporation ALiveNF7G-HDready, MCP67 Gigabit Ethernet
Kernel driver in use: forcedeth
Kernel modules: forcedeth
00:0b.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
Kernel driver in use: pcieport
Kernel modules: shpchp
00:0c.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
Kernel driver in use: pcieport
Kernel modules: shpchp
00:0d.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
Kernel driver in use: pcieport
Kernel modules: shpchp
00:0e.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
Kernel driver in use: pcieport
Kernel modules: shpchp
00:0f.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
Kernel driver in use: pcieport
Kernel modules: shpchp
00:10.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
Kernel driver in use: pcieport
Kernel modules: shpchp
00:11.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
Kernel driver in use: pcieport
Kernel modules: shpchp
00:12.0 VGA compatible controller: nVidia Corporation C68 [GeForce 7050 PV / nForce 630a] (rev a2)
Subsystem: ASRock Incorporation Device 053b
Kernel driver in use: nvidia
Kernel modules: nvidia, nouveau, nvidiafb
00:18.0 Host bridge: Advanced Micro Devices [AMD] K8 [Athlon64/Opteron] HyperTransport Technology Configuration
00:18.1 Host bridge: Advanced Micro Devices [AMD] K8 [Athlon64/Opteron] Address Map
00:18.2 Host bridge: Advanced Micro Devices [AMD] K8 [Athlon64/Opteron] DRAM Controller
Kernel modules: amd64_edac_mod
00:18.3 Host bridge: Advanced Micro Devices [AMD] K8 [Athlon64/Opteron] Miscellaneous Control
Kernel driver in use: k8temp
Kernel modules: k8temp
01:08.0 Ethernet controller: D-Link System Inc DGE-528T Gigabit Ethernet Adapter (rev 10)
Subsystem: D-Link System Inc DGE-528T Gigabit Ethernet Adapter
Kernel driver in use: r8169
Kernel modules: r8169

ElDiablo666
04.03.11, 10:38
Ich habe noch etwas gefunden: Zuhause werde ich den NETIO Benchmark (http://www.ars.de/ars/ars.nsf/docs/netio) testen! Das wäre doch eine perfekte Möglichkeit nur das Netzwerk und zusammen mit dem Crossover Kabel nur die beiden jeweiligen Netzwerkkarten zu testen, oder?

Ich habe das hier auf der Arbeit gleich einmal ausprobiert.

Zwischen zwei Windows XP Rechnern verbunden über ein 100MBit/s Netzwerk:

NETIO - Network Throughput Benchmark, Version 1.31
(C) 1997-2010 Kai Uwe Rommel

TCP connection established.
Packet size 1k bytes: 11.11 MByte/s Tx, 10.96 MByte/s Rx.
Packet size 2k bytes: 11.07 MByte/s Tx, 10.95 MByte/s Rx.
Packet size 4k bytes: 11.27 MByte/s Tx, 11.17 MByte/s Rx.
Packet size 8k bytes: 11.28 MByte/s Tx, 11.17 MByte/s Rx.
Packet size 16k bytes: 11.29 MByte/s Tx, 11.15 MByte/s Rx.
Packet size 32k bytes: 11.33 MByte/s Tx, 11.20 MByte/s Rx.
Done.

Zwischen zwei HP ProLiant DL380 G6 Servern mit RHEL 5 verbunden über einen Cisco Catalyst Gigabit Switch:

NETIO - Network Throughput Benchmark, Version 1.31
(C) 1997-2010 Kai Uwe Rommel

TCP connection established.
Packet size 1k bytes: 111.44 MByte/s Tx, 112.15 MByte/s Rx.
Packet size 2k bytes: 111.74 MByte/s Tx, 110.74 MByte/s Rx.
Packet size 4k bytes: 112.20 MByte/s Tx, 111.52 MByte/s Rx.
Packet size 8k bytes: 112.21 MByte/s Tx, 111.65 MByte/s Rx.
Packet size 16k bytes: 111.61 MByte/s Tx, 111.07 MByte/s Rx.
Packet size 32k bytes: 112.21 MByte/s Tx, 110.90 MByte/s Rx.
Done.

bla!zilla
04.03.11, 10:40
Die Werte von NETIO sehen gut aus. So sollte es sein. Aber bitte daran denken: Die Werte von NETIO sind mit denen von CIFS oder FTP nicht vergleichbar.

ElDiablo666
04.03.11, 10:55
Die Werte von NETIO sehen gut aus. So sollte es sein.
Nur als Anmerkung (falls das oben nicht richtig rüber kam): Das sind nicht die Werte von mir Zuhause!


Aber bitte daran denken: Die Werte von NETIO sind mit denen von CIFS oder FTP nicht vergleichbar.
Korrekt aber ich könnte damit endlich das Netzwerk als Problem ausschließen und mich den Festplatten, dem Software RAID 1 oder der CPU widmen.

bla!zilla
04.03.11, 11:09
Das habe ich wohl gelesen und auch verstanden. Aber das sind brauchbare Referenzwerte.

just4uk
04.03.11, 17:19
01:08.0 Ethernet controller: D-Link System Inc DGE-528T Gigabit Ethernet Adapter (rev 10)
Subsystem: D-Link System Inc DGE-528T Gigabit Ethernet Adapter
Kernel driver in use: r8169
Kernel modules: r8169
Hmpf... viel Spass mit dem Ding!
Googel mal nach Deiner Netzwerkkarte da wirst Du nicht viel nettes finden.
Im allgemeinen sind die R..T.. Dinger nicht wirklich berühmt für Perfomance und Kompatibilität!
Also wenn es Dein Budget hergibt greif Dir eine andere Netzwerkkarte und achte darauf das kein R...T.. Chip drauf ist!
Was die Autonegotation angeht kann es Dir (bzw. Deiner Karte) passieren das sie und der Switch permanent versuchen einen Speed auszuhandeln mit dem beide glücklich sind aber nicht wirklich zu einen Ergebniss kommen.
Was sich dann in den berauschenden Durchsatzwerten nieder schlägt.
Lässt sich Dein Switch managen?

Gruß aus L.E.
Uwe

ElDiablo666
04.03.11, 19:28
Das habe ich wohl gelesen und auch verstanden. Aber das sind brauchbare Referenzwerte.
OK, das stimmt.


Also wenn es Dein Budget hergibt greif Dir eine andere Netzwerkkarte und achte darauf das kein R...T.. Chip drauf ist!
Hast Du ein Beispiel? Marke, Preis...


Lässt sich Dein Switch managen?
Eher nicht:

Als Switch benutze ich eine Fritz!Box 7390 und vor der Fritz!Box 7390 war es ein D-Link DGS-1008D Gigabit Switch, bei dem die Geschwindigkeit gleich schlecht war.

Hier die traurigen Ergebnisse von netio:

NETIO - Network Throughput Benchmark, Version 1.31
(C) 1997-2010 Kai Uwe Rommel

TCP connection established.
Packet size 1k bytes: 26.72 MByte/s Tx, 26.41 MByte/s Rx.
Packet size 2k bytes: 32.36 MByte/s Tx, 29.64 MByte/s Rx.
Packet size 4k bytes: 36.22 MByte/s Tx, 28.61 MByte/s Rx.
Packet size 8k bytes: 39.77 MByte/s Tx, 33.59 MByte/s Rx.
Packet size 16k bytes: 41.95 MByte/s Tx, 36.16 MByte/s Rx.
Packet size 32k bytes: 42.56 MByte/s Tx, 38.55 MByte/s Rx.
Done.

just4uk
04.03.11, 20:17
Also auf die schnelle gibts fast alles ab 20€!
Aber leider das meiste davon mit PCI-X da bin ich mit nicht sicher ob Du das einsetzten kannst!!
Z.B.:
HP NC7770 Gigabit Ethernet LAN Broadcom für 7€, aber PCI-X
Intel PRO/1000 Gigabit 20€, auch PCI-X
HP NC320T Broadcom 20€, PCI-e
INTEL 9301CT Gigabit CT Desktop Adapter 33€, PCI-e
Mit PCI 32bit Interface hab ich auf die schnelle nur Karten mit R...T.. Chip gefunden!
Hiermal mein Output von netio:
NETIO - Network Throughput Benchmark, Version 1.31
(C) 1997-2010 Kai Uwe Rommel

TCP connection established.
Packet size 1k bytes: 71.26 MByte/s Tx, 111.67 MByte/s Rx.
Packet size 2k bytes: 87.70 MByte/s Tx, 112.06 MByte/s Rx.
Packet size 4k bytes: 103.52 MByte/s Tx, 110.38 MByte/s Rx.
Packet size 8k bytes: 109.29 MByte/s Tx, 111.07 MByte/s Rx.
Packet size 16k bytes: 108.07 MByte/s Tx, 111.24 MByte/s Rx.
Packet size 32k bytes: 103.71 MByte/s Tx, 111.24 MByte/s Rx.
Done.
Hier handelt es um eine mit Onboard 1Gbit Realtek 8168/8111 Chip per PCI-e angebunden! Die Gegenseite sind zwei nVidia Corporation MCP55 Ethernet (rev a3) verbunden über einen HP Switch.

Gruß aus L.E.
Uwe

ElDiablo666
04.03.11, 21:10
Also auf die schnelle gibts fast alles ab 20€!
Super, die D-Link Dinger waren damals auch nicht viel günstiger. :(


Aber leider das meiste davon mit PCI-X da bin ich mit nicht sicher ob Du das einsetzten kannst!!
Ich befürchte nein aber dazu weiter unten mehr.


Mit PCI 32bit Interface hab ich auf die schnelle nur Karten mit R...T.. Chip gefunden!
Und das habe ich ja schon. ;)


Hiermal mein Output von netio:
NETIO - Network Throughput Benchmark, Version 1.31
(C) 1997-2010 Kai Uwe Rommel

TCP connection established.
Packet size 1k bytes: 71.26 MByte/s Tx, 111.67 MByte/s Rx.
Packet size 2k bytes: 87.70 MByte/s Tx, 112.06 MByte/s Rx.
Packet size 4k bytes: 103.52 MByte/s Tx, 110.38 MByte/s Rx.
Packet size 8k bytes: 109.29 MByte/s Tx, 111.07 MByte/s Rx.
Packet size 16k bytes: 108.07 MByte/s Tx, 111.24 MByte/s Rx.
Packet size 32k bytes: 103.71 MByte/s Tx, 111.24 MByte/s Rx.
Done.
Hier handelt es um eine mit Onboard 1Gbit Realtek 8168/8111 Chip per PCI-e angebunden! Die Gegenseite sind zwei nVidia Corporation MCP55 Ethernet (rev a3) verbunden über einen HP Switch.
Na super, es gibt also wohl Onboard Netzwerkkarten von Realtek die schneller sind als meine Karten! Ich habe die Karten extra gekauft um die miese Performance von Onboardlösungen auszuschließen. :(

Also mein Windows Rechner hat folgende Hardware (http://www.sysprofile.de/id142654).
Mainboard ist also ein ASUS P5N-D (http://www.asus.de/product.aspx?P_ID=yQYfAtkxxZMjR79G) mit Onboard Netzwerk NVIDIA nForce® 750i SLI built-in Gigabit MAC with external PHY.
Könnte die Onboard Netzwerkkarte schneller sein?
Kein PCI-X aber (natürlich) PCIe. Gibt es dafür auch Netzwerkkarten?

Der Server hat ein ASRock ALiveNF7G-HD720p R5.0 (http://www.asrock.com/mb/overview.asp?Model=ALIVENF7G-HD720P%20R5.0) und als Onboard Netzwerk offenbar einen Realtek Chipsatz (Giga PHY RTL8211B).
Könnte die Onboard Netzwerkkarte schneller sein? Wahrscheinlich eher nicht, oder?
Kein PCI-X aber (natürlich) PCIe. Gibt es dafür auch Netzwerkkarten?

Meine Freundin hat ein ASRock K10N78FullHD-hSLI R3.0 (http://www.asrock.com/mb/overview.asp?Model=K10N78FULLHD-HSLI%20R3.0) und als Onboard Netzwerk offenbar denselben Kram wie der Server (Giga PHY RTL8211B).
Könnte die Onboard Netzwerkkarte schneller sein? Wahrscheinlich eher nicht, oder?
Kein PCI-X aber (natürlich) PCIe. Gibt es dafür auch Netzwerkkarten?

just4uk
04.03.11, 21:41
Ohne das ich mir die Boards jetzt genauer angeschaut habe gehe ich einfach mal davon aus das die relativ aktuell sind!
Von daher kannst Du zu 91% davon ausgehen das die NICs per PCI-e angebunden sind!
Teste es doch einfach mal!!
Genauere Auskunft gibt die entweder der Gerätemanager bzw. lspci.

Gruß aus L.E.
Uwe

bla!zilla
05.03.11, 10:21
PCI-X wird heute eigentlich nicht mehr benutzt, im PC-Umfeld war es auch eher eine Ausnahme. PCI-X gab/ gibt es eher im Workstation oder Server-Umfeld, wobei bei den beiden sich PCIe auf breiter Front durchgesetzt hat. Ebenso im PC-Bereich. Daher gehe ich auch zu 99% davon aus, dass die NICs per PCIe angebunden sind.

Ich bevorzuge Netzwerkkarten mit Intel- oder Broadcom Chipsätzen. Realtek würde ich die Finger von lassen.

ElDiablo666
05.03.11, 16:49
Von daher kannst Du zu 91% davon ausgehen das die NICs per PCI-e angebunden sind!
Teste es doch einfach mal!!
Genauere Auskunft gibt die entweder der Gerätemanager bzw. lspci.
OK ich habe jetzt bei allen drei Rechnern die Onboard Netzwerkkarten in Betrieb.
Wo genau sehe ich bei Windows im Gerätemanager, ob die Karte per PCI oder PCI-E angebunden ist?
Wo genau sehe ich bei Linux bei der Ausgabe von lspci, ob die Karte per PCI oder PCI-E angebunden ist?

Anbei (noch einmal glaube ich) die Ausgabe von lspci:

00:00.0 RAM memory: nVidia Corporation MCP67 Memory Controller (rev a2)
00:01.0 ISA bridge: nVidia Corporation MCP67 ISA Bridge (rev a2)
00:01.1 SMBus: nVidia Corporation MCP67 SMBus (rev a2)
00:01.3 Co-processor: nVidia Corporation MCP67 Co-processor (rev a2)
00:02.0 USB Controller: nVidia Corporation MCP67 OHCI USB 1.1 Controller (rev a2)
00:02.1 USB Controller: nVidia Corporation MCP67 EHCI USB 2.0 Controller (rev a2)
00:04.0 USB Controller: nVidia Corporation MCP67 OHCI USB 1.1 Controller (rev a2)
00:04.1 USB Controller: nVidia Corporation MCP67 EHCI USB 2.0 Controller (rev a2)
00:06.0 IDE interface: nVidia Corporation MCP67 IDE Controller (rev a1)
00:07.0 Audio device: nVidia Corporation MCP67 High Definition Audio (rev a1)
00:08.0 PCI bridge: nVidia Corporation MCP67 PCI Bridge (rev a2)
00:09.0 SATA controller: nVidia Corporation MCP67 AHCI Controller (rev a2)
00:0a.0 Ethernet controller: nVidia Corporation MCP67 Ethernet (rev a2)
00:0b.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
00:0c.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
00:0d.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
00:0e.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
00:0f.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
00:10.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
00:11.0 PCI bridge: nVidia Corporation MCP67 PCI Express Bridge (rev a2)
00:12.0 VGA compatible controller: nVidia Corporation C68 [GeForce 7050 PV / nForce 630a] (rev a2)
00:18.0 Host bridge: Advanced Micro Devices [AMD] K8 [Athlon64/Opteron] HyperTransport Technology Configuration
00:18.1 Host bridge: Advanced Micro Devices [AMD] K8 [Athlon64/Opteron] Address Map
00:18.2 Host bridge: Advanced Micro Devices [AMD] K8 [Athlon64/Opteron] DRAM Controller
00:18.3 Host bridge: Advanced Micro Devices [AMD] K8 [Athlon64/Opteron] Miscellaneous Control


PCI-X wird heute eigentlich nicht mehr benutzt, im PC-Umfeld war es auch eher eine Ausnahme. PCI-X gab/ gibt es eher im Workstation oder Server-Umfeld, wobei bei den beiden sich PCIe auf breiter Front durchgesetzt hat. Ebenso im PC-Bereich. Daher gehe ich auch zu 99% davon aus, dass die NICs per PCIe angebunden sind.
Mir war auch so, dass ich bisher PCI-X nur eine Zeit lang im Serverbereich gesehen habe.


Ich bevorzuge Netzwerkkarten mit Intel- oder Broadcom Chipsätzen. Realtek würde ich die Finger von lassen.
OK.

NETIO von meinem Windows Rechner (Onboard Netzwerk NVIDIA nForce® 750i SLI built-in Gigabit MAC with external PHY) zu dem Windows Rechner (Giga PHY RTL8211B) meiner Freundin:

NETIO - Network Throughput Benchmark, Version 1.31
(C) 1997-2010 Kai Uwe Rommel

TCP connection established.
Packet size 1k bytes: 99.76 MByte/s Tx, 99.55 MByte/s Rx.
Packet size 2k bytes: 95.83 MByte/s Tx, 101.50 MByte/s Rx.
Packet size 4k bytes: 112.48 MByte/s Tx, 112.43 MByte/s Rx.
Packet size 8k bytes: 112.56 MByte/s Tx, 112.13 MByte/s Rx.
Packet size 16k bytes: 112.59 MByte/s Tx, 112.40 MByte/s Rx.
Packet size 32k bytes: 112.93 MByte/s Tx, 112.77 MByte/s Rx.
Done.

NETIO von meinem Windows Rechner (Onboard Netzwerk NVIDIA nForce® 750i SLI built-in Gigabit MAC with external PHY) zum Server (der auch Giga PHY RTL8211B haben sollte):

TCP connection established.
Packet size 1k bytes: 30.66 MByte/s Tx, 27.30 MByte/s Rx.
Packet size 2k bytes: 46.04 MByte/s Tx, 34.83 MByte/s Rx.
Packet size 4k bytes: 51.06 MByte/s Tx, 38.78 MByte/s Rx.
Packet size 8k bytes: 52.18 MByte/s Tx, 41.40 MByte/s Rx.
Packet size 16k bytes: 54.44 MByte/s Tx, 44.46 MByte/s Rx.
Packet size 32k bytes: 54.68 MByte/s Tx, 45.49 MByte/s Rx.
Done.
Jetzt bin ich verwirrt. Dieselbe Netzwerkkarte liefert so unterschiedliche Werte??? :confused:
Die CPU im Server ist nicht schnell (AMD Sempron LE-1150, der soll ja auch wenig Strom brauchen) aber der Systemmonitor zeigt beim NETIO auch keine 100% CPU Last an. (Eher durchgehend ca. 30%. Wegen dem Software RAID 1)?

bla!zilla
05.03.11, 16:51
Da scheint der Server das Bottleneck zu sein. Das muss sich auch nicht durch eine hohe CPU Last bemerkbar machen. Unter anderem könnte auch der Bus das Problem sein. Da du hier die Platten ausschließen kannst, wird das Problem eher bei der NIC und/ oder im Bereich der Anbindung zu suchen sein. Kannst du mal eine andere NIC im Server testen?

ElDiablo666
05.03.11, 16:57
Kannst du mal eine andere NIC im Server testen?
Nein, ich habe leider nur die D-Link Karten und die jeweiligen Onboard Karten. :(

ElDiablo666
05.03.11, 17:07
Ich habe aber einen kleinen Unterschied gefunden.

Auf dem Rechner meiner Freundin habe ich Knoppix gestartet und dort sagt lspci bzw. lspci -k folgendes:

Ethernet controller: nVidia Corporation MCP77 Ethernet (rev a2)
Subsystem: ASRock Incorporation K10N78FullHD-hSLI R3.0 Ethernet
Kernel driver in use: forcedeth

Auf dem Server sagt lspci -k folgendes:

Ethernet controller: nVidia Corporation MCP67 Ethernet (rev a2)
Subsystem: ASRock Incorporation ALiveNF7G-HDready, MCP67 Gigabit Ethernet
Kernel driver in use: forcedeth
Kernel modules: forcedeth

MCP67 -> MCP77, es sind also nicht ganz dieselben Netzwerkkarten!

bla!zilla
05.03.11, 17:07
Kannst du NETIO zwischen deinem Rechner und dem Server mal in die andere Richtung testen?

ElDiablo666
05.03.11, 17:18
Kannst du NETIO zwischen deinem Rechner und dem Server mal in die andere Richtung testen?
Bitte, ist aber auch nicht besser. (Er zeigt ja sowieso senden und empfangen Tx und Rx an, von daher).


UDP server listening.
TCP server listening.
TCP connection established ...
Receiving from client, packet size 1k ... 21.84 MByte/s
Sending to client, packet size 1k ... 38.21 MByte/s
Receiving from client, packet size 2k ... 25.64 MByte/s
Sending to client, packet size 2k ... 44.16 MByte/s
Receiving from client, packet size 4k ... 28.43 MByte/s
Sending to client, packet size 4k ... 46.36 MByte/s
Receiving from client, packet size 8k ... 31.07 MByte/s
Sending to client, packet size 8k ... 48.76 MByte/s
Receiving from client, packet size 16k ... 34.35 MByte/s
Sending to client, packet size 16k ... 49.54 MByte/s
Receiving from client, packet size 32k ... 34.95 MByte/s
Sending to client, packet size 32k ... 48.51 MByte/s
Done.

bla!zilla
05.03.11, 17:30
Die Werte sind sogar schlechter... Ich tippe auf schwache Hardware im Server.