Dual GLAN - Was bringt das?

breadfan

Lt. Junior Grade
Registriert
Jan. 2011
Beiträge
290
Hallo,

ich habe mir ein Mainboard besorgt, welches Dual- GLAN hat, also 2 LAN- Anschlüsse.
In der Beschreibung steht was von Network Teaming, ich konnte aber auch nach etwas googlen nicht wirklich schlau werden, was das genau für einen Nutzen hat.

Kann das jemand simpel erlären?

MfG breadfan
 
Die Netzwerkkarten können sich als "eine" Karte melden und somit kann eine Karte ausfallen und dein Netzwerk geht immer noch, als zweites kann man auch die Bandbreite erhöhen, aber kurz gesagt für den normalen User ist eigentlich nicht relevant.
Hab selber auch zwei Netzwerkkarten drin, aber nutze sie eher für zwei unabhängige Netzwerke.
 
Theoretisch entsteht durch teaming eine 2GBit Leitung. Der Praktische Nutzen / die Durchführbarkeit dürfte im Hausgebrauch aber gegen 0 tendieren.
 
In Zeiten der DSL/Kabel-WLAN-Router-Kombigeräte, dürfte kaum noch ein Heimanwender in eine Situation kommen, wo man einen PC mit zwei Netzwerkanschlüssen wirklich braucht. Die meisten dieser Kombigeräte bieten eigentlich alles, wofür man einen PC mit zwei LAN-Prots brauchen könnte. (Von Firewall über separate Gastnetzwerke bis zu VPN-Clients.) Vielleicht nicht so gut wie dafür abgestellte PCs/Server, aber für Otto-Normal-Anwender in den allermeisten Fällen ausreichend.
 
"Teaming" ist wieder so ein Gummi-Begriff aus dem Marketing. Der Fachbegriff heisst "Trunking" bzw. "Link Aggregation".

Ich habe selber managebare Switches, welche Trunking unterstützen. Wie schon erwähnt, sind die Vorteile bei normalen Anwendungen gleich Null. Beim Gamen nützt es sowieso nichts, da dort gar nicht mal soviel über die Leitung geht. Dort reicht auch 100Mbit-Ethernet noch locker. Die Latenzzeiten sind aber beim Gamen wichtig. Das hängt aber vom Netzwerk selber ab.

Die Gegenstellen in einem LAN müssen natürlich auch mindestens die gleiche Bandbreite haben, damit Trunking überhaupt einen Sinn macht. Hauptanwendungszweck sind Server. Dort reicht es auch, wenn der Server allein mit mehreren Ethernet-Ports an den Switch angebunden ist, weil er dann mehr Clients (mit nur je einem Anschluss) zufriedenstellend versorgen kann. Nützt natürlich auch nur was, wenn der Server die Daten von Platte/Array oder SSD schnell genug liefern kann.

Häufig bringt es mehr, wenn man sich ein Board mit einem guten Ethernet-Chip gönnt. Ethernet-Chips von intel und Broadcom zeigen häufig bessere Leistungen also solche von z.B. Realtek. Vor allem geringere CPU-Last. Die Unterschiede sind aber meistens eher marginal. Wer Gigabit-Ethernet wirklich besser ausnutzen will, kauft sich besser mal einen managebaren Switch, welcher auch Jumbo-Frames unterstützt. Das bringt definitiv eine Leistungssteigerung, bedingt aber, dass alle am Transfer beteiligten Geräte Jumbo-Frames unterstützen. Für Games ist es aber irrelevant.

Theoretisches Maximum bei Gigabit-Ethernet wäre 125 MB/s. Davon muss man aber in der Praxis ca. 10% für den Overhead abziehen. Das macht dann etwas 112.5 MB/s. In der Praxis habe ich schon Werte von 110 MB/s gesehen. Das geht aber nur bei optimierten Netzwerkparametern und guten Switches. Bei mir zu Hause hatte ich schon Werte von mehr als 85 MB/s. Dazu braucht es nicht mal viel Leistung. Die damaligen Messungen hatte ich mit Helios LANTest und einem kleinen MacMini und einem Synology DS508 NAS gemacht. Häufig ist vor allem das Protokoll das Problem. AFS (unter OSX) bietet deutlich bessere Werte als SMB unter Windows. SMB ist sowas von veraltet. Unter Linux komme ich nicht ganz auf so gute Werte wie unter OSX, aber ich muss zugeben, dass ich mich dort noch nicht so gut mit dem Tunen der Parameter auskenne und es liegt dann auch eher am Protokoll. Linux kann zwar mit AFS umgehen, aber es ist schon vor allem für OSX gedacht. Das DS508 NAS läuft auch unter Linux und kann eben AFS.

Leider sieht man in der Praxis häufig "professionelle" Installation mit Gigabit-Ethernet, welche irgendwo zwischen 40-60 MB/s rumdümpeln. Und das mit sündhaft teuren Cisco-Switches und genauso exklusiver Serverhardware/-software. Dort hat man in der Regel einfach bei den Parametern und der Konfiguration gepennt.

Ich habe auch schon meine Erfahrungen mit Fiber-Optik-Netzwerken gemacht. Gigabit-Ethernet über Fiber-Optik hat nur zwei Vorteile: Es sind deutlich längere Distanzen überbrückbar (wie lang kommt auf die Wellenlänge des Lichts und die verwendete Glasfaser an) und die Latenzen sind besser als über Kupferleitungen. In kleinen Netzwerken fallen die besseren Latenzen nicht ins Gewicht und bei grösseren Kabellängen kann man mit Kupfer sowieso nichts mehr machen.

Bei 10-Gbit-Ethernet sieht es aber anders aus: Über Kupfer gehen nur noch sehr eingeschränkte Kabellängen und man ist mit Fiber-Optik insofern häufig besser bedient. Alle 10-Gbit-Adapter, welche es bisher gibt, sind sündhaft teuer und werden fast ausschliesslich im Server-Umfeld eingesetzt. Wer braucht schon einen theortischen Durchsatz von 1250 MB/s zu Hause? Die Praxiswerte liegen aber wiederum mindestens 10% tiefer. Vermutlich sogar noch viel tiefer, weil es anderswo noch klemmt.
 
  • Gefällt mir
Reaktionen: yahlov und arteaxx
k1337oris schrieb:
Theoretisch entsteht durch teaming eine 2GBit Leitung.
Theoretisch erreicht man so 2 1Gbit-Leitungen. Das ist nur interessant bei 2 oder mehr Threads. zB nen NAS wo mehrere User drauf zu greifen. Da wird die Last dann auf 2 Leitungen verteilt. Du kannst nicht eine Datei mit 2 Gbit/s laden.

terror_gnom schrieb:
Teaming/Trunking/etc ist zwar ne nette Idee, nur wird sie fast nur von Managed Switches unterstützt. Und die sind leider Unbezahlbar.
Naja sie sind teurer als nen unmanaged, aber unbezahlbar ist definitiv übertrieben. Mit 66€ biste schon dabei.

2L84H8 schrieb:
Das macht dann etwas 112.5 MB/s. In der Praxis habe ich schon Werte von 110 MB/s gesehen. Das geht aber nur bei optimierten Netzwerkparametern und guten Switches. Bei mir zu Hause hatte ich schon Werte von mehr als 85 MB/s.
Naja ich erreich hier über 100 MB/s mit Onboard NIC (Realtek, Marvell) und uralten CAT.5 UTP Kabel welches zudem die Biegeradien bei weitem nicht einhält.
 
@Bensen: Deine (guten) Werte liegen schon im Rahmen. Benutze zu Hause auch nur billige Kabel. Die meisten sind Cat. 5e. Ein paar auch Cat. 5. Für Gbit-Ethernet reicht Cat. 5 aber auch. Mehr braucht es nicht. Die 85 MB/s habe ich auch mit recht altem Kram hinbekommen. Hab auch schon länger zu Hause keine Benches mehr gemacht. NAS ist immer noch dasselbe und es ist wohl der Flaschenhals.

Für 110 MB/s muss dann aber schon einiges zusammenpassen.

Staune aber immer wieder in der Praxis bei Firmeninstallationen, wie wenig Durchsatz trotz guten Switches und teuren Kabeln erzielt wird. Dort ist es eben schon häufig eine Frage der Optimierung der Netzwerkparameter. Bin auch nicht gerade ein Fan von Cisco-Hardware. Für's Geld happert es da manchmal erstaunlich stark bei der Performance.

Häufig wird auch der Fehler gemacht, dass Jumbo-Frames an den Switches deaktivert sind, obwohl die Switches es könnten.

Etwas vom Übelsten, was ich andauernd wieder finde, ist ein aktivierter Parameter "Flow-Control" am Switch. Bis auf ein paar klar definierte Spezialfälle (z.B. Bottlenecks bei Backbones) schadet Flow-Control viel mehr als es nützt, da es die bereits im TCP/IP-Protokoll vorhandene Flusskontrolle auf einem tieferen OSI-Layer konkurrenziert. Hab auch schon Tests dazu gemacht. Meistens bricht die Performance mit aktiviertem Flow-Control deutlich ein. Es gibt hier deutliche Unterschiede bei der Switch-Hardware.

http://virtualthreads.blogspot.ch/2006/02/beware-ethernet-flow-control.html
http://en.wikipedia.org/wiki/Ethernet_flow_control
http://blog.ine.com/2008/07/08/802-3x-flow-control/
http://packetpushers.net/flow-control-storm-–-ip-storage-performance-effects/

Realtek an sich ist auch nicht so schlecht. Im Wesentlichen ist nur die CPU-Last etwas höher, weil der Chip weniger selbst macht. Den Durchsatz tangiert das kaum. Schon gar nicht bei den heute üblichen potenten Computern. Früher wäre der Unterschied grösser gewesen. Realtek macht mittlerweile auch bessere Chips. Der alte Realtek 8139 für 100Mbit-Ethernet war eine totale Katastrophe. Diese Zeiten sind längst vorbei.

Die allerschnellste Ethernet-Verbindung erreicht man aber mit einem gekreutzen Kabel zwischen zwei Netzwerkadaptern. Ohne Switch oder Hub dazwischen. Nur macht das halt meistens keinen Sinn. Danach käme ein Switch mit "Fast-Foward", was aber nur sehr teure Switches können. Die meisten Switches arbeiten mit "Store-and-Forward". Hubs sind längst ausgestorben und wären noch lahmer, da nur half-duplex und mit Kollisionen.
 
Stimmt schon, ich wollte nur verdeutlichen, dass man für nen Heimnetzwerk keine teuren Komponenten benötigt. Nicht dass da irgendwer für seine 3 Geräte zu Hause nen Cisco-Switch und irgendwelche teuren Netzwerkkarten kauft. ;)
 
2L84H8 schrieb:
Für 110 MB/s muss dann aber schon einiges zusammenpassen.
Nicht wirklich. Ich hab auch nur olle Netzwerkhardware (Realtek OnBoard Lan und Jahrealten NoName Switch) und Kabel aus der Grabbelkiste. 110MB/s gehen eigentlich dauerhaft durch jedes GBit Netz wenn nicht irgendwas katastrophal schief läuft bzw. die jeweiligen Sender und Empfänger die Datenrate auch bereitstellen können.



Und ich hab nichtmal Jumboframes aktiv.

Ich kann mich bensen bzw. dir hier nur anschließen. Gute Netzwerkperformance erfordert keine mega teure Hardware.

@Topic
Die Realtec NICs unterstützen auch einen Trunking Modus bei dem der Switch nicht IEEE 802.3ad beherrschen muss. Ob das gut funktioniert steht aber in der Sternen. Hab ich noch nicht getestet.
 
Megateure HW ist wirklich nicht erforderlich. Managebare Switches bringen auch nur bei gewissen Optionen Vorteile, wie z.B. Jumbo-Frames. Gerade die Jumbo-Frames bringen nicht immer was. Managebare Switches sind auch nicht mehr besonders teuer. Ich habe drei ältere HP Procurve Swiches. Einen 1800-24G (24-port) und zwei 1800-8G (8-port). Die können auch nur relativ wenige Sachen (z.B. auch keinen Spanning-Tree).

Mit Marvell Yukon Gbit-Enet-Chips war die Performance z.B. mit MTU 6000 am besten. Und nicht mit MTU 9000 wie zu erwarten wäre. Von gewissen Broadcom-Chips weiss ich, dass die bei MTU 1500 (Standard OHNE Jumbo-Frames am besten laufen). Mit Realtek hab ich nie speziell getestet, aber abgesehen vom uralten 100Mbit 8139-Chip hatte ich nie Probleme und die Performance war absolut OK. Nur die CPU-Last ist (vernachlässigbar) höher als bei intel oder Broadcom.

Von Cisco-HW kann ich übrigens nur sagen: Finger weg! Der Cisco-Schrott ist IMHO völlig überbewertet. Läuft zwar schon sehr stabil, aber ist astronomisch teuer und man braucht ein Studium für die Konfiguration von Cisco IOS. Die "kleinen" Geräte von Cisco(-Linksys) meine ich übrigens damit nicht. Die haben auch kein IOS und sind nicht wirklich teuer.

Mit was testet ihr eigentlich Euren Netzwerk-Durchsatz unter Windows? Geht mir auch ein bisschen um die Vergleichbarkeit der Werte.

Ich muss mich mal schlau machen, wie ich unter Linux vernünftige Benches machen kann. Kann ja mal zwischen zwei meiner schnelleren PCs mit Linux Tests machen. Beide haben SSDs. Dann sollte nur noch der Durchsatz im Netz zählen.

Um wieder auf das Thema des Threads zurückzukommen: Dual-Gbit-LAN bzw. Trunking macht meistens ausserhalb von Serveranwendungen keinen Sinn. Ich glaube da herrscht völlige Einigkeit.
 
Zuletzt bearbeitet:
Die gute alte Stoppuhr. :D
(OK war das Handy)

Trunking vielleicht bei nem NAS, wenn wirklich mehrere User ständig drauf zu greifen. Allerdings muss das dann auch schnell genug sein.
 
Zuletzt bearbeitet:
2L84H8 schrieb:
AFS (unter OSX) bietet deutlich bessere Werte als SMB unter Windows. SMB ist sowas von veraltet.
Bevor man solche fragwürdigen Pauschalaussagen loslässt, sollte man vielleicht doch ein wenig besser differenzieren. :rolleyes:

Das SMB 1.0-Protokoll (eingesetzt bis Windows XP und immernoch in den meisten NAS-Systemen) ist in der Tat etwas veraltet und bot gegenüber anderen Protokollen (NFS/AFS) in der Tat nur eine sehr bescheidene Leistung.

Seit SMB 2.0 bzw. 2.1 (aktuell ist 3.0 bei Windows 8/Server 2012) ist das aber deutlich besser geworden.

Zwischen zwei Windows Server 2008 R2 Systemen lief das bei uns auch schon mit >500 MB/s (10 Gbit/s Ethernet). Da waren dann leider die dahinterliegenden Plattensysteme (immerhin je 8x 300 GB SAS im RAID6) der limitierende Faktor. :(
 
Hab mich in der Tat auf die älteren SMB-Versionen bezogen. Ist leider noch recht häufig in Gebrauch. An AFS wurde auch recht häufig rumgefrickelt.
 
Zurück
Oben