Warum ist der Nutzdatenanteil im WAN kleiner als in LAN-Netzen?

DannyNRW

Cadet 2nd Year
Registriert
Apr. 2016
Beiträge
20
Hallo zusammen,

mich beschäftigt gerade die im Betreff gestellte Frage. Kann mir jemand eine plausible Erklärung geben, warum das so ist? Meiner Meinung nach hängt dies mit der Datenübertragungsrate zusammen, die in LANs ja doch deutlich höher ist. Zudem habe ich was von MTUs (maximum transmission unit) gelesen. Eine hundertprozentig plausbible Erklärung fehlt mir jedoch noch. Wer kann da helfen?

Danke schon mal
DannyNRW
 
Kann es sein das du keine Ahnung hast was WAN ist ?
Denn die Frage ergibt nicht wirklich Sinn es sein denn du erläuterst genauer was der Sinn der Frage sein soll.
 
  • Gefällt mir
Reaktionen: Asghan
Was? Ich verstehe die Frage nicht... Du kennst den unterschied zwischen WAN und LAN? Und was ist ein "Nutzdatenanteil"? Und was hat bitte die MTU damit zu tun?
Evtl. solltest du erst einmal anfangen 100% plausible Fragen zu stellen. Sieht für mich eher nach einem buntem Mix aus IT Begriffen aus, die du mal irgendwo aufgeschnappt hast.
 
  • Gefällt mir
Reaktionen: Asghan
Es kommt vor, dass in bestimmten Netzen die MTU kleiner ist als diejenige, die man im eigenen Netz hat.
Wenn ein Paket in ein Netz soll, das nur eine kleinere MTU unterstützt, müssen Pakete, die die MTU des eigenen Netzes ausnutzen in zwei Pakete aufgeteilt werden.
Da jedes Paket Overhead hat, hat man danach den doppelten Overhead, da die gleichen Infos über zwei Pakete verschickt werden.
 
  • Gefällt mir
Reaktionen: Asghan
Meinst du vielleicht LAN und WLAN?!
 
Geht die Frage in Richtung Weitverkehrstechnik wie DWDM und ATM, oder fehlt einfach nur das L in WAN?
 
Die korrekte Antwort auf deine Frage ist:
Der Nutzdatenanteil ist nicht zwangsläufig in einem LAN höher als in einem WAN.
Das ist Technologie- und Protokollabhängig.

Bitte Frage konkretisieren.
 
@wirelessy Würde ich so nicht unterschreiben wollen.. Wenn du einen Konzern hast, der 400 Standorte in der ganzen Welt hat die alle via MPLS angebunden sind, hast du wesentlich höheren Nutzdatenanteil im WAN als im LAN.
 
@Muffknutscher: Was natürlich nur gilt, wenn du das komplette IP Paket inklusive Overhead für das MPLS geroutete Netz als Nutzdaten definierst. Der tatsächliche Anteil an Nutzdaten des Anwenders (sagen wir mal so) ist geringer, da die IP-Informationen ja mit übertragen werden müssen und das zusätzliche Label hinzukommt.
 
Muffknutscher schrieb:
@wirelessy Würde ich so nicht unterschreiben wollen.. Wenn du einen Konzern hast, der 400 Standorte in der ganzen Welt hat die alle via MPLS angebunden sind, hast du wesentlich höheren Nutzdatenanteil im WAN als im LAN.
Nein. Bei MPLS kommt ja im WAN noch der MPLS-Overhead dazu, so das der Payloadanteil prozentual geringer ist.
Ergänzung ()

Muffknutscher schrieb:
Und was ist ein "Nutzdatenanteil"?
Der Anteil der Nutzdaten (Payload) im IP-Paket. Im Gegensatz zu den Kopfdaten (Header) des IP-Pakets.
 
Der Nutzdatenanteil hängt vom verwendeten Datentransferprotokoll ab, definitiv nicht von der Datenübertragungsrate. Ein "Anteil" ist ein prozentualer Wert, 85% sind 85%, egal ob du von 20MB oder 2000MB ausgehst.

Du müsstest also das verwendet WAN spezifizieren, dann kannst du den Overhead bei der Paket-Vermittlung der L2- und L3-Protokolle ermitteln und anschließend mit deinen verwendeten LAN-Protokollen vergleichen. Auf Layer 3 kommt vermutlich in beiden Fällen IP zum Einsatz, sonst wäre das kaum vergleichbar, also kannst du dich ganz auf die L2-Protokolle stürzen.

Falls du etwas anderes meinst: Bitte Frage entsprechend formulieren.
 
wirelessy schrieb:
Die korrekte Antwort auf deine Frage ist:
Der Nutzdatenanteil ist nicht zwangsläufig in einem LAN höher als in einem WAN.
Das ist Technologie- und Protokollabhängig.

Bitte Frage konkretisieren.

Bei der Frage handelt es sich um eine Übungsfrage für eine anstehende Klausur und natürlich ist hier das WAN gemeint und NICHT das WLAN.
Die Daten werden ja sowohl via LAN als auch im WAN in Form von Frames übertragen, d.h. Header plus Nutzdatenanteil. Die Frage stellt die Behauptung auf, warum in einem WAN der Nutzdatenanteil pro Frame niedriger ist als in einem WAN (Weitverkehrsnetz).
 
So wie ich das sehe, hängt also die MTU-Size vom Provider ab, richtig?
Ich habe das mal mit folgendem Befehl ausprobiert:
ping google.de -f -l 1464
Dies war auch der höchste Wert, welcher bei mir nicht fragmentiert werden musste.
1464 Byte + 20Byte TCP-Header + 20 Byte IP-Header + einige Bytes von anderen Headern wären also für meinen Fall ca. 1504 Bytes als MTU.
Laut Elektronik-Kompendium.de liegt der Wert für's Ethernet bei ca. 1500 Bytes.
Um auf die Frage zurückzukommen. Es ist also sehr wahrscheinlich, dass an irgendeiner Stelle des WANs eine niedrigere MTU unterstützt wird und somit die Pakete fragmentiert werden müssen, was wiederrum einen geringeren Nutzanteil der Daten nach sich zieht. Richtig?
 
Vergleiche 2 Frames und schon hast du die Antwort. Die Frage ist extrem suggestiv. Laut Fragestellung ist der Nutzdatenanteil in einem WAN per se niedriger als in einem LAN. Dabei wird überhaupt nicht in Betracht gezogen, dass diese Aussage bereits falsch sein könnte. Denn ob du eine beliebige Menge an Nutzdaten in einem Ethernet-Frame über WAN oder über LAN verschickst, ist irrelevant. Das Frame enthält dieselbe Menge an Nutzdaten für beide Topologien. Deine Annahme ist also falsch, Ethernet-Frame = Ethernet-Frame unabhängig vom Provider und hängt einzig und allein an der Frame-Spezifikation.

Was aber tatsächlich der Wahrheit entspricht: Je größer die Erwartung einer Signalstörung, umso aufwendiger das Netzsicherungsprotokoll. Gemessen an dem Ethernet-Frame mag der Nutzdatenanteil gleich sein, gemessen an der Bruttodatenrate des Übertragungsmediums kann das dann schon variieren.

Beispiel mit FIKTIVEN Zahlen:
Drei identische Fernmeldechips können über einen homogenen Draht 200 Signale pro Sekunde verteilen. Dabei verschwinden wegen der Homogenität alle 20 Meter ein Signal.

Möchten wir jetzt 3 Endpunkte über eine Strecke von 10 Metern verbinden, können wir das so machen: Unser fiktives Protokoll hat als Overhead: Den Empfänger (2 bit), den Sender (2 bit), eine Parität, ob das Signal gekippt ist (1bit). Jedes Frame lassen wir 50bit lang sein - 45bit Nutzdaten, bzw. 90% Nutzdaten. In diese 45bit kann dann z.B. ein Ethernet-Frame.

Wollen wir mit denselben Fernmeldechips jetzt eine Strecke von 90 Metern überbrücken, haben wir wegen der Leitungsstörung ein Problem - wir müssen hier mit 5 Fehlern des Signals rechnen, ein Paritätenbit reicht also nicht. Wir nehmen hier also 5 intelligent verteilte paritätenbits an, um ein paket als fehlerhaft erkennen zu können. In unserem Header stecken jetzt der Empfänger (2bit), der Sender (2bit), und die Korrektur (5bit). Beschränken wir jetzt das Frame wieder auf 50bit, dann haben wir nur noch 41bit, bzw. 82% Nutzdaten. Wir können jetzt sagen, unser Frame wird auf 54bit aufgebläht, damit wir wieder 45bit Nutzdaten haben, dann steigt der Nutzdatenanteil leicht auf 83% - bleibt aber hinter der Variante mit nur einem bit hinterher.

Worauf ich hinaus will: Zwei Frames aus dem gleichen Protokoll haben auch den gleichen Nutzdatenanteil. Der Nutzdatenanteil berechnet sich niemals ohne Bezug. Nimmst du ein Ethernet-Frame als Bezug, ist der Nutzdatenanteil immer höchstens 1500 Bytes von 1538 Frame-Bytes, egal ob LAN oder WAN. Und damit für beide Varianten exakt gleich. Nimmst du aber die Symbolrate der L1-Schicht als Basis, dann wirst du sehr schnell sehr große Unterschiede feststellen was die Nutzdaten eines Ethernet-Frames gemessen an den verwendeten L1-Symbolen beträgt. Die Frage ist also nicht ganz so leicht zu beantworten - der Bezug muss klargemacht werden.
 
DannyNRW schrieb:
Es ist also sehr wahrscheinlich, dass an irgendeiner Stelle des WANs eine niedrigere MTU unterstützt wird und somit die Pakete fragmentiert werden müssen, was wiederrum einen geringeren Nutzanteil der Daten nach sich zieht. Richtig?
Ja, i.d.R. direkt schon beim Internetanschluss.

Wikipedia hat direkt für Ethernet eine Beispielrechnung: https://de.wikipedia.org/wiki/Maximum_Transmission_Unit
 
@SoDaTierchen : Danke Dir, Deine Argumentation leuchtet durchaus ein. Allerdings scheint es ja so zu sein, dass irgendwer die maximalen Paketgrößen festlegt. Oder?
Ergänzung ()

new Account() schrieb:
Ja, i.d.R. direkt schon beim Internetanschluss.

Wikipedia hat direkt für Ethernet eine Beispielrechnung: https://de.wikipedia.org/wiki/Maximum_Transmission_Unit
So ein ähnliches Beispiel hatte ich auch bei Elektronik-Kompendium gefunden.
 
DannyNRW schrieb:
Ich habe das mal mit folgendem Befehl ausprobiert:
ping google.de -f -l 1464
Dies war auch der höchste Wert, welcher bei mir nicht fragmentiert werden musste.
1464 Byte + 20Byte TCP-Header + 20 Byte IP-Header + einige Bytes von anderen Headern wären also für meinen Fall ca. 1504 Bytes als MTU.
Laut Elektronik-Kompendium.de liegt der Wert für's Ethernet bei ca. 1500 Bytes.

Stimmt so nicht. Da rechnet man 28 bytes hinzu, 8 für icmp und 20 für IP, wären dann 1492 als MTU, da 8 byte wohl noch für PPPoE drauf gehen. Also über Kabel müsste man dann zb auf 1472 kommen, da PPPoE weg fällt. Teste ich gleich wenn ich zu hause bin

EDIT: Gerade mal getestet. Ich kann bis 1472 gehen, da eben Kabel kein PPPoE nutzt. Daher wären das dann 1472+28 = 1500

DannyNRW schrieb:
Die Frage stellt die Behauptung auf, warum in einem WAN der Nutzdatenanteil pro Frame niedriger ist als in einem WAN (Weitverkehrsnetz).

meinst dann wohl eher
in einem WAN (Weitverkehrsnetz) der Nutzdatenanteil pro Frame niedriger ist als in einem LAN
 
Zuletzt bearbeitet:
Die maximalen Paketgrößen sind ein Standard, der in der IEEE 802.3 definiert ist. Entweder, daran halten sich alle Geräte, oder die Geräte können nicht mit anderen Geräten kommunizieren. Ja, das Maximum ist festgelegt. Aber es wird nicht "live" festgelegt, sondern wurde es einmal. Ich habe zwar kein Datum für dich, würde es aber auf ungefähr 1980 schätzen.

Die Jumbo-Frames sind inoffizielle Erweiterungen und müssen nicht zwingend funktionieren. Aber auch diese sind unabhängig davon, ob LAN oder WAN zum Einsatz kommt.
 
Zurück
Oben