DE-CIX knackt 7TBit

Wenn man sich den 5Y Graph anschaut, sieht man das 2015 der Wert bei etwa 3Tbit lag. Jetzt den Traffic einfach mal mehr als verdoppelt :D
 
Liegt wie jedes Jahr am iOS release
 
  • Gefällt mir
Reaktionen: Mahagonii
Brechend: Rekord wieder geknackt - 7185,62 Gbit, vor wenigen Minuten. Diesmal ist wohl iOS 13.1 Schuld :D
 
  • Gefällt mir
Reaktionen: Fujiyama und Mahagonii
nytm4r4 schrieb:
Vielleicht geht noch mehr - ne der DE-CIX hat Kapazitäten von sage und schreibe 45 Tbit, lag wohl an den Apple Servern das die anfangs lahm waren.

denk ich mir auch ^^
Erst Downloadzeit 15h , habs Iphone dann neu gestartet dann 20 Min und es war da. Jetz gehts wieder runter beim DE-CIX
 
Ist immernoch langsam, es liegen bei mir 100 Mbit Leistungskapazität an trotzdem lade ich nur mit ~ 8 Mbit herunter. Daher muss ich wohl noch 40 Min warten
 
mensch183 schrieb:
Es ist ein Armutszeugnis dafür, dass wir (abseits lokaler Netze) noch immer kein multicast routing hinbekommen haben. :(
Das ist nicht so einfach, wie es sich anhört.
Dazu müssten mehrere Benutzer fast zeitgleich einen Download starten, zusätzlich müssten die in der exakt gleichen Geschwindigkeit laden.
Ganz zu schweigen davon, dass es mit TCP nahezu unmöglich ist.
 
  • Gefällt mir
Reaktionen: JPsy
@brainDotExe An den von dir genannten Details scheitert es nicht, wenn man identische Daten an Millionen verteilen will:

Zeitgleich Downloads starten? Unnötig! Man spielt in der heißen Update-Phase das Update immer wieder "im Kreis" aus. Die Empfänger klinken sich zu beliebigem Zeitpunkt ein, empfangen bis zum Ende des Files und danach den noch fehlenden Anfang bis sie alles haben.

Exakt gleiche Geschwindigkeit? Kein Problem. Du bietest dein "File" in paar verschiedenen Geschwindigkeiten an. Mit z.B. 5 Streams mit verschiedenen Geschwindigkeiten wird jeder Empfänger eine für seine Netzanbindung halbwegs angemessene Variante finden. Genau wie beim Video-Streaming, wo man auf einen low-quali-Stream wechselt, wenn das Netz lahm ist.

Kein TCP? Richtig, aber unnötig. Per UDP+Multicast wird die große Masse effektiv verteilt. Dabei entstehende, kleine Lücken durch verlorene Pakete werden nachträglich "manuell sonderbehandelt", also nicht automatisiert auf Netzwerkebene .

Die Datenverteilung via Multicast scheitert nicht an schlau gebauten Anwendungen sondern am Netz. Es gibt zwar viele Wolken, die intern Multicast verteilen, ein globales Routing findet aber nicht statt. Für die klassische Multicast-Semantik (mehrere Sender pro Gruppe) ist das Thema zwar lange tot, aber für das relevante, deutlich leichter zu händelnde SSM gibts Chancen, dass mehr Wolken miteinander reden und mehr Endnutzer erreichbar sind. Leider gibts auch wirtschaftliche Interessen dagegen. Wer will scho (als Provider), dass FranzFremdling "meine" Kunden in "meinem" Netz sehr effektiv mit seinem Content füttern kann ...
 
@mensch183 für die "manuelle Sonderbehandlung" braucht es dann aber Anpassungen auf Anwendungsebene.
Klar technisch ggf. möglich, aber nur mit nicht zu vernachlässigbarem Mehraufwand.

Es ist eigentlich nur im Interesse der Content Anbieter, da diese dann ggf. weniger beim Datentransfer bezahlen müssen.
Die Provider werden es nicht begrüßen, da in der Regel für eingehenden Traffic gezahlt wird.

Ein gutes CDN, ggf. mit Instanzen in den Netzen der großen Provider sollte auch performat arbeiten.

Es stellt sich eher die Frage ob es den Aufwand wert ist. Im Backbone gibt es eher selten Engpässe.

Ich sehe UDP Multicast eher da, wo es heute auch eingesetzt wird, bei Übertragung von "Rundfunk" also Radio und IPTV.
 
Zurück
Oben