News Internetknoten: Datendurchsatz am DE-CIX durchbricht 5 Tbit/s

Online spielen ist absolut keine "datenintensiver Anwendung".
Was da hin und her geschoben wird sind ein paar MB pro Stunde.
 
Ap2000 schrieb:
Online spielen ist absolut keine "datenintensiver Anwendung".
Was da hin und her geschoben wird sind ein paar MB pro Stunde.
Das hängt stark vom Spiel ab. Wenn ich "Warframe" spiele geht das in die X00 MB pro Stunde, in manchen Missionen kann sogar mal bis zu 1 GB in einer Stunde anfallen.
 
Laut dieser Statistik hier sind folgende Dienste, welche am meisten Traffic im privaten Bereich verursachen

1. Internet Videos (Youtube, Netflix)
2. Web / Email
3. File Sharing
4. Gaming
 
Zuletzt bearbeitet:
S.Kara schrieb:
Das hängt stark vom Spiel ab. Wenn ich "Warframe" spiele geht das in die X00 MB pro Stunde, in manchen Missionen kann sogar mal bis zu 1 GB in einer Stunde anfallen.

Das sind maximal 2 MBit/s, und ist kaum mit z.B. Netflix-Streaming in HD zu vergleichen.
 
War nicht kürzlich zu lesen: Zur Primetime (also Abends) werden 70% des Traffics durch Streaming verursacht.
Ergänzung ()

Thaxll'ssillyia schrieb:
Gibt es denn irgendwo im Netz eine Auflistung nach Art des Traffics, die durch den DE-CIX läuft? Müsste man ja anhand des Protokolls (Video, Audio, Websites) filtern können. Auf der Webpräsenz des DE-CIX hab ich nichts gefunden.

Da läuft alles durch sofern die Daten darüber geroutet werden. Wer dort angeschlossen ist, kann man auf deren Webseite sehen:

https://www.de-cix.net/customers-partners/customers/de-cix-frankfurt/

Wichtig ist dann noch welche Art Peering genutzt wird: Selective, Restrictive oder Open. Adhoc ist mir der Unterschied zwischen Selective und Restrictive nicht klar, aber Open ist halt Open - sprich ohne Einschränkung. Restrictive bedeutet, dass der Partner bestimmt was ausgetauscht wird.

Mein Provider hat zB ein Open Peering beim DE-CIX. Und Content Anbieter wie Google (Youtube) und Netflix eben auch. Die Telekom bspw. nicht. Was die Erklärung dafür ist, dass Youtube bei der TCom eher schlecht läuft (Ausnahmen bestätigen die Regel). Eben weil die Daten über andere große Provider geschickt werden, die die gleichen Geschäftsmodelle wie die TCom verfolgen. Leider sind diese Wege für den Kunden nicht immer die besten.

Beispiel:
Wenn ihr also mal wieder Lags bei WoW habt, dann muss das nicht zwingend an Blizzard liegen, sondern höchstwahrscheinlich daran, dass sich die Telekom wieder mit anderen Providern über die Peering Kapazitäten streitet. Blizzard selbst kann da eher als Schlichter auftreten und ist ansonsten relativ machtlos. Daher will Blizzard auch immer die Traceroutes haben um zu sehen wo die Daten lang laufen und wo es hängt. Wohingegen viele kleinere Provider einfach open mit dem DECIX peeren und somit vieles einfach fluppt :) Die Telekom dient hier nur als Beispiel für einen der großen Tier1 Provider.
 
Zuletzt bearbeitet:
Immer wieder amüsant wie stark die Bandbreitendifferenz zwischen verschiedenen Speichermedien bzw. Übertragungsmethoden sind. 5 TBit/s sind 600 GByte/s. Also hat der Knoten insgesamt eine so hohe Bandbreite wie der DRAM einer einzigen Fury X. Aber selbst dieser Wert ist klein, wenn man bedenkt, dass die Registerbandbreiten von modernen GPUs bereits bei 60 TByte/s angekommen sind.
 
Die grossen Deutschen endkunden ISPs wie Telekom Vodafone Unitymedia ( LGI ) peeren teilweise garnicht mehr am DECIX/AMSIX/LINX etc pp oder nur sehr eingeschänkt.

Deswegen fehlt da ne ganze menge an tarffic.

ein offenes Peering findet man eigentlich nurnoch bei kleineren ISP wie Mnet Netcologne etc
 
Zuletzt bearbeitet:
Viele Dinge wie Netflix belasten den DE-CIX nur unwesentlich weil die ISPs Spiegelserver in ihrem eigenen Netz haben wo die beliebtesten Inhalte zwischengelagert werden und hin und wieder mal mit dem originalen Anbieter abgeglichen werden.
Das spart ihnen enorm Last am DE-CIX.
 
Das sind 5 TBit/s an einem IXP. Laufen darüber nicht ohnehin nur Daten, die Weltweit oder zumindest über Ländergrenzen hinweg verteilt werden? Und vor allem auch nur einmalig?

Beispiel:
Wenn jemand in den USA bei Facebook ein Bild hochlädt, wird das Bild über das CDN Akamai auf die 170.000 Akamai-Server weltweit verteilt (entsprechend der Nachfrage natürlich). Das Bild läuft also höchstens eine ein paar Mal überhaupt über den hier genannten IXP, da ja wohl kaum die CDN-Server den Umweg über den IXP machen müssen, wenn man als User dann auf das Bild zugreifen möchte. Die CDN-Server haben ja gerade den Vorteil, nahe am Kunden zu sein. IXPs gibt es ja nicht gerade viele. Das Akamai-Servercluster in Frankfurt (wo ja auch DE-CIX ist) hat bspw. > 6.000 Server mit je 10GBit/s-Anschluss.

Durchsatz ist nicht alles. Natürlich wäre bedingt durch TCP der Durchsatz von den USA nach Deutschland eine Katastrophe (wenn nicht optimiert durch CDNs), aber die Latenz wäre ebenfalls bei über 100 ms.

Youtube, Netflix und Co haben hier auch ihre Server und nicht das zentrale Datencenter in den USA, wie es sich wohl viele denken. Das würde von vorne bis hinten nicht funktionieren, wenn mehr als ein paar tausend Menschen gleichzeitig schauen wollen würden.

Hier noch ein paar Statistiken zu Akamai: 80 TB Traffic / Minute, 2.2 Mrd. Requests / Minute, 15.000 h eingesparte Ladezeit / Minute usw.
http://wwwns.akamai.com/akamai_60_seconds/akamai-sixty-seconds.html

Hier eine Übersicht über die Serverstandorte (à la Google Earth): http://wwwnui.akamai.com/gnet/globe/index.html
 
Zuletzt bearbeitet:
riloka schrieb:
Viele Dinge wie Netflix belasten den DE-CIX nur unwesentlich weil die ISPs Spiegelserver in ihrem eigenen Netz haben wo die beliebtesten Inhalte zwischengelagert werden und hin und wieder mal mit dem originalen Anbieter abgeglichen werden.
Das spart ihnen enorm Last am DE-CIX.

Netflix peert selbst am DE-CIX.
 
yetisports schrieb:
Das sind 5 TBit/s an einem IXP. Laufen darüber nicht ohnehin nur Daten, die Weltweit oder zumindest über Ländergrenzen hinweg verteilt werden? Und vor allem auch nur einmalig?

Beispiel:
Wenn jemand in den USA bei Facebook ein Bild hochlädt, wird das Bild über das CDN Akamai auf die 170.000 Akamai-Server weltweit verteilt (entsprechend der Nachfrage natürlich). Das Bild läuft also höchstens eine ein paar Mal überhaupt über den hier genannten IXP, da ja wohl kaum die CDN-Server den Umweg über den IXP machen müssen, wenn man als User dann auf das Bild zugreifen möchte. Die CDN-Server haben ja gerade den Vorteil, nahe am Kunden zu sein. IXPs gibt es ja nicht gerade viele. Das Akamai-Servercluster in Frankfurt (wo ja auch DE-CIX ist) hat bspw. > 6.000 Server mit je 10GBit/s-Anschluss.

Durchsatz ist nicht alles. Natürlich wäre bedingt durch TCP der Durchsatz von den USA nach Deutschland eine Katastrophe (wenn nicht optimiert durch CDNs), aber die Latenz wäre ebenfalls bei über 100 ms.

Youtube, Netflix und Co haben hier auch ihre Server und nicht das zentrale Datencenter in den USA, wie es sich wohl viele denken. Das würde von vorne bis hinten nicht funktionieren, wenn mehr als ein paar tausend Menschen gleichzeitig schauen wollen würden.

Hier noch ein paar Statistiken zu Akamai: 80 TB Traffic / Minute, 2.2 Mrd. Requests / Minute, 15.000 h eingesparte Ladezeit / Minute usw.
http://wwwns.akamai.com/akamai_60_seconds/akamai-sixty-seconds.html

Hier eine Übersicht über die Serverstandorte (à la Google Earth): http://wwwnui.akamai.com/gnet/globe/index.html

Verteilt dürfte das eher über den eigenen AKAMAI BB gehen.
der zugriff auf das Bild kommt dan auf deinen ISP drauf an wie der verbunden ist mit Akamai.
entweder driekt per PNI
über Transit
oder ebend über einen IX

Wenn du in berlin sitzt musste das bild halt nicht von Frankfurt aus abrufen sondern direkt aus Berlin.
 
GamingWiidesire schrieb:
Kommt mir irgendwie ziemlich niedrig vor.
5 Tbit/s sind ja gerade mal 25000 200 mbit Kunden. Davon wäre ich schon einer. Klar müssten alle diese Kunden ihre Leitung gleichzeitig voll ausreizen, aber trotzdem...
Marcel55 schrieb:
warum es "nur" 5Tbit/s sind was ja letztlich kaum mehr als 200.000 Leitungen mit ~25Mbit/s sind.
...
Die Kabelnetzbetreiber werden ja auch ihren Anteil haben, bieten mittlerweile 200Mbit/s an (bei lächerlichen Upload-Raten), und irgendwer muss dann ja über den DE-CIX gehen.

Ich sag nur Mischkalkulation und Überbuchung.
Es wird damit gerechnet das niemals alle Privatkunden die "bis zu" Geschwindigkeit gleichzeitig ausnutzen.
Können Sie technisch auch gar nicht, dafür sind die Backbone Netze (und teilweise auch die Zugangsnetze wie DOCSIS) nicht ausreichend dimensioniert.
 
Vitec schrieb:
Da wäre ich mir gar nicht so sicher. Ok dauerhaft auslasten werden sicherlich nur ein paar spezielle User hier im CB Forum schaffen, aber 32 mbit halte ich für nen single Haushalt als minimum für einen anstrebenswerten Wert. Für ne Familie würd ich dann schon eher 50mbit sehen, wobei selbst das für nen Freund zu wenig ist . Wenn der WoW zockt und die Frau TV Stream und das NUR 1080p sind die 50mbit schon spürbar für ihn . Wenn man nun noch von UHD/4k ausgeht sind schon eher 100mbit durchaus auch für Normaluser heutzutage auslastbar nur halt nicht dauerhaft.
Wenn du dann noch in dem Haushalt neben der Frau am TV und dir am Pc 2 Kinder hast die reinwollen für Schule oder auch nur "KATZENVIDEOS " biste wohl auch mit den 100 Mbit wenn du Pech hast im Arsch :) .

Also online Gaming hatte ich mal 5 GB in nem Monat also viel ist das auch nicht.Da habe ich kaum im Internet gesurft oder videos gekuckt darum weis ich das der Wert fast rein nur das Gamen war.
Also wenn man nen Patch runterlädt ist das ja oft schon mehr als 5GB :)

Das gilt aber halt nur wenn man einen Gamer im Haushalt hat, für den der Ping wichtig ist. Ansonsten kann man selbst auf einer 6Mbit Leitung bei meinen Eltern problemlos mit Amazon Prime Streamen und nebenher mit mehreren Leuten surfen.
Für Normalverbraucher, die nicht gamen, ist aktuell alles ab 6-8 Mbit noch genug, um ohne lange Wartezeiten Surfen und Streamen zu können. Parallel Streamen dann mit etwas geringerer Qualität, aber selbst das geht noch. 50 oder 100 Mbit sind nice-to-have, aber selbst für eine Familie im Normalfall noch Overkill. Wie oft laufen denn dann wirklich 3-4 Streams parallel? Bei uns vielleicht mal 2, aber oft guckt man ja etwas zusammen, so dass 4 ziemlich unrealistisch sind.
 
yetisports schrieb:
Beispiel:
Wenn jemand in den USA bei Facebook ein Bild hochlädt, wird das Bild über das CDN Akamai auf die 170.000 Akamai-Server weltweit verteilt (entsprechend der Nachfrage natürlich). Das Bild läuft also höchstens eine ein paar Mal überhaupt über den hier genannten IXP, da ja wohl kaum die CDN-Server den Umweg über den IXP machen müssen, wenn man als User dann auf das Bild zugreifen möchte. Die CDN-Server haben ja gerade den Vorteil, nahe am Kunden zu sein. IXPs gibt es ja nicht gerade viele. Das Akamai-Servercluster in Frankfurt (wo ja auch DE-CIX ist) hat bspw. > 6.000 Server mit je 10GBit/s-Anschluss.

Durchsatz ist nicht alles. Natürlich wäre bedingt durch TCP der Durchsatz von den USA nach Deutschland eine Katastrophe (wenn nicht optimiert durch CDNs), aber die Latenz wäre ebenfalls bei über 100 ms.

Youtube, Netflix und Co haben hier auch ihre Server und nicht das zentrale Datencenter in den USA, wie es sich wohl viele denken. Das würde von vorne bis hinten nicht funktionieren, wenn mehr als ein paar tausend Menschen gleichzeitig schauen wollen würden.

Hier noch ein paar Statistiken zu Akamai: 80 TB Traffic / Minute, 2.2 Mrd. Requests / Minute, 15.000 h eingesparte Ladezeit / Minute usw.
http://wwwns.akamai.com/akamai_60_seconds/akamai-sixty-seconds.html

Soll das ein Werbepost von Akamai sein?

yetisports schrieb:
Hier noch ein paar Statistiken zu Akamai: 80 TB Traffic / Minute, 2.2 Mrd. Requests / Minute, 15.000 h eingesparte Ladezeit / Minute usw.
http://wwwns.akamai.com/akamai_60_seconds/akamai-sixty-seconds.html

Oder besser gesagt 9,7 Tbit/s. Noch besser gesagt lachhafte 63,41 Mbit/s pro Server.

yetisports schrieb:
Durchsatz ist nicht alles. Natürlich wäre bedingt durch TCP der Durchsatz von den USA nach Deutschland eine Katastrophe (wenn nicht optimiert durch CDNs), aber die Latenz wäre ebenfalls bei über 100 ms.

Warum, weil nicht durch Akamai optimiert? Also ich kann bequem mit ein paar MB/s von meinem amerikanischen Server hier in Deutschland mit TCP downloaden. Da ist nichts optimiert mit einem CDN.

yetisports schrieb:
Wenn jemand in den USA bei Facebook ein Bild hochlädt, wird das Bild über das CDN Akamai auf die 170.000 Akamai-Server weltweit verteilt (entsprechend der Nachfrage natürlich). Das Bild läuft also höchstens eine ein paar Mal überhaupt über den hier genannten IXP, da ja wohl kaum die CDN-Server den Umweg über den IXP machen müssen, wenn man als User dann auf das Bild zugreifen möchte.

Es läuft so oft über einen PNI, IXP,.. wie oft es von einem Anwender aufgerufen wird, der keine direkt Verbindung zum Akamai AS hat. Das dürfte nicht wenige sein, wenn man sich so die AS Paths anschaut.
 
Zuletzt bearbeitet:
Ja aus USA geht heute ohne weiteres mit mehreren Mbit/s
Hir mal aus USA Washington DC

Code:
--2015-12-10 18:38:26--  http://speedtest.wdc01.softlayer.com/downloads/test1000
.zip
Resolving speedtest.wdc01.softlayer.com (speedtest.wdc01.softlayer.com)... 208.4
3.102.250
Connecting to speedtest.wdc01.softlayer.com (speedtest.wdc01.softlayer.com)|208.
43.102.250|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 1073741824 (1.0G) [application/zip]
Saving to: 'NUL'
NUL                  26%[====>                 ] 269.02M  24.0MB/s   eta 57s   ^
 
Nai schrieb:
Immer wieder amüsant wie stark die Bandbreitendifferenz zwischen verschiedenen Speichermedien bzw. Übertragungsmethoden sind.

Ist ja klar, der Übertragungsweg des Caches sind wenn überhaupt ein paar mm. Hier werden aber auf 10.000km (zwar mit Signalaufbereitung) übertragen. Das große UND ist aber, es ist pro Wellenlänge. Addiert man heute die verfügbaren Techniken mit unterschiedlichen Wellenlängen (http://business.chip.de/news/73-7-Terabit_s-Neue-Glasfaser-bricht-alle-Rekorde_61258309.html), kann eine Faser mehrere TB/s pro Sekunde auf die Entfernung übertragen. Da sieht dann der HBM wieder alt aus und kommt in die nähe der Cache-Bandbreite. So einen großen Unterschied gibt es da nicht.

Aber das braucht man maximal für die Verwendung in Transatlantikkabel oder weite DWDM Strecken auf Land wo es nur wenige Fasern gibt und die Bandbreite aggregiert wird. Der ISP am IXP braucht das nicht, weil er weit weniger Daten überträgt. Wann sollte er denn dann so etwas bauen?

Aber es hakt eher an der Halbleitertechnik der ASICs für Switching-Routing-Komponenten. Denn die kommen grad auf 100G pro Port für exorbitant Kosten. An einen 1T Chip ist aktuell noch gar nicht zu denken, die Kosten für einen 10G ASIC ist ja immer noch zu teuer für Consumer.
 
Zuletzt bearbeitet:
strex schrieb:
Ist ja klar, der Übertragungsweg des Caches sind wenn überhaupt ein paar mm. Hier werden aber auf 10.000km (zwar mit Signalaufbereitung) übertragen. Das große UND ist aber, es ist pro Wellenlänge. Addiert man heute die verfügbaren Techniken mit unterschiedlichen Wellenlängen (http://business.chip.de/news/73-7-Terabit_s-Neue-Glasfaser-bricht-alle-Rekorde_61258309.html), kann eine Faser mehrere TB/s pro Sekunde auf die Entfernung übertragen.

Von Wellenlängen erzählt der Artikel nichts. Statt in Glas wird das Signal halt in Luft geleitet und entgeht so der brechungsindexbedingten Reduktion der Lichtgeschwindigkeit. Dazu kann man dann noch mehrere Wellenlängen packen (und hat in Luft noch den großen Vorteil, dass in Luft im interessanten Frequenzbereich deutlich größere Bereiche mit geringer Absorption sind als in Glas), dann noch so Späße wie Multimode etc., da kann man dann sicher noch einiges rausholen in Zukunft.
 
DonConto schrieb:
Netflix peert selbst am DE-CIX.

Wenn du aber einen Spiegelserver hast, brauchst du nur 1mal Daten austauschen und hälst mehr Last im eigenen Netz die du dann eben nicht austauschen musst.
 
Autokiller677 schrieb:
Von Wellenlängen erzählt der Artikel nichts. Statt in Glas wird das Signal halt in Luft geleitet und entgeht so der brechungsindexbedingten Reduktion der Lichtgeschwindigkeit.

Schlussendlich werden alle diese Technologien für die Glasfaser adaptiert. Denn Glasfaser ist das Medium für Weitverkehrsnetze. Da ist man in der Forschung schon bei 255 Tbit/s pro Faser und mit mehreren Wellenlängen: http://www.heise.de/netze/meldung/Forscher-uebertragen-255-TBit-s-per-Glasfaser-2437475.html Deshalb spielt man schon lange mit dem Gedanken auch in Halbleiter auf Lichtverbindungen zu setzen statt auf Kupfer und co.

Einzig besteht das Problem die Menge auch an das Kabel ran zu bringen. Equipment etwa von Sonera scheitert an der Menge der 100G Ports die durch die ASICs nur bgrenzt zur Verfügung stehen. Bevor die Kapazität des Kabels (mit zig Wellenlängen) erreicht ist, hat es schon keine 100G Ports mehr. Die 100G Ports kann man oft an der Hand abzählen die zur Verfügung stehen. Wird also Zeit für breite Verfügbarkeit von 400G und 1T, bloß dass für 1T noch einige Zeit brauchen wird.
 
Zuletzt bearbeitet:
Zurück
Oben