News Rekord: Daten mit 10 Tbit/s über 640 km verschickt

Puh, das ist echt eine Hausnummer. Das entspricht ziemlich genau 1,4 Terabyte/sec, wenn ich mich nicht verrechnet habe. Da wird also in einer Sekunde der Inhalt von fast anderthalb Terabyte Festplatten über die Leitung geschubst. Beeindruckend.
 
superkaiser5 schrieb:
Mit welchem Computer hat man das gemacht? 10TBit..da haben die bestimmt irend etwas selber gebastelt. :D

Ich denke nicht dass da ein Standard-Computer beteiligt war. Auch keine Serverfarm. Das wird ein Testaufbau mit Testsequenz-Generatoren gewesen sein, also auf relativ niedriger Ebene was Kommunikationsprotokolle angeht. Falls es anders ist, wäre das natürlich auch interessant aber es scheint im Netz außer der Pressemitteilung keine Infos über diesen Rekordversuch zu geben.
 
Atkatla schrieb:
...

Hier wurde irgendwo nach der Testmethode gefragt: natürlich nimmt man da keine Server dafür. Eine übliche Methode ist es, einen (oder mehrere) Signalgeneratoren an das eine Ende zu stellen und ein Messgerät in das andere Ende und definierte Signale/Protokolle zu senden, die das Messgerät am anderen Ende überprüfen kann. Das schliesst natürlich nicht aus, dass die Chinesen auch eine andere Methode verwendet haben könnten.

Jo, ich war das. Ich danke dir!

Das von dir beschriebene leuchtet noch mehr ein. Klar, können die das auch anders gemacht haben. Wir wissens ja nicht. Nur, mit den Signalgeneratoren und dem Messgerät, leuchtets am meisten ein und wäre wohl am einfachsten zu lösen... :)
 
Atkatla schrieb:
Eine übliche Methode ist es, einen (oder mehrere) Signalgeneratoren an das eine Ende zu stellen und ein Messgerät in das andere Ende und definierte Signale/Protokolle zu senden, die das Messgerät am anderen Ende überprüfen kann.

Kann sein, dass es so einfach ist. Aber damit die Ergebnisse des Aufbaus irgendwie für Praxisanwendungen aussagekräftig sind (was sie nicht sein müssen), darf er eigentlich nicht total vereinfacht sein.

Was du meinst, ist im Grunde vorne ein paar Laser und hinten ein paar optische Sensoren, also nur Physical Layer. Wenn der Aufbau tatsächlich so war, dann ist das Ergebnis nur ein sehr theoretisches, da ja nichtmal optisch-elektrisch umgewandelt werden muss, geschweige denn Übergabe an Link Layer oder darüber. Allein für das OFDM muss ja eigentlich schon ein bisschen was gerechnet werden.

Wer weiß, wie sich dann tatsächliche ATM-/SDH-/Sonstwas-Verbindungen oder gar TCP-Sessions darauf verhalten hinsichtlich der Datenrate.
 
alle die unter 100kb/s laden sind mal richtig arm dran....
aber wie schon viele vor mir sagten, wäre es mal sinnvoll die server entsprechend auszubauen, was bringt dir ne fette leitung wenn die server von denen du die daten beziehst nichts Taugen...
Aber das schlimmste ist, selbst mit einer 50.000er leitung, gehts einem nach einer gewissen zeit auch schon zu langsam, ich weiß alle leute die viel weniger haben werden mich jetzt hassen, aber ist wirklich so, genauso mit einem großen fernseh, erst denk man. boar ist des teil groß, dann hast den 1jahr und denkst ich brauch nen größeren hhiiihi ^^
 
davediehose schrieb:
Kann sein, dass es so einfach ist. Aber damit die Ergebnisse des Aufbaus irgendwie für Praxisanwendungen aussagekräftig sind (was sie nicht sein müssen), darf er eigentlich nicht total vereinfacht sein.

Was du meinst, ist im Grunde vorne ein paar Laser und hinten ein paar optische Sensoren, also nur Physical Layer. Wenn der Aufbau tatsächlich so war, dann ist das Ergebnis nur ein sehr theoretisches, da ja nichtmal optisch-elektrisch umgewandelt werden muss, geschweige denn Übergabe an Link Layer oder darüber. Allein für das OFDM muss ja eigentlich schon ein bisschen was gerechnet werden.

Wer weiß, wie sich dann tatsächliche ATM-/SDH-/Sonstwas-Verbindungen oder gar TCP-Sessions darauf verhalten hinsichtlich der Datenrate.
Ich schrieb von definierten Signalen/Protokollen und nicht von einfachen Sinusschwingungen o.ä.

z.B.: http://www.smartechconsulting.com/SMB-6000C-Spirent-Smartbits-SMB6000C-12-Slot-Desktop-Chassis

Die Teile messen eben über GE/POS/FC-Ports, also das was hinten raus kommt, egal ob du nun Multiplexer davor hast oder nicht.
 
10 Tbit... Ich denke eben ca. 4 Jahre zurück. Da war im normalen Gebrauch keineswegs an TB zu denken bzw. die Gerüchte kochten das ca. ein Jahr später die ersten TB-Platten erscheinen würden. Jetzt werden diese Massen in 1sec durch die Gegend geschupst...
 
Dir ist schon klar, dass es hier um ein vollkommen anderes Thema als Festplatten geht ? :freak:
 
Da wäre meine Festplatte in 0,8 Sekunden voll...

Vorausgesetzt meine Kiste geht nicht vorher in die Luft. ^^

Das wird sicherlich über kurz oder lang ein Standard im Übertragungsnetz werden.

Für Privatleute völlig sinnlos.

Evtl für Firmen die Cloudcomputing betreiben möchten interessant.
 
oykoi schrieb:
Zitat: "Krasses Pferd!"

Mich würde mal interessieren, "was" die da verschickt haben. Ich meine, die werden doch keine dementsprechend schnellen Server haben oder (Quelle mit 10Tbs lesen und auf dem Ziel muss ja genauso schnell geschrieben werden). Selbst RAM- bzw. Cachespeicher schafft sowas meiner Meinung nach nicht.


...man nehme einen Server / Serverfarm anstatt einen PC und man erreicht locker das Millionenfache an Datendurchsatz im vergleich zu nem PC ^^ man war bisher nur auf sehr kurze entfernungen gebunden, das wird ja nun durch diese neue Technologie behoben.

und 1,3 TByte / sekunde ist selbst für kleine Server nen Pipifax, aber da sind auch Schränke voller Festplatten-racks drin :)
Ergänzung ()

DirtyOne schrieb:
Für Privatleute völlig sinnlos.

... Im Moment NOCH sinnlos, in 10 Jahren sieht das ganz anders aus. da gibts dann nicht mehr VDSL 50 sondern VDSL 5000 :) Ist dann aber auch nötig für UHD-TV über IP....

Und dann iwann kommen endlich die Quantenrechner, die stellen alles dargewesene in den Schatten. Da reichen solche Glasfaserkabel dann nicht mehr aus :)
 
Dass die Datenraten im Netz beliebig lang weiter exponentiell steigen können, sehe ich eigentlich nicht so. Aus hauptsächlich zwei technischen Gründen:

1) Die spektrale Effizienz lässt sich nicht beliebig erhöhen (Theoreme von Shannon und Nyquist).

Man hat mit "Tricks" wie OFDM (für mich ein Wunder, dass das überhaupt hinhaut) und extrem feinen, aber dafür anfälligen Modulationsverfahren bisher ne ganze Menge rausholen können, aber an der Front sind meiner Einsicht nach nicht mehr besonders viele Dinge in der Pipeline. Vielleicht denken sich ein paar Physiker mal wieder etwas neues aus, aber ich nehme an die Schritte werden zunehmend kleiner werden.

2) Die "Memory Wall" greift auch im Netzwerkbereich, also die ansteigende Verzögerung von schnellen Rechen- und Transfer- durch langsame Speicheroperationen.

Switche und Router haben allmählich Probleme, schnell genug in ihren Routingtabellen nachzusehen, wohin ankommende Pakete überhaupt sollen. Man kann das Ganze in irgendwelche schnellen und teuren SRAMs legen, aber das wars dann im Grunde.
 
Zurück
Oben