10Gbit Client/Server SQL?

Sebbl2k

Lt. Commander
Registriert
Apr. 2010
Beiträge
1.230
Hallo,

ich habe eine Client/Server-Umgebung angebunden über CAT6 1Gbit, aktive SFP+-Kupfer-Verbindung zum Switch vom SQL-Server.

Eigentlich soll das Konstrukt künftig die Sicherung und Softwareverteilung verschnellern.. aber merkt man an Clients, im Normalfall, was davon? Bei meinetwegen 10-30 Clients die ständig Abfragen losschicken?

1Gbit am Server sollte - von der Bandbreite - locker reichen. Aber gibt es eventuell noch andere Vorteile?
 
Sebbl2k schrieb:
1Gbit am Server sollte - von der Bandbreite - locker reichen.

Verstehe die Frage glaube falsch... aber klingt so als willst du die Clients mit 10GbE anbinden aber den Server nicht? Was soll dann der Vorteil sein? Gibt es sonst sehr starken Traffic zwischen den Clients oder anderen Servern?

Ansonsten hast du dir die Frage doch schon selbst beantwortet.
Anbindung von Clients mit 10GbE ist schon sehr exotisch da es sich bei 99,9% der Workstations nicht lohnt.
 
Ich bin auch etwas am Raten was genau die Frage ist.
Aber zum Thema reicht 1 GBit am Server?
Das lässt sich doch messen (perfmon) dann hast du vielleicht eine bessere Grundlage für deine Entscheidung
 
Der Eingangspost spricht nirgendwo von 10G, scheint wie ein Tippfehler :D. Du wirst den Server wenn ichs richtig verstehe aber mit 10G an den Switch gebunden haben und die Clients haben dann ihre 1Gbit Verbindung.

Jedenfalls profitieren in der Regel die anfragenden Clients (seien es Workstations oder Terminal Server) immer noch mehr von geringer Latenz als von Bandbreite.

Bei uns zumindest bekomme ich in unseren Workloads den Gbit auch bei mehr als 60 gleichzeitigen Clients über den Terminal Server nicht ausgelastet. Das ist aber wie Glaskugel lesen, denn wie viel Bandbreite da wirklich durchgeht ist so derart individuell dass man da mit einem Test wohl eher aussagen treffen könnte.

Wenn ich hingegen mit Docusnap eine Vollinventarisierung starte komme ich immerhin mal so auf eine Auslastung von 200-250Mbit/s aber das ist eben nicht der normale Workload der User.

Wenn du einen SQL Server also so richtig Netzwerkseitig auslasten willst könnte es auch vorher schon passieren, das die CPU oder HDD/SSD Latenz den Flaschenhals bildet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: max0x
geht eigentlich mehr um die frage: kann der server mit 10gbit die Anfragen schneller abarbeiten?
Ist Gbit bei vielen Anfragen eventuell ein Flaschenhals, obwohl es alles kein "breiter" Traffic ist?

Latenz.. ja, da wäre wohl Glasfaser wieder besser..
 
Nein kann er nicht.
Er kann die Ergebnisse nur schneller an die Clients verteilen falls Bandbreite ein Problem ist.
Vermutlich nicht aber deswegen mal messen.
Bei SQL ist vermutlich eher RAM, Storage, CPU relevant bevor das Netzwerk relevant wird - aber wie immer kommt drauf an :)
 
Auf dem Papier ist die Latenz von 10GbE besser als 1GbE... aber da reden wir vom ns Bereich.
Das macht also bei allem wo danach z.B. Storage mit zu tun hat absolut keinen Unterschied mehr solange die Bandbreite reicht.

Ob Glaß oder Kupfer spielt da erstmal keine große Role, Licht ist nicht schneller als Elektronen, auch wenn mich Physiker für die Antwort jetzt vermutlich verteufeln. :D
 
Der Server selbst kann eigentlich in der Verarbeitung gar nichts schneller. Wie schon erwähnt könnte er lediglich viel mehr Ergebnisse gleichzeitig "ausliefern". Um aber Ergebnisse ausliefern zu können muss er die Abfragen und Ergebnisse erst einmal zustande bekommen und da wirds schon vorher sehr leistungshungrig (und damit sowohl in Hardware als im Zweifel auch Lizenzen schon ziemlich teuer) ;).

@eRacoon
Ist zwar physikalisch richtig mit dem Licht aber dafür gehen bei der Rückwandlung zu elektrischen Signalen auch wieder minimale Verluste einher, es gleicht sich am Ende eigentlich aus :D. Jedenfalls sollte dem so sein wenn wir nicht über Kilometer lange Kabelstrecken sprechen sondern ein paar Meter.
 
ok.. dann hatte ich das falsch gelesen bezgl. Glasfaser.
Keine Ahnung wie der SQL sich verwaltet.. aber er schnappt sich auch seine 100GB RAM, relativ viel Controller-Cache ist vorhanden, SSD's, Dualsockel mit relativ schnellen CPU's.. ich hatte gehofft, dass die Clients/WTS davon auch noch profitieren.
 
Das ist doch nur Gerate :) Warum nicht auf den Server verbinden oder im Monitoring nachsehen und gucken ob und was limitiert ?
 
  • Gefällt mir
Reaktionen: Skysnake
holdes schrieb:
Ist zwar physikalisch richtig mit dem Licht aber
Klugscheißer Modus :
Nein Elektronen besitzen Masse und können niemals Lichtgeschwindigkeit erreichen 🙂
Sind zwar auch schnell unterwegs aber Licht ist schneller.

Weil wir umgangssprachlich oft von Netzwerk Geschwindigkeit statt Bandbreite reden kommt es leicht zu Missverständnissen.
Bei 10 GBit wird 1 byte auch nicht schneller an als mit 1 GBit übertragen.
Es werden können aber 10 mal mehr Bits in einer Sekunde übertragen werden
 
Sebbl2k schrieb:
geht eigentlich mehr um die frage: kann der server mit 10gbit die Anfragen schneller abarbeiten?
Ist Gbit bei vielen Anfragen eventuell ein Flaschenhals, obwohl es alles kein "breiter" Traffic ist
Jaein,

Wenn die Anfragen traffic generieren, kann das durchaus sein. Ebenso kann offloading etwas Performance bringen. Allerdings ist das meist eher messbar denn spürbar. Da würde ein Umstieg auf IB eher mehr bringen, wenn es denn überhaupt etwas bringt.

Was aber immer passieren kann ist, das man mikro bursts hat. Sprich es gibt nicht sehr viele Anfragen, dann aber alle quasi zeitgleich. Da kann man das Netz schon kurzzeitig massiv überlasten. Aber bei so wenigen Clients spielt das eher keine Rolle. Da reden wir dann eher von Hunderten bis Tausenden.

Sebbl2k schrieb:
Latenz.. ja, da wäre wohl Glasfaser wieder besser..
Eher nicht DAC Kabel haben meist eine niedrigere Latenz. Wenn's dich interessiert, dann gibt es bei IB normal Listen so steht wieviel Latenz welches Kabel erzeugt und ein Switch sowie 1m Kabel.

Das sind normal aber Unterschiede im Bereich von 100-200ns. Für Ethernet völlig irrelevant. Da sind die Latenzen eh schon viel höher, so dass das ziemlich egal ist.

Wenn die Latenz aber 1us ist, dann machen 100 oder 200ns schon nen Unterschied.
 
cloudman schrieb:
Klugscheißer Modus :
Nein Elektronen besitzen Masse und können niemals Lichtgeschwindigkeit erreichen 🙂
Sind zwar auch schnell unterwegs aber Licht ist schneller.

Das hast du falsch aufgefasst ;). Das Elektronen keine Lichtgeschwindigkeit erreichen ist mir bewusst aber soweit ich weiß tut es nicht einmal das Licht im Glasfaserkabel.

Mir ging es eher darum dass Licht pauschal betrachtet erstmal schneller ist aber vom SFP Adapter/Chip ja wieder in klassische Elektronen gewandelt werden muss.
 
"Ordentliche 10GB/s - Karten von Broadcom oder Intel, idealerweise als Direktverbindung zwischen Terminalserver und File/DB, sorgen auf getrennter Hardware für eine ordentliche Beschleunigung."

Was ist dann von der Aussage zu halten?

Ich kenne ja nur Modem/ISDN.. ISDN 8kb download oder so.. modem 5kb.
Aber: Modem Ping 300, ISDN 30 oder so. so war das mal ;-).
 
Diese Aussage ist zu pauschal. Eigentlich kannst du nur monitoren und benchen um herauszufinden was am Ende den Flaschenhals bildet.
 
  • Gefällt mir
Reaktionen: Skysnake
Auf den Kupferkabeln bewegen sich auch keine Elektronen sondern elektromagnetische Wellen um die Daten zu übertragen.

Grundsätzlich bei allem was an Abstand größer als 1.5, oder war es 3 Wellenlängen des Signals ist, muss man den Wellencharakter des Signals betrachten und nicht klassisch mit Elektronen die bewegt werden. Bei GHz sind also also ziemlich kleine Strecken die man sogar schon auf dem Chip erreicht.

Nur mal so am Rande.
 
  • Gefällt mir
Reaktionen: holdes
alles klar.. danke euch erstmal.
 
Das mit der Latenz und ihrer Auswirkung kannst du sogar einfach testen wenn du die Möglichkeit hast dir einen Tunnel aufzubauen.

Nutze mal eine SQL basierte Anwendung direkt über einen VPN Tunnel wie z.B. IPSec - du wirst erhebliche Wartezeiten im Vergleich zur direkten Verbindung spüren und das auch dann, wenn die Bandbreite nicht einmal ansatzweise ausgelastet wird. Die Antwortzeiten von 10-50ms pro Paket bringen einen da gerne zur Verzweiflung und sind in den meisten Firmen auch der Grund für Terminal Server ;).

Da sind einige plötzlich auf die Nase gefallen als Home Office in den Fokus gerückt ist.
 
cloudman schrieb:
Bei 10 GBit wird 1 byte auch nicht schneller an als mit 1 GBit übertragen.
Es werden können aber 10 mal mehr Bits in einer Sekunde übertragen werden

natürlich wird das Byte schneller übertragen. Aus diesem Grund ist der Ping von 10 mbit, 100 mbit und 10 gbit unterschiedlich.

Wichtig ist das der switch schnell ist und damit meine ich nicht die datenrate sondern die pakete/sek. Ist halt schon ein unterschied ob ein switch 10.000 oder 100.000 Pakete/sek schafft
 
ok.. was ist denn besser bzw. sind das überhaupt die pakete?
130.94Mp/s
74,4 mpps?
 
Zurück
Oben