Point To Point Fiber Qlogic einrichten (Windows Servr 2012 R2 to Win 8.1)

Krautmaster

Fleet Admiral
Registriert
Feb. 2007
Beiträge
24.238
Hallo zusammen,
nachdem ich seit Stunden in Google nichts wirklich Greifbares finden kann wende ich mich an die Pros hier.

Ich habe zwei Fiber Karten, eine davon sitzt im Homeserver (Windows Server 2012 R2 + Storage SPaces) und eine in meiner Workstation (Windows 8.1).

Ich würde gerne eine Punkt zu Punkt Verbindung herstellen um den Server Speicher dirket am Client anzubinden.

Es handelt sich um zwei Qlogic 4Gb Fiber Karten, Treiber sind installiert. Teamviewer läuft auf beiden Kisten.

In der QConvergeConsole sehe ich beide Seiten.

Fragen:

1. Muss ich das LC Kabel manuell "drehen" dait es quasi als Patchkabel fungiert?
2. Brauche ich unter Windows Server noch spezielle Rollendienste wie iSCSI Target usw?
3. welche Möglichkeiten habe ich zum anbinden? SAN? iSCSI? FCoE?
4. könnte mich irgendjemand dabei supporten? :D Bin newbie was SAN Sachen angeht aber ich lerne schnell ;)


@ Homserver siehe hier:
https://www.computerbase.de/forum/t...012-r2-datacenter-und-storage-spaces.1292406/

Vielen Dank für eure Hilfe
 
Zuletzt bearbeitet:
Dein Server müsste dazu als Storage Target dienen können und mir wäre neu das Server 2012 R2 das kann (explizit geschaut hab ich aber auch noch nicht)

Bei den Kabeln ist es recht einfach, Licht auf dunkel stecken und umgekehrt. Das sieht man ganz gut wenn man einfach rein schaut.
 
Was du da machen willst funktioniert nicht. Du kannst keine Direktverbindung mit FC zwischen zwei Windows Servern machen. Für Linux gibt es alternative QLogic Treiber, die einen Target Modus haben. Damit kann man dann den lokalen Storage dem zweiten System präsentieren. Für Windows gibts das nach meinem aktuellen Kenntnisstand nicht. Das ist auch eine reine Bastellösung, normalerweise ist dein Target ein eigens dafür designtes Produkt, im kleinsten Fall ein einzelnes Storage Array, im größten Fall (viele) große Plattentürme in einer geswichten Umgebung.
 
hell auf dunkel ODER ... TX auf RX und umgekehrt!

Target Device: FC-HDDs! davon gab es vor Jahren immer mal Bergeweise Konvolute auf Ebay. 20x 50GB und solche Sachen. da bist du mit ner SATA -HDD deutlich besser dran und kannst das gesparte Geld in zwei 10GBE Karten mit RJ-45 investieren. evtl gibt es auch schon GBIC mit RJ45 und mehr als nur 1GB, aber da hinkt mein Kenntnisstand.
 
das mit den Fiber tauschen mach ich heut Abend, Danke euch schonmal.

@DunklerRabe

hm, kann man nicht FCIP, FCoE, SCSI oder sowas drüber machen. Das mim SCSI Target Server und Client hab ich grad mal eingerichtet, geht 1a zwsichen Server 2012 R2 und Win 8.1 Client. Jetzt müsste das halt noch über Fiber gehn...

In den Karten Selbst kann ich nen Point zu Point Modus einstellen. Das dürfte aber nur die halbe Miete sein.

Bin halt komplett neu in dem Thema
 
Zuletzt bearbeitet:
Im Grunde ist das so:

FC Point to Point ist schon in Ordnung, aber an dem einen Point ist halt nichts wo man gegen connecten kann :)

SCSI ist die lokale Geschichte innerhalb eines System und das Protokoll ist die Grundlage für all diese anderen Techniken.
FibreChannel nutzt auch schon SCSI Befehle, das ist quasi SCSI über Glas. FCoE ist FibreChannel über Ethernet (anstatt Fibre), das funktioniert mit Ethernet Netzwerkkarten und nicht mit FC HBAs. iSCSI ist Internet SCSI, das ist SCSI in IP Paketen und funktioniert in allen IP Netzwerken, vorrangig natürlich auch auf Ethernet Basis.

Kurz: Nein, du kannst da nichts anderes drüber machen. FC HBAs machen FC und nichts anderes. Kein FCoE, kein iSCSI und reines SCSI sowieso schonmal nicht.

Was du da eingerichtet hast ist iSCSI. Das funktioniert recht einfach, jeder Windows Server bringt ein iSCSI Target mit (das ist die iSCSI Server Komponente gegen die man connectet) und jeder Windows Client hat einen iSCSI Initiator (das ist der iSCSI Client, der gegen das Target connectet). Das funktioniert über die Ethernet Netzwerkkarten der beiden Systeme und nicht über die FC Karten. Ich nutze das z.B. bei mir auch über meine 10GbE Infrastruktur.
 
Zuletzt bearbeitet:
FC-Point-to-Point ist schon korrekt, nur gibt unter Windows keine Möglichkeit deinen lokalen Storage über FC verfügbar zu machen.
 
Zuletzt bearbeitet:
Also wie gesagt unter Windows ist mir da nichts bekannt und ich habe auch nichts gefunden. Grundsätzlich möglich ist es natürlich, Datacore macht sowas z.B., kostet dann aber auch ordentlich Geld.
 
Krautmaster schrieb:
oder is das auch wieder nur Intiator wies scheint.... nix mit Target bereitstellen. kann aj eig nich so schwer sein wenn es unter linux das auch gibt. :p

So ist es, nur der Initiator. Außerdem würde es dir nicht weiter helfen. Es ist FCoE, deine FC Karten können aber kein E, E wie Ethernet, denn die machen ausschließlich FC! :D

Nochmal, wie gesagt, es gibt KEINE Möglichkeit das zwischen zwei Windows Systemen zu machen bzw. eines davon zum Target zu machen.
Das geht nur auf einem Linux Server mit SCST: http://scst.sourceforge.net/

SCST devices can use any link which supports SCSI-style data exchange: iSCSI, Fibre Channel, FCoE, SAS, InfiniBand (SRP), Wide (parallel) SCSI, etc.

Ich hab das schonmal im Einsatz gesehen, funktioniert gut. Es erfordert aber einige Linux Kenntnisse für die erstmalige Installation.
 
linux an sich wäre kein Problem aber meine ganze Server Umgebung läuft auf Hyper V mit einigen VMs und AD, zudem kann das ASROCK 2750er Board kein VT-D also die Karte durchreichen an eine VM is nicht...

Ich dank euch trotzdem! =)

Das Teil bzw die Teile kommen dann wohl aug Ebay und es gibt 10GBit - kommt da wer an günstige Karten?
 
Wenn du freie PCIe x16 Slots hast schreib mir mal eine PM, ich müsste noch zwei alte im Schrank haben.
 
Selbes Problem und dazu musst du Server und Client dann recht nahe stehen haben, denn die Reichweite ist hier sehr beschränkt.

Mit 10G Ethernet und iSCSI löst du hingegen das Problem elegant, ich würde da gar nichts anderes in Betracht ziehen.
 
2-3 m sollten nahe genug sein ;)

10Gbit über Rj45 wäre mir natürlich auch am liebsten aber die Switche udn Karten sind noch extrem teuer. Mir reicht eig eine Punkt zu Punkt. Der Server hängt mit 2x gblan am Switch, der Rechner mit 1 Gbit.

Der Rechner könnte aber auch über den Server ins Netz und zb eine 10-40 Gbit verbindung zwischen diesen wäre perfekt. Der LSI 9260 8i ist in der Lage recht viel Daten zu schaufeln.
 
Zuletzt bearbeitet:
Für InfiniBand gibt es einen IPoIB (IP over InfiniBand) Software Stack, auch für Windows. Darüber kriegt man dann eine IP Netzwerkverbindung zwischen den Systemen. Die Reichweite ist aber sehr begrenzt und die Kabel sind sehr teuer. Und technisch finde ich das nur so mittelmäßig überzeugend, ich hatte das mal eine Zeit lang.
 
hast ne PN ;) Danke
Ergänzung ()

Bleibt die Frage was ich machen kann ohne direkt 500€ auszugeben. EIn LC Kabel Duplex hab ich da... licht wäre also schon eine Option sofern die Karten nicht ein Vermögen kosten und es ne Lan Verbindung zwischen 2 Windows Systemen ermöglicht.
Ergänzung ()

Geht:
2x
http://www.ebay.de/itm/Voltaire-Sin...ronik_Computer_Mainboards&hash=item20df2dd886
+
1x
http://www.ebay.de/itm/Infiniband-Kabel-7m-/181641822612?pt=DE_Computer_Sonstige&hash=item2a4ab24194

?


Bin ich halt bei <80€ für 10g auf 7m.

Oder direkt 2x
http://www.ebay.de/itm/QLogic-Infin...ng_Interne_Netzwerkkarten&hash=item566966a7aa

+ Kabel.

40 gbit
 
Zuletzt bearbeitet:
Wenn du das machen willst, dann schau dich am besten nach Mellanox oder OLogic Karten um, die sind OFA Members: https://www.openfabrics.org/
Deren einigermaßen aktuelle Karten sollten alle von der OFED supportet sein.

Bei der 40 Gbit QLogic Karte musst du beachten, dass die scheinbar nur eine Low Profile Blende hat.
Bedenke außerdem:
Supports quad small form factor pluggable
(QSFP) optical and copper cable specifications;
CX4/microGigaCN specifications

Ein einfaches Kabel wird da nicht reichen, du brauchst sowas: http://en.wikipedia.org/wiki/QSFP
Kostenpunkt pro Stück: Je nach Hersteller, Modell und Quelle (Kompatibilität beachten!) so zwischen 500 und 2000 Euro!
 
Zurück
Oben