2 Mainboards über PCIe16x miteinander verbinden?

enrico

Lieutenant
Registriert
Aug. 2007
Beiträge
735
Kann man 2 Mainboards über die
"lt. Spezifikation, Plug&Play fähigen"
pci-e16x Steckplätze miteinander verbinden?

Dass man 2 flexible Riserkarten leicht per Lötkolben zu eiem Verbindungskabel umfunktionieren kann, dürfte wohl nicht das Problem sein,
nur die grosse Frage ist:

Kann man denn, von dem Betriebssysthem WinXP des einen Boards,
auf die Ramdisk des anderen zugreifen?

Um "das andere Mainboard" welches sich im Dauerbetrieb befinden muss,
bzw. die darauf befindliche RAMdisk als primäre Festplatte zu nutzen?
Also die Ramdisk des einen Boards als Installationslaufwerk für WinXP des anderen Boards.

Nutzen:
Meines Ermessens würde die theoretische Datenrate 250 MByte/s x16 betragen?

Ich befürchte, dass ich einen virtuellen Vogel gezeigt bekomme:freak:

:)
 
Was für Ideen die Leute nachts haben, liegt das am Vollmond oder was?
 
nice echt witzig,

hmm guter gedanke, aber wie soll die umsetzung der treiber funktionieren ?
 
Das größte Problem wäre wohl die Umsetzung der Software und dessen Protokollen. Da ich von so etwas noch nie gehört habe jedenfalls nicht auf die Art fürchte ich müsstest du dir ein eigenes Protokoll und Verbindungssoftware schreiben und selbst dann ist erstens ungewiss ob es klappt und zweitens für mich kein wirklicher Nutzen dahinter.
 
hey, leute:) so viel antworten in der kurzen zeit:) is wohl
MisterG schrieb:
Vollmond oder was?



Den-J schrieb:
, aber wie soll die umsetzung der treiber funktionieren ?
der gedanke kam mir beim schreiben auch,
villeicht jat jemand ne idee...



Mike Lowrey schrieb:
und zweitens für mich kein wirklicher Nutzen dahinter.
echt nicht?
ich verstehe das so:
der flaschenhals in deinem rechner ist die festplatte, rund 100MB/s, und rund 10ms zugriffszeit bei magnetplatte.
ramdisk flaschenhals ist die cpu.

edit zusatz: und is doch der nächste logische schritt... FlashSpeicher25€/GB (langsam); RAM15€/GB (sauschnell).
 
Zuletzt bearbeitet: (zusatz)
@ enrico

Dein Gedankengang ist mir klar allerdings gibt es für Server Varianten wo RAM dafür verwendet wird eben eine RAM Disk zu bilden - willst du für nen bisschen Speed wirklich ständig nen Rechner laufen lassen? Mal abgesehen von den genannten Problemen der Umsetzung.
 
Mike Lowrey schrieb:
Dein Gedankengang ist mir klar
achso, sorry hab ich dich falsch verstanden.

die serverboards wollen alle ecc ram und sind selbst schon sehr teuer(€399 ein vernünftiges).

und das board für die ramdisk kommt villeicht auf 30€/jahr stromkosten.
 
Nur wirst du auf einem normalen Board nicht mehr als 8GB untergebracht bekommen weswegen dies doch wohl auch weg fällt oder? Weil Vista doch schon einiges mehr braucht.
 
ich fahre mit winXP, hatte ich auch mal ne zeit lang auf 8GB IDE flash, das geht.
vista geht auch zu verschlanken, is zwar knapp aber PC-Tuning is doch geil;)

und mal ehrlich was bringt ein casemodding wenn die inneren werte nicht stimmen;)

edit, zwischenzeitliches posting #9

ja danke für den tipp, kenn ich.
so weit ich mich richtig erinnere:
den accu drauf find ich gut.
ABER das ding nimmt nur strom über PCI und daten schleichen über ?S?-ATA:heul:
 
Zuletzt bearbeitet:
enrico schrieb:
Ich befürchte, dass ich einen virtuellen Vogel gezeigt bekomme:freak:

:)

So sieht es aus. Ich vermute, du weißt intuitiv was für einen Blödsinn du da veranstalten willst, und jetzt willst du unsere Absolution. :headshot:

Die Idee ist so absurd, dass eine gute Erklärung schwer fällt. Es gibt so viele.

Das Hauptargument: PCIe ist ein internes Bussystem. Du kannst damit keine zwei System niemals nicht direkt verbinden.

Das nächste Problem: Du willst uns doch .... :stock:
 
Naja mit einfach Via Riser von einem zum anderen wird schlecht ^^ es sei denn du baust dir dein eigenes Mobo ^^ mit so einem Feature für die Ports.

Aber was durchaus denkbar wäre ist wenn du zwischen die Riserkarten einen Controller packst ^^ wie bei einem Lap-Link Kabel für USB.

Natürlich müsstest du dann Spezi im Firmware und Treiberbereich sein. ^^

Wenn der Controller Bi-Directional sich bei jedem Rechner als NIC ins System einbasteln läßt und dann die RAM Disk des einen als Freigabe mit lese-/schreibrechten versehen läßt dann wäre das ja praktisch wie nen kleines Netzwerk zwischen 2 Rechnern. ^^

Da es auch für die PCIe Gbit NICs gibt die aber nicht voll 16x nutzen müsste da nen ordentlicher durchsatz herrschen wenn du so einen Controller findest der dir die Daten in der Mitte des ganzen hin und her pumpen kann. ^^

Da sowas aber auf dem Markt, zumindestens mit nicht bekannt, nicht existiert wirst du da schon derbe Probleme haben deine Idee irgendwie umzusetzen. ^^
 
hi McSnoop,

danke für die gedankliche anregung bezüglich Laplink,
hab mir die seiten de.wikipedia.org/wiki/Laplink und laplink.com/deu mal angesehen.

da ich in sachen firmware und treiber ein leihe bin, und noch nicht einmal verstanden habe warum ein controller zwischen die riserkarte sollte (anstat die 2 mainboards miteinander könnten),
denke ich wird sich das wohl (jedenfalls für mich) nicht realisieren lassen.

also fasse ich mal zusammen wie ich das bisher verstanden habe:

GBLan und USB sind zu langsam,
und
Netzwerk über PCIe16x nicht Treiberunterstützt.


edit zusatz:
ja sorry McSnoop, langsam dämmerts mir, jetzt glaub ich dich zu verstehen:
mainboards keine treiberunterstützung also: PCIe Controller drauf welche sich durch zb.: e-sata oder GBLan (günstigsten falls mehrfachverbindung)miteinander verbinden lassen.
 
Zuletzt bearbeitet: (zusatz)
"GBLan und USB sind zu langsam,
und
Netzwerk über PCIe16x nicht Treiberunterstützt."

Da ich keine Gbit NICs gefunden habe die die mehr als PCIe 1x(geht bei 35EUR Pro karte los im Preis) brauchten um die 1000Mbit auszulasten, ist die Frage nach dem Sinn da 16x fahren zu wollen ^^.

Es gibt auch Intel Gbit NICs die per 4x PCIe angebunden sind, aber die bringen gleich 4 GBit NICs auf einer Karte mit ^^. (Intel Pro/1000 PT Quad Port zum stolzen Preis von 350EUR)

wenn du jetzt 2 Karten und nem Router zwischen klemmst, die 4 Ports zu einem Trunk zusammenfasst und der Router dazwischen den Traffic verkraftet brauchste nix selber löten ^^.

Wenn das nun skalierbar ist wären somit bei nem PCIe 16x -> 16Gbit möglich ^^ was einen Theoretischen Durchsatz von 16*120MB->1920MB/sec bedeutet.

Die Intelkarten+Layer3 Router sind die Professionelle Variante für 4Gbit, aber das gibts ja auch nicht gratis.

Wenn du das nun selber entwerfen und bauen willst von Grund auf dann Viel Glück. ^^

Aber rein theoretisch ist es machbar. :king:

EDIT:

zu den Preisen:

Layer3 Switches sind in der Regel sehr sehr teuer ^^ und bringen meist mehr Ports mit als die auf einer 4er Karte hast ^^, i.d.R. 24Port.

Wenn du 2 Intel Karten mit je 4 Ports hast lastest du gerademal 1/3 der Ports aus und die Karten kosten fast 1k Öken.

Der Switch selber nochmal 2,5k Öken aufwärts. ^^

Vom Strom mal nicht zu sprechen, wenn der Switch dir dann 200W aufwärts zieht das ist nicht schön auf dauer und wenn der dann noch Aktiv gekühlt wird mit zig 60er Lüftern *g* also nix für SOHO. ^^
 
Zuletzt bearbeitet:
ne ne, is schon klar, das sich das nicht mehr in einem vernünfigem finaziellen rahmen hält.
das war nur nochmal nach meinem verständniss zusammengefasst.
 
Das hört sich nach einem Dual Rechner an, mein Nachbar der vor uns Wohnt, hat auf dem Gebiet sehr viel Ahnung. Habe vor 3 Jahren mal mit ihn drüber gesprochen, ob das machbar wäre. Aber ich würde das vielleicht über den Arbeitsspeicheranbinden, um ein Versuch einer eins zu eins Verbindung zu kriegen. Das eigentlich genau so, als wenn man dann 2 CPU´s auf einem Board hat.

Es ist machbar, da es in diesem Bereich aber keinen Grund gibt, da wir mit 4 Kernen usw. genug Leistung haben.

mfg

Tom
 
rofl, du willst 64 leitungen so LÖTEN, dass die dinger 1,25 milliarden spannungswechsel pro sekunde verkraften...junge was hast du geraucht, das will ich auch :D

aber theoretisch ist das mit sicherheit möglich, dass anstatt einer graka dann eine kommunikationskarte im slot sitzt, die auf der anderen seite mit dem anderen mainboard verbunden ist. wenn du dann noch treiber dazu entwickelst, könnte das sogar klappen. aber bitte löte keine riserkarten zusammen ;)

frag doch mal nvidia an, ob sie dir die idee nicht abkaufen wollen ^^
 
Ist doch alles einfacher als es Aussieht... nur die Vorgehensweise ist bescheuerter (dafür nicht so total abwägig!)..

Also:
Du kaufst dir einen 200€ PC.. Sempron 45W, ATi onBoard Grafik, kleinste Festplatte, GUTES! NT..z.B. Seasonic S12-II 330W.
Dann steckst du in das Board, welches mindestens 1 PCI-Slots besitzen muss, soviele Gigabyte iRam wie du PCI-Plätze hast, mit jeweils 4GB Ram.. Nun kaufst du dir SATA -> eSATA Blenden - je nachdem wieviele iRam du nimmst.. pro iRam brauchst du 2 eSATA Anschlüsse.. das ganze sieht dann nämlich so aus:

Rechner 1.: Vom Motherboard gehts über den SATA Stecker per eSATA Adapter weiter per eSATA-Kabel zum Rechner 2 (Ramdiskrechner) und dann per Adapter zurück auf SATA auf die Ramdisk - das ganze möglichst oft.

Dann kannst du im 1. Rechner einfach ein Raid 0 einrichten, wobei sich die Schreib- und Leseleistung jeweils fast addiert, während sich die Kapazität genau addiert und die Latenzen kaum schlechter werden.
Insgesamt wärst du wahrscheinlich sogar schneller als SSD-Festplatten (Zugriffszeitlich und Lese-/Schreibratenmäßig).
Der einzige Nachteil wäre eben der relativ hohe Preis für DDR Ram... 34€ pro GB, wenn man sich den Speicher neu kauft... macht natürlich keinen Sinn - in den Foren hier wird man sich den Speicher auch mühselig zusammenkaufen können...
Aber ich denke mal man wird 1000€ für das ganze Konzept ca. berappen müssen....
Viel Spaß dabei!
 
Zuletzt bearbeitet:
hi tommy_lee, es geht nicht um das nutzen einer zweiten cpu um die rechenleistung zu erhöhen.

hi CHaos.Gentle, da ich keine ahnung von treibern habe fällt das schonmal aus.
bezüglich nvidia oder solche firmen... können sicher ohne weiteres einen PCIe16x Controller mit treiber, accu und 10 RAM-DDR2-Speicherbänken bauen das wäre viel einfacher.
Das gigabayt I-RAM hatte mal einen angepeilten unverbinlichen endverbraucher verkaufspreis von 50€,
und von 4 DDR1 auf 10 DDR2 speicherbänke und treiber für DATEN-anbindung über PCIe16x kann ja kaum teurer sein.


EDIT zwischenzeitlicher post 18

hi RubyRhod, kreativ kreativ, kompliment.
wobei sich die datenraten der teuren DDR1 Rams durch sata wieder erheblich reduziert, aber trotsdem noch ziehmlich schnell sein müsste ohne das mal überschlagen zu haben.

würde ich mich in diesen preisregionen bewegen wollen hätte ich wohl 2 oder 4 der zur zeit schnellsten SSDs im Raid 0 genommen.

auch wenn sich die ursprüngliche idee nich realisieren lässt,
vielen dank an der beteiligung dieses brainstroming,
vielen dank für bisher, verabschiede mich, bis heut abend
 
Zuletzt bearbeitet: (zusatz)
auf`s I-RAM 2 warte ich auch schon seit nem Jahr.

Zitat:
Dieses wartet mit einigen Änderungen auf: So wird das SATA1- durch ein SATA2-Interface ersetzt werden, womit die maximale Transferrate auf 300 MB/sec steigt. Gleichzeitig sattelt man von DDR1 auf DDR2 um und wird gleich ganze 8 Speicherplätze bieten, womit im Maximalfall i-RAM 2 satten 16 GB RAM Platz bieten könnte.
http://www.3dcenter.org/news/2006/woche01.php
 
Zurück
Oben