News Neues zu Gigabytes G8N-SLI Quad-Mainboard

also wenns das zu kaufen gibt... ich nehmems... mit P4EE und Kokü... mal guggen wer dann als erster bei §D05 die 40000 punkte durchbricht ^^

cu
mfg
mafri

Edit:\ na ja hab mir erstmal zwei neue CPUs gegönnt und dazu noch 2x Geforce 7800GTX extrem ^^ also bitte für So 940 rausbringen,, da könnte man sogar jede graka mit x8 oder sogar mit x1 ansteuern, je nachdem wiebviele SBs NF4 Pro man auf einemem board verknüft, also pro CPU eine XD dann nehmen man doch mal nen 8way board ^^
 
SLH3 schrieb:
Ich bezweifle ob dies wirklich noch viel schneller ist als ein "gewöhnliches" SLI-Gespann.
Denn man hat ja nur einen 16x PCI-Express, und der teilt sich immer:

1 GK= 16x
2 GK =8x
3 GK = 5.33x -> geht vielleicht nicht einmal
4 GK=4 x

Das Board hat 32 Lanes. Also kannst du bei zwei Karten beide mit 16x betreiben (jeweils) oder 4 Karten mit jeweils 8 Lanes. (So wie es bis jetzt bei SLI mit 2 Karten und dem normalen SLI chipsatz auch war)
 
crux2003 schrieb:
Das Board hat 32 Lanes. Also kannst du bei zwei Karten beide mit 16x betreiben (jeweils) oder 4 Karten mit jeweils 8 Lanes. (So wie es bis jetzt bei SLI mit 2 Karten und dem normalen SLI chipsatz auch war)


hallo an demm normalen chipsatz sind 20 lanes.... an der NF4... davon 16lanes fürs SLI und 4 für onboard geräte.

cu
mfg
mafri
 
Ist PCIE nur für Grafikkarte geeignet? Diese Aufteilung der Lanes erinnert mich an Zeiten mit 8BIT und 16BIT ISA Slots. Am Anfang waren es nur wenige 16BIT Slots, aber nach und nach verschwanden alle 8BIT Slots vom Mainboard.

Zum Glück bin ich momentan rechnerseitig gut versorgt, denn PCI Slots auf PCIE Board riechen mir noch zu sehr nach Übergangslösungen wie PCI und ISA. Wenn schon wechseln, dann richtig.
 
haha und welche cpu soll das alles unterstützen? :D strom kostet ja nix. hau mas drauf die energie, ham ja genug
 
Ja ja diese ganzen Posts das braucht ja keiner natürlich nicht wozu auch. Denn erstens wer von euch hat einen 22 " Monitor oder TFT der
nativ Auflösungen von 1600 und darüber fährt und wen interessiert es eigentlich wirklich mit wieviel fachen AA oder AF man irgend ein Game bei welcher
Auflösung fahren kann. Mein 19" TFT wie jeder andere 19er auch hat eine native Auflösung von 1280 x 1024 (17er übrigends nur 1024 x 768 ein Wert der heutzutage kaum noch auftaucht in Benchmarks weil es quasi keine Unterschiede gibt ) also brauche ich auch keine
Benchmark Ergebnisse darüber hinaus und dann bei den Games die ich zocke SOF2 (weil im Clan) oder COD Multiplayer ist es eigentlich auch
Scheissegal ob ich da zwei drei Frames mehr haben könnte unterm SLI Mode im Singleplayer. Hauptsache der Ping ist niedrig genug.
Und das zweite wenn ihr das alles nicht braucht warum gibt es dann soviele SLI Boards mit nForce 4 ? Müssen doch auch welche kaufen.
Ich für meinen Teil suche eher eine feines kleines Board ohne SLI dafür eher mit stabiler Spannungsversorgung und von mir aus auch völlig
ohne PCI Slots solange mir nicht noch einmal wie jetzt bei meinem der Mic Eingang kaputt geht und ich tatsächlich doch eine Soundkarte noch
hinzustecken muss.
 
Zuletzt bearbeitet:
Nun ja, es werden sich, sofern das Mörderteil tatsächlich in Serie geht, auch hier wieder Enthusiasten finden:

Wie weit kann ich meine "Quad-Grakas" übertakten...? :eek:
 
ich glaub das ist mehr studie als es irgendwann erscheint ... wahrscheinlich ist der winxp-bildschirm sowieso nur von einem rechner "generiert" worden, der unterhalb des tisches steht (ich sag nur X-Box 360 ;-) und Power-Macs)

wie viele es schon gesagt haben, ist das ding wahrscheinlich eh sinnlos, da die Steigerung mit Sicherheit abnimmt und der Verwaltungsaufwand zu hoch wird. Aber ganz nett anzuschauen ist das Ding schon ^^
 
Sicherlich ist das sinnlos für all jene die sich günstige Renderfarmen oder sowas bauen, ja, ja... . Übrigens: Es darf auch eien Quattro Fx sein... .
 
Und wie lange wird es dauern, bis die dieses oben gezeigte doppelgespann-sli hernehem und jede grake zusätzlich einen zweite gpu verpassen?
=2 Gpus pro Graka*4
Utopisch! Welcher prozzi schafft das schon nur theoretsich...?
 
Finde das wirklich schon extrem übertrieben. SLI ist ja noch ganz nett wenn man zuviel Geld hat aber eigentlich ja auch unnötig.
Vor allem dass der komplette Platz dann für Grafikkarten verbraucht wird finde ich überhaupt nicht gut. Was bringt es mir denn bitte wenn ich dann 4 grafikkarten habe und nicht eine brauchbare Soundkarte. Wer halbwegs hochwertige 7.1 Boxen hat weiß ja wohl dass das mit Onboard Sound nicht besonders gut klingt.
 
ja wie geil ;) muhaaha das wird ja immer extremer
 
@31-33

Wenn es , um megaparalelle Rechnungen in der/den GPU(s) geht, hat dies sehr wohl einen Sinn.

Man stelle sich mal vor, oh weih, es könnte Anwendungen/-er geben die auf FPS in gewisser Weise pfeifen (und auf eine andere Weise jedoch nicht, denn Zeit = Geld, wie wir ja alle wissen) und z. B. nur ein oder ein paar Dutzend Standbilder berechnen wollen, diese jedoch mit Milliarden und Abermilliarden Polygonen. Diese Personen werden sich auch freuen, dass ihr Job nun in 1 statt 4 Tagen, später vielleicht in einem halben Tag ode rnoch weniger gelaufen ist. Klar könnten sie ja auf die Geforce 8 warten, dumm nur well es heißt: Ich brauche das Ergebnis schnellstmöglich, für das geringste Geld und habe den Auftrag am 20.09.2005 rausgegeben. Den Auftraggeber wird es nicht jucken dass erst in ein zwei Jahren jene quasi nun geforderte Leistung auf einer Graka möglich ist.

Oder wie sehen bei euch heute Supercomputer aus? RICHTIG, es sind weitestgehend verwandte der Cluster.

Oder wartet die amerikanische Atombehörde ab, bis man die Leistung welche heute 10000 Prozessoren bietet in einen gelötet kriegt?

Ein ähnliches Konzept verfolgt man mit den RENDERFARMEN. Viele der Pixar Filme sidn auf solchen entstanden. Man nahm hunderte oder tausende Workstations und ließ sie die Filme berechnen. Und seid dem es spezielle Grafikprozessoren gibt, denke ich kaum, dass man die Berechnungen der Bilder in der CPU macht.

Das Supercomputer heute eher mehr CPU als GPU Power brauchen liegt daran, dass die Berechnungen, die dort gemacht werden, grafisch eher "simplererer" Natur sind als jene Berechnungen die die CPUs z. B. auf dem Physiksektor machen müssen. Von daher auch die PhysX Idee, welche ja viele hier verschreien.

Bei Renderfarmen sieht es aber anders aus als bei Supercomputern: Anstatt durch den Prozessor berechnen zu lassen welche Kräfte welche Beule in die Karosserie deppern, "weiß" der Quellcode genau, wie die Beuel wo auszusehen hat. Da diese aber aus weiß der Geier welchen Gründen aus Millionen von Polygionen in einem Bild mit Milliarden von Polygionen besteht, bzw. man schnellstmöglich jedoch spätestens bis zu einem gewissen Stichtag Zehntausende von Bildern gerendert haben muss (Ein 90 minütiger Film hat ja nur 162000 Brauchbilder von denen jedes einzelne gerendert und dann animiert werden muss und der Verschnitt (heruasgelassen Szenen, Probeläufe...) noch nicht mit dabei) wird man sich schon über mehr Grafikpower freuen. Und so hat man vielleicht demnächst nur noch 250 Computer, dafür mit Quad-SLi am start, nicht mehr 1000 und ist genausoschnell fertig, hat jedoch an Hardware , Strom und Platz Geld gespart.

KEINER hat gesagt, dass dieses Quad Board umedingt für den Consumer gedacht ist.

Es ist mittlerweile Gang und gebe, dass das ehemalige professionelle Workstationsegment und das Prosumer/Consumer Segment mehr udn mehr zu einem werden. SLI, Multicore, MultiCPU, RAID, alles Sache die früher der Industrie entsprangen und nun uns helfen. Und wer weiß: 2006 freuen sich Renderer über 8 Grafikprozessoren auf einem Board wie dem obigen, 2010 wir.
 
@Dyewitness


Völlig Deiner Meinung! ; -)

Allerdings wenn ich das farbenfrohe Board so anschaue kommt es mir eher vor, als wollten Gigabyte/ Nvidia doch eher den Super Enthusiasten mit nem dicken Bankkonto ansprechen und nebenbei mal wieder den Platzhirsch markieren. ;-) :-)

Für Renderfarmen würde das ja wirklich Sinn machen, allerdings vermisse ich da doch eher ein paar professionelle Details.
Für das Rendering brauch es auch ne gigantische CPU Leistung welche die Polygonkoordinaten resp. Gitternetzlinien vorrechnen, damit die GPU überhaupt was hat um die Texturen darüber rendern zu können.
Also so ein paar 4 Sockel Opteron Boards mit saumässig viel Ram, als cluster zusammengebunden sollte es schon sein! ;-) :-) ( Fime- architekturmodelle etc)


Greetz MAC_Ferrari
 
Naja das mit den bunten Sockel könnte sich daraus erklären, dass diese heute billiger sind als extra schwarze zu produzieren... . Leigen halt auf Lager rum und entsprechen den Zeichen der Zeit.

Aber wenn man , was ich nicht bezweifele, da ich nicht wirklich Ahnung habe, wirklich auch heftig CPU Dampf haben muss, dann ist dieses Board in rednerfarmen wirklich recht fehl am Platze.

Dann eher die Prosumer Ecke eben jener kostes es was es wolle Enthisuasten oder jener Hobby Renderer, welche aus Spaß an der Freud oder weil sie es für ihre Bewerbung brauchen (also im Grund und) rumrendern es aber eben nicht professionell machen.
 
@MAFRI
Das Board hat 32 Lanes, es kommen bald noch mehr Boards mit mehr als 20 Lanes.

Gabs auch mal hier eine Meldung dazu, habe aber keine Lust zu suchen.

Ausserdem steht das auch oben im Text.

Die ingesamt 32 Lanes der ürsprünglichen PCI-Express-Steckplätze wurden dabei auf je acht Lanes pro Steckplatz aufgeteilt, so dass insgesamt vier Steckplätze zur Verfügung stehen.

Teilweise möchte ich doch das Karma-System wieder.
 
40 Lanes sind es trotzdem insgesamt.

20 Lanes stellen die beiden nForce 4 Chipsätze jeweils bereit und können entweder als 16-1-1-1 oder 8-8-1-1-1 für Erweiterungskarten organisiert sein.

mfg Simon
 
Ich bin mir eigentlich ziemlich sicher, dass die Leistung gar nicht so überragend ist, was wohl an der Bandbreite für PCIe scheitern wird.

Eigentlich sollte genau dies nicht passieren. PCIe hat doch so eine groß angepriesene hohe Bandbreite und schon so kurz nach erscheinen kommt ein System, dem das nicht reicht?

Wozu dann das Theater mit PCIe?

Ich glaube aber schon fast, dass dieses System gar nicht zum Verkauf stehen wird. Ich sage nur IAA der PCs ;) Quasi ein Concept PC, welche als Studie in irgendeiner Form in normale Produkte eingehen wird, aber nie so :D

Das einzige, was ich mir gut vorstellen kann ich extremes AA und AF in höchsten Auflösungen.

IMO wird sogar die CPU eine Limitierung darstellen. Da müsste schon ein X2 3 GHz oder mehr her.
 
Zuletzt bearbeitet:
Also wer sich 4 Grafikkarten leisten kann, der wird auch vor einem P4 670 und Prometeia Mach II Kompressorkühlung nicht halt machen müssen.
Und bei 5 GHz dürfte das sicher nicht sooo schlecht laufen. ;)

mfg Simon
 
Zurück
Oben