News 3dfx kehrt zurück: nVidia mit SLI

Das ist ja völliger Schwachsinn. Wieso bauen die nicht eine Karte mit zwei GPU´s anstat der scheis SLI lösung. 3dfx hat die SLI lösung ja auch aufgegeben und mehrere GPU´s auf eine Karte gepakt.
 
XGP schrieb:
Das ist ja völliger Schwachsinn. Wieso bauen die nicht eine Karte mit zwei GPU´s anstat der scheis SLI lösung. 3dfx hat die SLI lösung ja auch aufgegeben und mehrere GPU´s auf eine Karte gepakt.

Jo, und was aus 3dfx geworden ist, wissen wir ja alle ;). Stell' dir doch mal bitte 2 6800er auf einer Platine vor. Das passt in kein ATX-Gehäuse. Mal davon abgesehen, dass man gleich die gesamte Karte kaufen müsste - so hat man eine gute Upgradeoption.

Wenn du unbedingt zwei Chips auf einer Karte haben willst, kauf' doch XGI :D.
 
ENDLICH ist 3dfx wieder zurück.... erst heute morgen hab ich drüber nachgedacht, was für ne feine sache voodoo karten waren! :) und jetzt is das wunder wahr geworden! hab fast jede voodoo karte gehabt und habe sie auch alle geliebt! hoffentlich kommen auch wieder features wie glide usw zum einsatz! .... oh mann, jetzt bin ich happy! ;D
 
Oh Man, deswegen ist die News-Überschrift unglücklich gewählt. 3Dfx ist nicht zurück. SLI ist nicht zurück. Glide wird es auch nicht sein.

NV nutzt nur die Gunst von multiplen PCI-E-Kanälen und die eigenen Chipsätze (nForce4), um ihrer NV40-Linie mehr rohe Renderpower zu verschaffen.
 
@ Stan
du weisst ja nicht, wie das ganze umgesetzt wird. Vielleicht gibt es ja auch ein Load-Balancing, also das die Renderzeiten jeweils beider genommen werden um danach eine neue Aufteilung zu treffen, bis wohin die erste und ab wo die zweite rendert.
 
Es gibt Spiele die stark von der CPU abhängen,
(FarCry, MaxPayn, Colin McRae, Nascar Thunder...) also Spiele wo von der CPU
die künstliche Intelligenz der Computergegner und Gegenstände
berechnet werden mussund das massenhaft. Ich denke eine 2te Graka nützt da nix, wenn die CPU
schon am Anschlag arbeitet und dann der limitierende Faktor ist.

Die CPU limitierung lässt sich auch schon beobachten im UT Botmatch,
wohingegen bei Flyby, also ohne Bot Berechnung die Graophik wichtiger wird.

3DMark 03 ist natürlich ein prima Vorzeigeobjakt wenn es um die reine
GPU Power geht. Denn die CPU macht nur wenige Punkte aus bei 3Dmark03.
 
ohne n balancing im sli modus hätte man in extremsituationen sogut wie keine mehrleistung. es muss also definitiv im Treiber realisiert sein. Der optimalfall 50 / 50 teilung dürfte nur in den seltensten fällen erreicht werden. Sobald zb ein Ausenbereich kommt mit nem Himmel muss sich das Verhältnis drastisch ändern also zb 70 / 30. Aber da würd ich mir keine sorgen machen, aufn kopf gefallen sind die bei NV ja auch net und die Realisierung eines variablen teilers nach Renderzeit sollte nichts weltbewegendes sein.
 
WhiteShark schrieb:
die highendkarten sind immer deutlich überteuert. während ich 2 mid oder lowcost karten billiger bekomme. zusammen kombiniert sind die dann schneller, bei einem günstigerem preis.

zum beispiel bei ati:
x800 ultra: 600€
x800 pro: 300€

daher wenn ich 2 x800pro kaufe habe ich deutlich mehr leistung als mit einer ultra.
zum selben preis.


Die X800 pro kostet 400€
und die X800XT 500€

und ne 6800U kostet 500€
 
AlanMozilla schrieb:
Es gibt Spiele die stark von der CPU abhängen,
(FarCry, MaxPayn, Colin McRae, Nascar Thunder...) also Spiele wo von der CPU
die künstliche Intelligenz der Computergegner und Gegenstände
berechnet werden mussund das massenhaft. Ich denke eine 2te Graka nützt da nix, wenn die CPU
schon am Anschlag arbeitet und dann der limitierende Faktor ist.

Die CPU limitierung lässt sich auch schon beobachten im UT Botmatch,
wohingegen bei Flyby, also ohne Bot Berechnung die Graophik wichtiger wird.

3DMark 03 ist natürlich ein prima Vorzeigeobjakt wenn es um die reine
GPU Power geht. Denn die CPU macht nur wenige Punkte aus bei 3Dmark03.

Sinnvoll wäre der sli Modus bei NV karten für 8x AA mit AF aber das hätte man durch ne vernünftige 8x AA implementierung bei der NV40 architektur auch einfacher haben können.
Ohne AA + AF hat ma mit den heutigen GPUS eh genug FPS
Die CPU limitierung in neuen Spielen mit aufwendiger Ki wird meiner meinung nach erst dann verschwinden wenn es in gut 2 jahren relativ weit verbreitete Dualcore systeme gibt und die Spiele al la quake diese auch unterstützen
 
Dadurch, dass zwingend V-Sync gefordert ist, wird Leistung gefressen ...

Ich wünsche allen Daddlern viel Spass alleine bei dem Kauf eines Noconasystems.

Alleine das Board dürfte 500€ kosten, dazu kommt der Nocona mit dem Serveraufschlag.

Von den Netzteilen mag ich gar nicht sprechen, da nicht nur der Strom stimmen muss, sondern auch die richtigen Stromstecker dran sein müssen ...

Und nochmal, GLIDE ist sicherlich eben nicht implementiert ... in der Tat eine sehr unglückliche Überschrift.

MFG Bokill
 
@AllanMozilla
Dann duerfte es ja keinen Unterschied mehr machen, wenn man dann ne schnellere Karte rein steckt....schau dir die benches an, dann wirst du sehen dass dem doch so ist. also wird es auch hier einen geschwindigkeitsgewinn geben.
 
(c) schrieb:
Jo, und was aus 3dfx geworden ist, wissen wir ja alle ;). Stell' dir doch mal bitte 2 6800er auf einer Platine vor. Das passt in kein ATX-Gehäuse. Mal davon abgesehen, dass man gleich die gesamte Karte kaufen müsste - so hat man eine gute Upgradeoption.

Wenn du unbedingt zwei Chips auf einer Karte haben willst, kauf' doch XGI :D.


Muss ich dir vollkommen recht geben. 3Dfx ist mit den SLI Karten sehr gut gefahren und ich denke, nVidia könnte es mit ein wenig Marketing Geschick auch packen. - Mit PCI-E halt, liegt aber im Auge des Betrachters, ob er das mit SLI idendifizieren will.

Mfg
 
Ich mach es mal kurz. OK Nvidia wird vieleicht wenn das so funktioniert wie die das wollen die Benchmarks anführen aber das ist mir sowas von egal bei mit kommt auf alle fälle eine X800 XT PE rein !

Das mit dem SLI betrieb wird sich nicht durchsetzen.

P.s. auserdem ist es ganz schön schwach von Nvidia jetzt haben die schon 222 Mio. Transistoren in dem Chip gepackt und schaffen es immer noch nicht auf platz 1. und jetzt einfach zwei Karten im SLI zu betreiben ist doch ein Witz.
 
Zuletzt bearbeitet:
Das SLI an sich ist schon was feines. Auch die Leistung wird sicher sehr gut sein. Allein, wenn man FC mit SuperSampling-AA flüssig spielen könnte, wäre es phänomenal.

Ich glaube aber nicht, dass dies sich im Desktopmarkt durchsetzen wird. Dafür ist es zu teuer, und die Mehrleistung steht nicht in einer guten Relation zu den Mehrkosten.

Der Einsatzgebiet ist imho sowieso der Professionelle Bereich, wie zum Beispiel Echtzeitvisualisierung.
 
SLI steht bei nVidia übrigens für "Scalable Link Interface", nicht wie der in der News geschriebene 3dfx-Name.

XGP schrieb:
Das ist ja völliger Schwachsinn. Wieso bauen die nicht eine Karte mit zwei GPU´s anstat der scheis SLI lösung. 3dfx hat die SLI lösung ja auch aufgegeben und mehrere GPU´s auf eine Karte gepakt.
Falsch, 3dfx hat SLI genommen und es auf ein Board gebaut und es nicht aufgegeben.
 
Zuletzt bearbeitet:
Ich sag nur LOL... NVidia mutiert zu immer weiteren höhenflügen... 2 grakas? was soll das? man muss sich echt fragen ob in der entwicklungsabteilung von nvidia kleine 14 jährige pimpfe sitzen und die karten designen... oh man, so als nächstes folgen dann karten mit 4 GPU's Nvidia Geforce Retro FX bundled with a 400Watt Power supply with highly effective liquid cooling inside, dass ist es doch was die kleinen kiddies brauchen :D
 
so ein system könnte ich mir allein wegen der resultierenden stromrechung nicht leisten... ;)
 
Naja, vielleicht solltet ihr auch mal daran denken, dass es neben den vielen Zockern auch noch professionelle Anwender gibt, die sich über sowas freuen. Für Stereo-Anwendungen oder Anwendungen im medizinischen Bereich wie gemacht, denn für den Preis von 2 Desktop-Grakas bekommt man noch lange keine der Quadro-Reihe. ;)
Sowas ist sicher nicht für irgendwelche Kiddies als Zielgruppe gedacht! :rolleyes:

Mir ist zwar nicht ganz klar, wie die da ein gutes Load-Balancing reinbekommen, wenn sie den Bildschirm nach oben und unten aufteilen, aber wenn das Tatsache ist, dann braucht man im günstigsten Fall noch nicht mal alle Geometrie- und Texturdaten auf beiden Karten lagern.
 
Zuletzt bearbeitet:
@Shadow86: Wieso was geniales von nVidia? Wie oben steht ist das eine ueber 6 Jahre alte Technik von *3dfx*. nVidia hat die Firma einfach aufgekauft und damit die Technik. Naja 3dfx das waren noch Karten *intraeumenschwelg*

bye
 
Ich versteh das nicht, da wird ein Artikel aufgegriffen welche ja sehr warscheinlich im Profi Bereich zur Anwendung kommt und hier geht das rumgefame wieder los.
Über Quadro Karten wird ja auch nicht Diskutiert und gesagt die Kauf ich mir nicht da ist nee x800xt ja besser und viel Billiger.:rolleyes:
Es kommt doch auf den Anwendungsbereich an und der ist für die meisten von uns im Spiele Bereich und wers sich dennoch Leisten kann soll glücklich sein.

Wer weiß obs überhaupt realisiert wird

ps. Der Titel ist wohl nicht das wahre, bzw. war 3Dfx zu einer anderen Zeit mit anderem Ziel ;)
 
Zurück
Oben