News nVidia SLI - 4x 6600 GT und Co.

Ich weiß gar nicht wie man sich nur auf einen Chiphersteller fixieren kann. Wir brauchen nun mal mindestens zwei. Am besten sogar noch einen mehr. Ich möchte nicht das einer von den jetzigen Herstellern den Markt beherscht und den anderen Platt macht. Denn das würde bedeuten das die Preise für Grafikkarten dann kräftig anziehen werden. Ich hoffe das es immer schön ausgewogen bleibt. Denn Konkurenz belebt das Geschäft.
 
Für heute Spiele ist doch eine dieser high-end Karten völlig ausreichend. Sollte dies zukünftig nicht mehr der Fall sein, kann man sich dann, sicherlicher sehr viel günster, einfach eine 2te identische Karte dazukaufen und wäre wieder up-to-date. Von daher finde ich SLI und AMR von der Technologie her sehr interessant. Aber eher wahrscheinlich ist, dass es in dieser Zukunft dann DX10 oder 11 und wieder völlig neue Hardware-Features gibt, die den Neukauf der nächsten Generation nötig machen...
 
Um mal die letzten Gedanken wieder aufzufassen:
DX10 oder gar 11 wird es niemals geben. WGF tritt die Nachfolge von DX an, was da für Versionen geplant sind, weiß wohl außer Billy niemand.

Zwei (oder mehr) mobile Graka auf einer Platine wäre in meinen Augen wirklich mal interessanten, vor allem nachdem gerade erst der Trend zu Notebook-CPUs/MB in Desktop/Barebone-Systemen ausgebrochen ist, wovon ich ansich sehr begeistert bin.
 
Nur mal so ein Einwurf am Rande:

Mein PC-System ist bestenfalls noch als gehobene Mittelklasse zu betrachten. Ich habe im abgelaufenen Jahr 3100 Kw/h verbraten, etwa 600 kw/h über dem Durchschnitt für ein vergleichbaren Haushalt. Dabei bin ich jemand, der für jeden Mist abschaltbare Steckdosenleisten hat, Fernseher und Stereoanlage immer hart ausschaltet. Nach langem hin und her-rechnen habe ich meinen Rechner als schuldigen ausgemacht. Und dabei läuft der im Schnitt allenfalls 3-4 Stunden pro Tag, was ich nicht als aussergewöhnlich viel empfinde.

Frage also: Hat sich irgendjemand mal Gedanken macht, was bei solchen High-End-Systemen da so an Strom verbraten wird? Besonders Grafikkartenlösungen wie diese dürften beim Stromzähler ein Brummkreiselsyndrom verursachen. Und es scheint ja nicht besser zu werden. Dualcore überall: CPU's & GPU's. Ich schätze, bald werden Rechner oder Einzelkomponenten ähnlich wie Kühlschränke und Waschmaschinen nach Energieeffizenzklassen eingestuft und nicht nach Leistung :)

Abgesehen davon nützt die ganze Dualcore-Technik nichts, wenn nicht entsprechend optimierte Software bereitsteht. Die Warnungen, speziell der Spieleentwickler, dass die Hardwareentwicklung den Softwarelösungen davonläuft, verhallen Jahr für Jahr ungehört.
Ich würde es mir also zehnmal überlegen, über 1000€ in eine Benchmarkkillerlösung zu investieren und dann tatsächlich ganze drei Spiele damit spielen zu können. Zudem stehen ja auch noch einige technische Probleme an, so richtig ausgereift präsentiert sich das ganze noch nicht.

Also, abwarten. :D
 
XTR³M³ schrieb:
Ich bin geboren um Euch zu ownen.
2001: 28880 pkt. // 2003: 14276 // Aquamark 3: 81210 // SuperPI: 33sek. // 296FSB 1:1 // 4552MB @ Singlechannel // 360MHz FSB/HT
A64 3000+ @ 2850 // K8NXP-SLI // 2x 6800Ultra // A-DATA // MAXTOR // LIAN-LI // SONY // TSP

Die Signatur!
-> Man sehe... wir finden eine nVidia Karte. Warum immer diese Befangenen Meinungen. Kauf ich mir einen Porsche und sage dann Porsche ist scheiße? Nein, die Leute haben nur Angst, dass das andere besser sein könnte. Und das ATi zur Zeit nicht gegen das 6800 SLI gespann sagen kann, ist recht klar. Hier macht es einfach die Masse...
Füllrate x 2 / Shader x 2 / Speicher x 2 => OWNZ!
Aber wer brauchs denn? Am besten dann noch über Intel aufregen wegen der Verlustleistung! Weil die beiden Ultra karten mind. 80W brauchen. Natürlich nicht OCed!

Sorry, aber das meine Meinung dazu!

Und wer das Rennen in der nächsten Generation macht, bleibt schlicht und einfach abzuwarten! Damals hat auch, obwohl es niemand erwartete die 8500er Radeon die GF3 fir gemacht, und es gibt nichts auf der Welt, was verhindern könnte, dass sowas nochmal passieren KANN, nicht MUSS! ;D

Danke für die Aufmerksamkeit!

MfG GuaRdiaN

PS:
2001: 28880 pkt. (kA.)
2003: 14276 (11000)
Aquamark 3: 81210 (78000)
SuperPI: 33sek. (Welche Größe?)

Mit meinem System obwohl ich nur ne X800XT habe, und davon eine! ;)
-> Nur für den Schwanzvergleich! ^^
 
Zuletzt bearbeitet:
Abgesehen davon nützt die ganze Dualcore-Technik nichts, wenn nicht entsprechend optimierte Software bereitsteht. Die Warnungen, speziell der Spieleentwickler, dass die Hardwareentwicklung den Softwarelösungen davonläuft, verhallen Jahr für Jahr ungehört.

Dann ist ja alles i.O., sollte es so sein, brauchen wir jetzt nur noch auf neue Softwareentwicklungen warten.
 
@gacor

Ganz richtig. Das nutzt alles heute nicht, auch 64 Bit CPUs nicht, wenn man nicht die entsprechende Software dazu hat.

Ohne Treiber ruckelt auch eine 6800 Ultra Quadro SLI bei Pakman ;)

@ToXiD

Du wunderst dich über hohe Stromrechnungen? Du hast einen Athlon 64 @2,8 GHz! Glaubst du, dass das OC keinen Strom benötigt um die Frequenzen stabil zu halten? Auch das SLI System :freak: nuckelt deinen Geldbeutel tierisch an!
 
Aresta schrieb:
Für heute Spiele ist doch eine dieser high-end Karten völlig ausreichend. Sollte dies zukünftig nicht mehr der Fall sein, kann man sich dann, sicherlicher sehr viel günster, einfach eine 2te identische Karte dazukaufen und wäre wieder up-to-date. Von daher finde ich SLI und AMR von der Technologie her sehr interessant. Aber eher wahrscheinlich ist, dass es in dieser Zukunft dann DX10 oder 11 und wieder völlig neue Hardware-Features gibt, die den Neukauf der nächsten Generation nötig machen...


eine ist nicht ausreiczhend, zocke dochmal auf 1600 8xsa/16xaf alles on....


viel spass bei der diashow. :king:


GuaRdiaN schrieb:
Die Signatur!
-> Man sehe... wir finden eine nVidia Karte. Warum immer diese Befangenen Meinungen. Kauf ich mir einen Porsche und sage dann Porsche ist scheiße? Nein, die Leute haben nur Angst, dass das andere besser sein könnte. Und das ATi zur Zeit nicht gegen das 6800 SLI gespann sagen kann, ist recht klar. Hier macht es einfach die Masse...
Füllrate x 2 / Shader x 2 / Speicher x 2 => OWNZ!
Aber wer brauchs denn? Am besten dann noch über Intel aufregen wegen der Verlustleistung! Weil die beiden Ultra karten mind. 80W brauchen. Natürlich nicht OCed!

Sorry, aber das meine Meinung dazu!

Und wer das Rennen in der nächsten Generation macht, bleibt schlicht und einfach abzuwarten! Damals hat auch, obwohl es niemand erwartete die 8500er Radeon die GF3 fir gemacht, und es gibt nichts auf der Welt, was verhindern könnte, dass sowas nochmal passieren KANN, nicht MUSS! ;D

Danke für die Aufmerksamkeit!

MfG GuaRdiaN

PS:
2001: 28880 pkt. (kA.)
2003: 14276 (11000)
Aquamark 3: 81210 (78000)
SuperPI: 33sek. (Welche Größe?)

Mit meinem System obwohl ich nur ne X800XT habe, und davon eine! ;)
-> Nur für den Schwanzvergleich! ^^


und vor nem jahr haste de ne 9800er von ATI gefunden...

soviel zu dem thema.

p.s. hast schon gelesen was unten steht ?

dei scores sind noch mit 745er 3400+ & 6800GT

wenn ich mein neues NT habe siehste ntmal mehr meine rücklichter. :king: :evillol:
 
Zuletzt bearbeitet:
mensch ich finde diese doppel und 4 fach lösungen echt klasse, 100% kosten mehr in der anschaffung bei 30% mehr leistung. wo macht das bitte sinn?
 
Breakout_Basti schrieb:
mensch ich finde diese doppel und 4 fach lösungen echt klasse, 100% kosten mehr in der anschaffung bei 30% mehr leistung. wo macht das bitte sinn?


2x1 = 80% mehr leistung
2x2 = 240% mehr leistung


p.s. welche freaks kommen eigentlich immer auf 30% ? :freak:
 
Ok, mag sein das man für aax16 und afx16, schon 2 karten braucht. Ich habe gestern zufällig mal die Einstellungen in dem Treiber von Default auf 4xaa/4xaf gestellt und alle Optimierungen mal deaktiviert. Ich bin echt erstaunt wie sehr sich die Qualität gebessert hat, alles was drüber liegt hat dann auch keinen sichtbaren unterschied mehr gemacht. Also reichen demnach 4xaa und 4xaf völlig aus um ein akzeptables Bild zu erhalten. Dabei laufen alle Spiele völlig flüssig, sowie neuere Spiele wie farcry und doom3.

Schlimm an der ganzen Sache ist, dass ich die Karte jetzt seit einiger Zeit habe und auf Sparflamme gespielt habe (dumm, 400 Euro auszugeben und keine Ahnung zu haben wie man die Karte dann richtig laufen lässt).
Die Karte geht gut ab mit 4xaa und 4xaf, alles sieht sehr gut aus, keine Treppchenbildung, keine schlechten Texturen (sehr deutlich). Was heißen soll, dass 4xaa und 4xaf ausreichen sollten. Nur brauch ich dafür keine 2 Karten.

Defaulteinstellungen in dem Treiber kastrieren die Grafik, ganz klar. Ich fürchte das 16xaa und 16xaf nur noch Performance kostet, sich das Bild bei einer 6800gt dann aber auch nicht mehr so doll verbessert.

Also mein Tipp 4xaa und 4xaf sollten ausreichen und das bekommt man auch ganz gut mit nur einer karte und einem schnellen CPU hin.

Gruß
 
ich bin erstens kein freak, nur ein bisschen, mal abgesehen davon das kosten und leistungsgewinn ich keiner relation mehr stehen, und wer um gottes willen braucht solche leistungen. alle haben gesagt das doom und was weiss ich noch für spiele alle neue grakas bräuchten, und was war, selbst alte karten haben noch gereicht. also wozu das alles?
 
XTR³M³ schrieb:
wenn ich mein neues NT habe siehste ntmal mehr meine rücklichter. :king: :evillol:

Wo denn? 3DMurks?
Ach, wenn ich das Geld dafür über hätte , würde ichs trotzdem nicht dafür ausgeben !
-> Wofür brauche ich mehr Leistung, als dass HL2 @ 1600x1200@32bit unter 8xAF und 8xAA läuft?
-> Wofür mehr Leistung, als dass DOOM3 @ 1600x1200@32bit mit 8xAF und - okay - nur 4xAA läuft?

Nunja, wenn du dich dann besser fühlst, dann ists okay, ich will mich bemühen das nicht zu verurteulen!
-> PS: Ist der Rechner dann nicht ein bisschen laut?

240%? Wo in Benches?
Das ist so, ein Auto nach der Topspeed mit einem anderen zu vergleichen. Auf ner Rennstrecke ist das vielleicht ansatzweise Sinnvoll, aber im Straßenverkehr nicht!
(Das nennt man Realität oder Real-Performance)

MfG GuaRdiaN
 
Zuletzt bearbeitet:
perfekt!57 schrieb:
"Jeder der Chips könnte dann aber nur noch über PCI Express 4x angesprochen werden. "

Was heißt das noch mal im Klartext? Tritt schon eine Bandbreitenbeschränkung ein, oder noch nicht? Oder nur bei welchen Spielen voraussichtlich?Kurzer Hinweis darauf in einem der nächsten Statements zu dem Thema wäre nett.

Nein auf eine Reduzierung auf 4x kommt es nicht.
Bei den Karten mit 2 GPU's wird das PEG auf 2 mal 8x geschaltet, was AGP immernoch weitaus überlegen ist. Von daher sollte man sich da keine Gedanken machen! ;D

MfG GuaRdiaN
 
4x SLi halte ich für den größten Schwachsinn.

Die Hersteller machen es sich schon mit normalem 2x SLi sehr einfach und verarschen den Kunden.

Statt neue Karten zu entwickeln, die durch bessere Kühlung höhere Taktraten erreichen oder die GPUs so weiterzuentwickeln, dass sie die doppelte Leistung bringen können...
(Wer damals das Nvidia Video gesehen hat, weiß, dass es schneller geht als man denkt)
..., sagen wir einfach "Der Kunde möge sich einfach 2 Karten kaufen, die dann nicht mal die doppelte Leistung im eigentichen Spiel bringen, aber das ist uns erstmal egal. Wie fälschen weiter die Statistiken und Benchmarks."

Abgesehen davon, ist keiner so dumm und kauft sich 4 Grafikkarten.
Nicht mal 2......sehr wenig haben 2 Grafikkarten. Irgendwo hört der Spielspaß auf und das richtige Leben fängt an.
Rein technisch gesehen ist es gar nicht mal eine so große Sache.

MfG, Cheechako!


P.S.: Ich will hier keinem auf den Schlips treten, aber finde es durchaus frech, dem Kunden solch eine simple betriebswirtschaftliche Lösung als technische Neuerung zu verkaufen.
 
XTR³M³ schrieb:
2x1 = 80% mehr leistung
2x2 = 240% mehr leistung


p.s. welche freaks kommen eigentlich immer auf 30% ? :freak:

P.S.: Die Freaks, die die SLI brücke vergessen und nur mehr Leistung haben, weil Ihre Graka zum ersten Mal neue Treiber sieht. **löl**

80% mehr Leistung pro Karte ist allerdings noch etwas zu Hochgegriffen, da mit steigender Anzahl der GPU deren gesammt Wirkungsgrad sinkt. Im Moment liegt der dazugewinn bei 60-80% für 2GPU, das mittel sind 70% was 210% entspräche durch den schon erwähnt schlechteren Wirkungsgrad von 4 Karten ist Knapp 200 % anzunehmen. Was ja auch nicht schlecht wäre.
So würden dann 4 x 6600GT eine Benchmark Ergebniss im 3DMark03 von über 24.000 Punkten liefern. Wenn man die Aktuellen Preise der 6600GT PCI vergleicht und die Eingesparten Kosten durch weglassen gleicher Komponenten gegen die Entwicklung verrechnet, sollte beim selben Gewinn der Hersteller wie bei einer 6600 gt eine Lösung für unter 700,- Euro ohne Problem möglich sein! Ist zwar alles andere als Günstig aber im Verhältnis zu einer Gainward 2600 und deren Leistung als günstig zu bezeichnen.
 
@ Cheechako (76) Du darfst aber nicht vergessen das sich kaum jemand einen Rechner mit 2 Grafikkarten oder eine 2 Chip Lösung auf einer Platine bzw. Grafikkarte kauft der ihn nur zum arbeiten braucht. Selbst Eltern die so einen Rechner nur für ihre Kinder zum Spielen kaufen würden auf so etwas nicht unbedingt eingehen. Hier stehen wirklich nur die pro Gamer im Vordergrund. Und die haben sich auch höchswahrscheinlich darüber erkundigt bzw. wissen eh schon längst darüber bescheid weil sie wissen was in der Szene Sache ist
 
@ Cheechako

da magst du prinzipiell Recht haben. Ich schließe mich da Thunderstone an... für Progamer halt...
Wenn du schon auf die/das Unternehmen schiesst musst du aber auch eingestehen, dass es für nvidia entschieden einfacher ist einfach 2 GPUs parallel zu schalten als einen chip zu entwickeln der 70% (und nun fresst mich net wieder wegen ein paar prozenten mehr oder weniger..) schneller ist.

Und desweiteren sollte man nicht vergesse, dass es bei solchen technischen Extremlösungen nicht darum geht dem Opa der nen PC zum surfen will die POWER schlechthin zu verpassen. schließlich fragt keiner danach welcher Grafikkartenhersteller zur zeit die beste MainstreamGraka im Angebot hat oder welcher die leisesten lüfter verbaut. Entscheidend ist einzig und allein das Image der hersteller zu sein der zur Zeit die schnellste möglich Lösung zur Verfügung stellen kann.

Wie sagt man so schön: Den krieg gewinnt man an der Front... was im Hinterland passiert interessiert da keinen mehr.. auch nvidia net...
 
wenn geld keine rolle spielt denn schon ne Silicon Graphics Prism in max ausführung : 16 ATI FireGL GPUs; 256 Intel Itanium 2 CPUs!! ; 6,1TB Ram und nen paar 10 KW stromverbrauch ; peis nen paar milionen $ hehe
 
Zurück
Oben