Test Test: nVidia GeForce 7950 GX2 Quad-SLI

wie darfich das verstehen? werden im idle mittlererweile teile des chips deaktiviert?
ich dachte man wär grad ma auf dem niveau der taktreduzierung und seit kurzem auch spannungssenkung
Bei ATi ist dies seit dem R520 der Fall, dass im 2D-Part Chipteile deaktiviert werden. Wie das bei nVidia ist, weiß ich jetzt nicht genau, schätze aber mal, dass das nicht viel anders ist.

Warum wurde nicht mit dem 91.45 getestet? Noch nicht verfügbar gewesen? Oops, der .37 war auch schon für Q-SLI,sry.
Vergleiche mal das Erscheinungsdatum des Artikels mit dem des ForceWare 91.45 - dann dürfte deer Grund bekannt sein, und ich glaube, du hast eine falsche Vorstellung davon, wie schnell man soeben einen neuen Treiber testet.

nenn mir eine mainstreamkarte auf der n chip klebt in dem mehrere kerne sind die sich die arbeit teilen..

Jede handelsübliche GPU ist seit mehreren Jahren bereits Multi-Core.Oder was glaubst du, was 24 Pixel-pipelines sind?

was für ein schlechter test warum eigentlich auf einer nforce 4 platine mit dem alten fx60 ? und nur 2x 8 lines für quad sli
Mhm, tolle Kritik. Der FX60 ist also langsam und der nForce 4 x16 Chipsatz bietet pro Lane nur acht PCIe-Lanes - aha...
 
Wolfgang schrieb:
Bei ATi ist dies seit dem R520 der Fall, dass im 2D-Part Chipteile deaktiviert werden. Wie das bei nVidia ist, weiß ich jetzt nicht genau, schätze aber mal, dass das nicht viel anders ist.


Vergleiche mal das Erscheinungsdatum des Artikels mit dem des ForceWare 91.45 - dann dürfte deer Grund bekannt sein, und ich glaube, du hast eine falsche Vorstellung davon, wie schnell man soeben einen neuen Treiber testet.



Jede handelsübliche GPU ist seit mehreren Jahren bereits Multi-Core.Oder was glaubst du, was 24 Pixel-pipelines sind?


Mhm, tolle Kritik. Der FX60 ist also langsam und der nForce 4 x16 Chipsatz bietet pro Lane nur acht PCIe-Lanes - aha...


du redet von pixelpipelines (die bestandteil der DIE sind) ICH meine multiCORE und nich irgendwelche teile eines chips :freak: weisst du mehrere chips mit je mehrfachen pipelines..jetzt verstanden!?!? Ne pixelpipeline allein macht noch keinen grafikchip aus... setzen.. 6
 
Zuletzt bearbeitet:
Durch die multiplitzierung "irgendwelcher Teile" im DIE wird die GPU aber zu Multi-Core - ob dir das gefällt oder nicht. Das ist Fakt.

Und um ehrlich zu sein, ich finde das Thema nicht so uninteresant, dass man da so herbalassend schreiben muss;)
 
ich fass mir gerade an kopf genau wie der berühmte kerl auf deinem sig. bild:D
 
atb2006 schrieb:
was für ein schlechter test warum eigentlich auf einer nforce 4 platine mit dem alten fx60 ? und nur 2x 8 lines für quad sli :(

LOL, ein FX60 ist ja sooooo langsam. ;)

Das ist ja wieder ein sehr toller Kommentar hier.

mFg tAk
 
jo langsam ist er nicht


aber vielleicht sollte man die bestmögliche GraKa Kombination auch mit dem bestmöglichen Prozessor testen

und das ist momentan nunmal der X6800
 
meine güte... es geht hier um tendenzen, die ersichtlich gemacht werden sollten.
Und dafür reicht auch ein FX 60 locker. Immerhin sollte jedem durch den Test klar sein/werden, dass ein Quad SLI noch nicht treiberseitig optimiert ist und erst dann seine volle stärke auspielt. Siehe OpenGL und D3D Vergleiche!

denk mal mit junge...
 
Towatai schrieb:
ich fass mir gerade an kopf genau wie der berühmte kerl auf deinem sig. bild:D
Das macht der gute Herr aber auch nur, wenn er nachdenkt ;)

Und für alle, die der Meinung sind, dass der FX-60 ne lahme Schnecke ist - es wird einen Special-Artikel mit dem Conroe geben, und den auc auf 3,2 GHz.
 
mal ne frage warum seid ihr die einzigen bei denen die Oblivion Benches so schlechte Ergebnisse bringen ?

auf wirklich jeden Benchmark den ich bisher gesehen habe lief Oblivion besser O_o
 
@Über mir:
Hallo geht's noch?

@Test
Interessiert mich dann doch zu sehen ob der neue Treiber bzw. der Conroe den Dingern auf's Pony hilft oder nicht.
 
@Towatai: Ob ein Prozessor aus einem Chip oder mehreren aufgebaut ist, hat mit multi Core nicht viel zu tun, es gibt beide Varianten.

Hier mal ein Bild vom dual Core 'Core 2 duo': https://pics.computerbase.de/1/4/9/9/7/3-1080.3466880071.png

Nur ein Chip, 2 Cores, beim Athlon X2 ist es genau so.

Grafikchips haben den Vorteil das die Grafik jeden Bildes das sie berechnen aus X Zeilen aufgebaut ist, und man so die Arbeit einfach aufteilen, parallelisieren, kann indem man einfach mehrere Teile des Bildes gleichzeitig berechnet, so macht man es auch bei SLI.

Ob man das jetzt besser als multi Core oder multi Skalar bezeichnet ist allerdings eine gute Frage.
 
Zuletzt bearbeitet:
Crono666 schrieb:
mal ne frage warum seid ihr die einzigen bei denen die Oblivion Benches so schlechte Ergebnisse bringen ?
auf wirklich jeden Benchmark den ich bisher gesehen habe lief Oblivion besser O_o

Das liegt daran, da wir seit dem neuen Testsystem mit TSSAA benchen, was in Oblivion natürlich voll reinhaut.
Die Benches ohne AA müssten jedoch genauso hoch/niedrig ausfallen wie in anderen Reviews.

Und wann der Artikel fertig ist - when it's done natürlich, denn im Moment gibts wieder viel zu tun.
 
ach jungs ich als QUAD SLI besitzer sage nur eins.. UNREAL 3 Engine.. und es ist auch erst der anfang.. die shice muss noch besser optimiert werden.. und ich wart nur auf die grössten spiele wie ut 2007 alles high flüssig zocken.. oder crysis gibts auch ne dx9 version da dx10 und dx9 sich nur leicht unterscheiden (licht etc..) kann man das genauso in dx9 geniessen..

ich denk bei unreal engine 3 werden sie mehr auf die engine optimieren als die hohe auflösung ^^ (hoff ich mal) ich wart immernoch auf den richtigen treiber..
 
@EL_CUPE

Haste denn den richtigen Treiber drauf nu?91.45?Und bringt es was jetzt?Sprich mehr Punkte?

Mfg Porky1
 
Ich kann mir nicht vorstellen, dass diese vier GPUs so wenig Leistung besitzen. Die Benchmarkergebnisse sind ja wohl ein Witz. In fast allen Tests sind diese vier Karten gleich bis schlechter als meine X1900 XT. Selbst eine 7900 GT kann da locker mithalten.
Muss man die Ergebnisse mal vier rechnen oder was ist los?

Bei zwei 7900 GX2 GPUs hätte ich eigentlich 50.000 Punkte bei 3DMark05 erwartet bzw. 400 fps bei HL2: Lost Coast.

X1900 XT:
3DMark05 -> 11.402 Punkte

2x7950 GX2:
3DMark05 -> 11.297 Punkte :lol:

Falls diese Karten wirklich so schwach sind (was ich mir schwer vorstellen kann), wäre das eine riesige Lachnummer. Wozu 1000 - 1500€ ausgeben, wenn man dieselbe Leistung für 290€ haben kann. Wenn ich das vierfache bezahlen soll, dann setze ich auch voraus, dass mir mindestens die vierfache Leistung geboten wird.

Abgesehen davon deutet SLI und CrossFire auf das Versagen von ATi und nVidia hin. Die Hersteller wissen einfach nicht weiter und versuchen verzweifelt, durch immer höhere Taktraten und mehr GPUs, den vom Benutzer gewohnten jährlichen Leistungszuwachs aufrecht zu erhalten. Ich sage nur: "Voodoo 5 6000".
 
Zuletzt bearbeitet:
Wieso regt ihr (einige) euch eigentlich über Quad-SLI so auf?

Das Produkt ist und bleibt ein Nichenprodukt. Diejenigen mit viel Geld und sehr hohen Anprüchen kaufen sich so ein System, andere halt nicht.

Ueber Sinn oder Unsinn zu diskutieren bringt hier herzlich wenig. Genauso über die Leistungsfähigkeit von Quad-SLI.
Viele sind entäuscht von QSLI. Wieso? Weil wohl die Erwartungen zu hoch waren.

Für sehr hohe Auflösung lohnt sich so ein Gespann allemal, aber sonst auch nicht mehr. Für geringere Auflösungen reicht auch eine einzelne Karte wie 7900GT/GTX oder die X1900er Serie.

Zudem ist nicht zu vergessen, dass auch SLI resp. CF zu Beginn so seine Mühe hatte mit der Leistungsentfaltung. Aber diese beiden Technologien sind über die Zeit weiter "gewachsen" und finden doch schon recht grossen Anklang bei den PC Usern.

Ob das bei Quad-SLI auch so sein wird, wird die Zeit zeigen.

mFg tAk
 
Zurück
Oben