News Quad-SLI (7950 GX2) und der Stand der Dinge

@phate9090010
moment: die eine karte hat auch schon 2 gpus
wir reden also nur von verdopplung net von vervierfachung

@36
ah ja und du kaufst cb den monitor?

mal davon abgesheen das 2048 am realistischten ist
24" sollten verbreitet sein in der userklasse, aber keine 32" monis

zumal man mit 2048 + 8xs AA ne bombenquali hat und wo auch das quadsli bei manchen games an die grenzen kommt
 
Denke auch das Quad-Sli für Leute die das nötige Kleingeld haben durchaus Sinn machen kann. Bei einer Auflösung von 2560x1600 und allen Qualitätseinstellungen (AA/AF auf max.) kommen selbst die an die Grenze ihrer Leistungsfähigkeit bei aktuellen Spielen und natürlich den zukünftigen Knallern.
 
@ SirMarkPower, Zifko

Recht habt ihr :king:

@ Topic

Keiner muss es kaufen, also Fresse halten :evillol:
Regt sich jemand über Rolex, Lamborghini oder sonst was auf ?
Also.
 
Jetzt wo du es anschneidest, wird es sich sicherlich ändern. Neider gibt es überall.

"Was ich mir nicht leisten will (weil ich es nicht kann), ist nämlich alles absoluter Schwachsinn."

Die werden es nie beweisen können, weil sie nie in den vollen Genuß solcher Enthusiasten-Hardware kommen werden. Zu solchen GraKas im Quad-SLI gehören ja nicht nur einfach zwei GraKas, sondern noch viel mehr. Seid froh, dass sich so viele Leute die teure Hardware kaufen. Würde die Welt nur aus Neidern und Meckerfritzen bestehen, gäbe es heute noch NUR PC mit Turbo-Taste, damit du deinen 386 nochmal richtig beschleunigst.
 
Für mich ist das nicht eine Frage des Preises, denn im Gegensatz zu Lamborgini und Co, könnte ich mir solch ein System sogar leisten.

Nein, ich bin ein Fan absolut leiser Systeme, und da kann ich mit „Quad-SLI“ aus zwei nVidia GeForce 7950 GX2 überhaupt nichts anfangen.

Selbst eine einzige Karte davon ist mir noch viel zu laut ... da verzichte ich lieber auf exorbitante Aufösungen und investiere in ein fast lautloses System, das mich trotzdem mit hervorragenden Leistungen verwöhnt.
 
Wenn der G7x in der Lage währe eine vernünftige Bildqualität zu bringen täte ich noch sagen OK, aber das vermag das Ding bekanntlich in Hardware schon nicht und in den Treibern wird nicht selten dann noch weiter in Richtung Keller geholfen! ^^

Von daher betrachte ich so etwas besten falls als eine Fall Studie für mögliche Dual oder Quad GPU Systeme, wo einige weniger an Technik Interessierten Leute, halt fleißig als gleichsam Beta Tester dann noch ein wenig Geld in die Kassen spülen.

Obgleich man sich das nicht so Vorstellen darf wie mit heutigen CPU's. Denn im Grunde sind Grafik Chips schon seit geraumer Zeit so was, MultiCores (jedes Pixel Quad ist eigentlich schon eine komplette Recheneinheit für sich, die zu mehren parallel zusammengeschaltet).


Zu dem und jetzt mal klar Text, mit so ein Ding (auf GeForce 7 Basis), kann und wird niemand Angeben können! ^^ Außer vor eben Leuten die dahingehend genauso wenig bewandert.

Wenn ich mir auch schon nur ein SLI Gespann hinstellen wollte, täte ich das, weil ich Höchste Bildqualität schon heute auch in Titeln wie eben ein Oblivion flüssig würde fahren können wollen (bei Auflösungen um mindestens 1280x1024).

Mal abgesehen das bei diesem Beispiel die CPU schon das Problem stellen täte und NV4x/G7x AA + HDR gar nicht bringen könnte. Währen wird doch schon allein beim Stichwort Bildqualität, schon beim Hauptproblem was diese Hardware Generations- Ära hat!

Ab gewissen Punkt (der viel zu schnell immer wieder gefunden), sieht es einfach nicht mehr schön und heutiger Rohleistungs- Potenzen unwürdig aus, ach Schreiben wir es ruhig auch mal so, es ist Lächerlich und Traurig zugleich!

(das Anisotrope Filter vermögen der G7x Hardware ist einfach vergleichsweise zu dessen wo man schon einmal gewesen war, eine Katastrophe und das wird noch mehr zum Wunden Punkt wenn man dann eben schon 2 oder 4 GPU's einsetzt die zusammen eine Nennrohleistung besitzen, welche einen hohen und vor allem Akkuraten AF Filter, locker überall dann durchreißen könnten)


PS:
Anti-Aliasing (AA) ist auch wichtig aber alleine nichts, der Anisotrope Filter (kurz auch AF genannt), ist der wesentlich gewichtigere Part für vernünftig gerenderte (echtzeitliche) 3D Grafik!
 
Zuletzt bearbeitet:
@LED:
Ich finde Deine nüchtere Betrachtungsweise klasse!
Aber Fanboys kommt es meist nicht auf die Qualität an. Hauptsache ich habe mehr FPS als andere und die Karte "hört" sich toll an (Imagepflege).

In Ergänzung dazu hat diese Karte noch kein SM4.0, was wahrscheinlich schon Ende des Jahres mit neuen Karten eingeführt wird.
Also wird die Karte unter Vista nur im Kompatibilitätsmodus Dx9.0L laufen. - Also warum nicht noch ein wenig warten?
Das gilt auch für Ati-Karten.
 
Bei einer nVidia konnte man AA auf 8 x stellen, bei SLi auf 16 x AA, was ist bei Quad SLi möglich, 32 x AA?
Ja, es gibt einen 32xAA-Modus

Wieso wollt ihr bei der Auflösung schon schluss machen? Es ist wohl unrealistisch, dass sich jemand ein Quad-SLI-System zusammenbaut und am Ende einen dödeligen 21- oder 23-Zoller für 400€ bis 800€ anschließt?! Reale Testbedingungen wären hier wohl eher ein hübscher 30"-TFT von Dell, Apple oder wem auch immer. Für die wichtigen Aussagen über Skalierungsverhalten wären genau die höchsten Auflösungen notwendig, weil die nochmal n ganzes Stück reinhauen. Ich weiß das, weil ich auf meinem 30er mit 2560x1600 gerade noch so mit AA zoggn kann - und das mit X1900-Crossfire-System... Bitte erhöht also die eigenen Ansprüche an die Testmethodik!
Das Problem daran ist, dass uns schlicht und ergreifend solch ein Monitor nicht zur Verfügung steht;)
 
@ Thaquanwyn, L.ED

Das sind vernünftige Gegenargumente.
Wenn alle hier so posten würden...
 
Die Variante auf den G80 zu warten, klingt eigentlich am vernünftigsten. Werde mich wohl vorerst "nur" mit einer 7800GTX zufrieden geben und dann Ende Herbst bis Mitte Winter mal die Preise der G80 beobachten.
Ich würde nämlich ungern 500 EUR ausgeben wollen, wenn die Karte in einem halben Jahr mehr als nur überholt ist.

Was wird der G80 eigentlich alles mit sich bringen? Ich meine inwiefern kann man von einem "deutlichen" Leistungszuwachs reden? Wird der G80 der NextGen-Grafik von XBox360 und PS3 ein großes Stück näher kommen??
 
@ wHiTeCaP

Die angekündigte Vereinigung von Pixel- u. Vertexshadern wird wahrscheinlich
im G80 noch nicht implementiert.
 
Was mich am meisten ärgert, ist die Tatsache, daß die sogenannten Treiberoptimierungen die wirkliche Qualität einer Grafikkarte immer wieder verschleiern.
Anstatt in erster Linie auf Frames zu achten, sollte mal wieder die reine Bildqualität an erster Stelle stehen.

Vor allem im High-End-Bereich spielt die reine Rohleistung doch wirklich nur noch eine untergeordnete Rolle.
Und warum muß ich in der heutigen Zeit auf ein vernünftiges Lüfterdesign verzichten und mich mit einer abartig lauten Geräuschkulisse herumschlagen?
Selbst bei Preisen jenseits der 600 Euro interessiert das scheinbar so gut wie keinen Hersteller.

Aber solange es diese blödsinnige, halbjährige Chipsatzerneuerung der beiden Grafikriesen Nvidia und ATI gibt ... und wir dabei natürlich heftig mitmachen ... wird sich nicht wirklich etwas relevantes ändern.
 
Zuletzt bearbeitet:
@ Thaquanwyn

Zu Geforce 5 Zeiten gab's beides noch... leise Serienmodelle und
winkelunabhängiges AF.
 
Sgt. Barnes schrieb:
@ wHiTeCaP

Die angekündigte Vereinigung von Pixel- u. Vertexshadern wird wahrscheinlich
im G80 noch nicht implementiert.
Ich hab irgendwann mal gelesen, dass sie aber eine Shaderart mit der Berechnung von Physikobjekten belasten wollen. Der erste Weg, aber hat Nvidia den Schritt schon bestätigt, oder wieder nur eine reine Vermutung?

Werden sich die neuen ATi-Karten denn an ihren Partner aus der XBox360 anpassen, oder gibts da auch keine Zusammenlegung der Shader?
 
mythbuster21 schrieb:
2 Grafikkarten ist noch ok, 4 sind schon zu viel und sehr teuer.
(Würde ich mir nicht kaufen)
Wer aber das Geld hat kann ja mal Quad-SLI kaufen. :lol:

Erst informieren, dann posten. Es sind zwei Grafikkarten, keine vier! :rolleyes:

Ansonsten ist für mich hier schon alles gesagt worden.

@whitecap: beim R600 von ATI soll bereits die unified shader-Struktur genutzt werden, wie es bei der XBox360 der Fall ist.

Gruß
 
Zuletzt bearbeitet:
Warum sollen 2 Geforce 7950 GX2 zu teuer sein ?????????
ERST INFORMIEREN DANN POSTEN !!!!
Ein SLI Gespann welches aus 2 7900 GTX besteht ist nahezu genauso teuer wie genanntes Quad SlI System. UNd das ein solches System nicht rentabel sein soll denke ich wird sich in der Zukunft noch zeigen. Schonmal Screenshots von Crysis gesehen ??? Ich denke kaum das dieses Spiel auf einer weitverbreiten Geoforce 6600GT oder ähnlichem vernünftig laufen wird. Wenn ihr schon Quad SLI so runtermacht wie geht ihr dann mit den Ende 06 angekündigten Quad CPUS um ??? :D

Mein Post sollte niemanden direkt anfahren !!
 
g-unit soldier schrieb:
Mein Post sollte niemanden direkt anfahren !!

Dann solltest Du Dir aber die multiplen Satzzeichen abgewöhnen ;) :D .

@topic: stimmt schon, ich hab auch das Gefühl, dass manche Leute solche threads nur zum flamen nutzen, ohne sich vorher mal für 2 Minuten Gedanken darüber zu machen, WAS sie posten.

Olé, Deutschland wird Weltmeister :evillol:
 
mmic29 schrieb:
@whitecap: beim R600 von ATI soll bereits die unified shader-Struktur genutzt werden, wie es bei der XBox360 der Fall ist.

Gruß

Danke dir für die Info. Kommen beide neuen Chips im Herbst raus, oder behält sich ATi den Start für den Winter vor?
 
g-unit soldier schrieb:
... Schonmal Screenshots von Crysis gesehen ??? Ich denke kaum das dieses Spiel auf einer weitverbreiten Geoforce 6600GT oder ähnlichem vernünftig laufen wird. ...

Damit hast du sicher eindeutig recht, aber das ist ja auch für mich gar nicht die Frage!

Für mich stellt sich mehr die Frage, wie bewust sich Hardware und Software gegenseitig antreiben.

Warum bitte ist SLI oder Crossfire überhaupt gut. Wenn man sich mit der Entwicklung von Chips mehr Zeit lassen würde, wäre das überhaupt nicht nötig!

Klar, im Fokus der Firmen steht der Gewinn und das ist ja auch legitim, aber nicht so. Und wenn die Softwareentwickler wirklich dazu übergehen, ihre Produkte immer mehr am High-End zu orientieren, könnte der Schuß auch nach hinten losgehen.

Mir jedenfalls ist eine einzige Karte mit einem guten, leisen Lüfterdesign allemal wichtiger, als ein röhrender Hirsch, bei dem ich vom Stuhl falle, wenn er so richtig aufdreht.
Und das eine Vielzahl von GPU's zu einer höheren Verlustleistung führt, versteht sich wohl von selbst.
 
Zurück
Oben