Test Test: GTX 680 SLI vs. HD 7970 CF

Danke für die Antwort. Muss ich mir nochmal durch den Kopf gehen lassen. Erschwerend hinzu kommt noch der geringe Abstand der beiden PCIe x16-slots auf meinem MoBo. Dürfte für die obere Karte nicht sonderlich förderlich sein, was die Temps angeht.
 
Ist unproblematisch, wenn Du zweimal den AXP draufbaust. Der schlägt sich erstaunlich gut ganz ohne Slotabstand (getestet mit 2xHD6950). Ursache ist die Lüfterkonstruktion, die an der Seite nicht geschlossen ist. Dadurch zieht der Lüfter wunderbar von der Seite Luft rein, selbst wenn er scheinbar komplett verdeckt ist von der anderen Karte!

siehe hier: http://www.hardwareoverclock.com/VGA-Kuehler/Accelero_Xtreme_Plus-032.jpg

Der AXP ist insofern doppelt genial, weil er so ziemlich der einzige ist, der auch für CF/SLI taugt, also unter den sehr leisen Geräten.
 
Der AXP ist in der Tat genial, hab ihn selbst auf meiner GTX580. Allerdings lassen die Slot-Abstände des Mainboards keine 2,5-Slot plus-Kühler zu.

Somit ginge im Moment nur Referenzdesign oder WaKü.

Mfg
 
Hier zeige ich mal wie viel Bastelarbeit notwendig ist um den framelimiter zu aktivieren (43 Sekunden Video). :rolleyes:

Ich will MGPU nicht beschönigen, jedoch muss man entgegen des Fazit kein Profi sein der viel basteln will. Ein paar Zahlen (Kompatiblitätsbits) in ein Feld eintippen kann jeder und den framelimiter aktivieren dauert satte 10 Sekunden (Echtzeit). Ich habe mir letztes Jahr meine aller erste nVidia-Grafikkarte gekauft und brauchte satte 2 Tage mich komplett einzulesen.
In meiner AMD-Zeit hatte ich von X800 bis HD 4850 CFX. Über Mikroruckler konnte ich mich nur gelegentlich beschweren. Und ich wette 50% der Leute die hier behaupten es zu "riechen" würden durch eine Prüfung fallen. Suggestion ist hier das Stichwort, meine Herren.
Übrigens kann elektrischer Strom nicht verbraucht werden. Und nur weil jemand 1000 Euro für zwei Grafikkarten ausgibt bedeutet es nicht, das ihm die Umwelt scheißegal ist. Circa 20 % der erzeugten Energie in Deutschland ist regenerativ. Der Löwenanteil kommt eben immer noch von Kohle- und Atomkraftwerken. Des weiteren ist der Energiebedarf ein Indiz für Kühlung und somit Lautstärke. Das lässt sich natürlich mit custom design und/oder Wakü umgehen.

Mit meinem Beitrag möchte ich lediglich dazu auffordern die Münze auch mal umzudrehen. Vielleicht setze ich aber auch zuviel verbreitete Intelligenz vorraus.
 
mit der aussage des framelimiters wäre ich vorsichtig. es ist manchmal schwierig, sich als technisch versiertere person, in die sicht eines laien hineinzuversetzen.

davon abgesehen haben viele auch keine lust sowas erst einrichten zu müssen.

nie vergessen, für "uns" ist das spass und hobby, für einen laien ist das mühsam und ein unnötiges "gefrickel".
 
Lix schrieb:
nie vergessen, für "uns" ist das spass und hobby, für einen laien ist das mühsam und ein unnötiges "gefrickel".

Ja und nein.

Vereinfacht:
Sofern ein "Laie" in der Lage ist, eine Erweiterungskarte (gleich welcher Art) in einen PC zu friemeln, Treiber zu installieren etc., sollte ihn auch die mögliche Anwendung eines FLs nicht überfordern.

Der "Rest" ist ohnehin nicht Zielgruppe jeglicher Einzelhardware.
 
Zuletzt bearbeitet:
Die Karte(n) kann man auch einbauen lassen. Wenn etwas nicht läuft lässt man den Nachbarsjung mal schauen. Gibt viele Konstellationen. Hatte selbst mal nen Kumpel für den ich alles gemacht habe, aber das hat natürlich Grenzen. Für jeden Kleinkram fährt man da nicht hin.

Und ich weiß, Autoanalogien sind mist, aber wenn mein Ferrari (aka Opel Astra) nicht läuft, dann bring ich ihn auch einfach zur Werkstatt. Der Typ erklärt mir dann zwar was das Problem war, ich verstehe das sicher auch, aber mich interessiert am Ende nur ob die Kiste wieder fährt.

Und so geht es dem geneigten Laien beim Einsatz eines SLI/CF evtl. auch. Hauptsache läuft und das bitte out of the box.
 
Ja, Autoanalogien sind Mist. Wenn ich in der Werkstatt bin, versteh ich tatsächlich nix, egal wieviel Mühe der Herr oder die Dame sich mit den Erklärungen gibt :D
 
Mal ne ganz doofe Frage:

Warum ist die

HD7970 im Crossfire langsamer als eine HD6970 im Crossfire:

Wenn wir uns hier Metro 2033 anschauen, kommt sie auf 39,7 Frames, bei 2560 x 1600 4xAA 16xAF

Hier die 6970 bei gleichen Einstellungen 52,7 Frames

Wie kann das sein?
 
Im alten Test ist DOF ausgeschaltet. Steht über den Messungen im letzten Satz.
Das läuft erst mit der neuesten Generation mit ner Single-Karte flüssig.
 
mMn geldverschwendung :O eine gtx von der klasse ohne sli würde 88,874163% aller otto-normaluser reichen ;) trotzdem beeindruckend was sich machen lässt.
 
Geldverschwendung hin oder her: Metro 2033@max. Details inkl. Tesselation und DOF oder Crysis2@ultra details@DX11@texture pack durchgehend mit mehr als spielbaren framerates zocken zu können hat was für sich :). Bei Crysis2 komme ich fast nie unter 60fps.

Muss hält jeder für sich entscheiden, für was er sein hartverdientes Geld ausgibt. Wirtschaftlich oder besonders sinnvoll ist es sicher nicht.

MfG mmic29
 
Also ich hab schon die 2GB Vram auslastung bei Crysis 2 mit texture mod , da müsste doch die GTX680 voll einkacken :D.

Crossfire of , sind jezt nur 1,8GB , aber an einigen stellen sind 2GB locker drinn .
 
Zuletzt bearbeitet:
hab jetzt 2x dieser babys bei mir laufen

die beiden 680er lachen bf3 sogar mit downsampling (2400x1500) und diversen FXAA filtern total aus... hammer bildqualität die ich mir jetzt erlauben kann
 
@sonymike
Was hat FXAA mit Hammer-Bildqualität zu tun? Das ist ein widerlicher Weichzeichner, der ungefähr auch erreicht wird, wenn Du die Auflösung auf 1600x900 reduzierst und Dir die Interpolation Deines Monitors gibst. :)

Mach's mal testweise aus, wenn Du ein scharfes Bild willst.

@Quad-core
Schon mal was von Streaming gehört? Oder warum glaubst Du, dass die Graka PLÖTZLICH einbricht, nur weil das VRAM-Limit mal überschritten wird?
Demnach müssten die Konsolen mit ihren 256MB(?) VRAM ständig einbrechen.
 
@Quad-core: nö, machen die beiden nicht. Es läuft butterweich (auch wenn Du es nicht hören willst ;)).
 
@Quad-core

Läuft super mit einer GTX680@stock 1920er DX11 Ultra HighResTexturen

 
Daß BF3 für ein SLI aus 2 GTX 680 überhaupt kein Problem darstellt, kann ich auch bestätigen. Ich spiele mit DS (2880x1800 auf einem 1920x1200 Monitor) und BQ auf vollem Anschlag, da ich für einen gleichmäßigen Frameverlauf Adaptive VSync nutze, takten sich die GPUs im Spiel teilweise auf 706MHz runter, mangels Beschäftigung. VRam Nutzung sind max. 1,8GB.
In Crysis 2, BQ auch absolutes Maximum, haben die Karten schon ein klein wenig mehr zu tun, ist natürlich trotzdem auch kein Problem.
 
Quad-core schrieb:
Also ich hab schon die 2GB Vram auslastung bei Crysis 2 mit texture mod , da müsste doch die GTX680 voll einkacken :D.

Das läuft selbst mit 2x470GTX@750 mit nur 1,280MB RAM (DX11 + Texture + alles was geht) jederzeit mit 50MinFPS. Keine Frameeinbrüche etc.

Wie das nur wieder möglich ist? Vielleicht wird nichts so heiß gegessen wie gemessen.
 
Zuletzt bearbeitet:
Zurück
Oben