2 x GTX 580 (SLI), Netzteil ausreichend?

Cordesh

Lt. Commander
Registriert
Feb. 2011
Beiträge
1.905
Hallo,

ich spiele RIFT auf einem 30 Zoll Monitor mit der nativen Auflösung von 2560x1600 Pixel.
Da bei höchstmöglichen Details die Frameraten teils deutlich unter 30 FPS fallen, denke ich über eine zweite GTX 580 im SLI nach.
Über Nachteile wie Mikroruckler und den hohen Stromverbrauch bin ich mir bewußt.
Ich würde das Spiel halt gerne in seiner ganzen Grafikpracht und der hohen Auflösung genießen.

Mein Rechner besteht aus:

Asus P8P67 Evo
i7-2600 (kein "k")
Nividia GTX 580 1536 MB (Gainward)
16 GB RAM (4x4)
Cooler Master Silent Pro Gold 700W

Mit einem Leistungsmessgerät (gabs mal bei Tchibo) erreiche ich max. 350 Watt beim Spielen.
Da die GTX 580 ja rund 250 Watt unter Vollast verbraucht, käme ich so auf ~ 600 Watt gesamt.

Computerbase hat hier jedoch mit ihrem System mit 2 GTX 580 einen Wert von 718 Watt erreicht.
Sind die 350 Watt (nur eine GTX 580!) die ich gemessen habe realistisch?

Ich frage mich nun ob mein Netzteil ausreichend für SLI ist.
Wie "nah" an die 700 Watt des Netzteils darf man kommen?

Danke für eure Antworten!
 
Zuletzt bearbeitet: (GRAKA hinzugefügt)
Der Wert ist realistisch. Weil in Spielen halt keine Maximallast gefahren wird.

das NT reicht, wenn du "nur" spielst. In diversen Benchmarks, die eine künstlich hohe CPU und GPU Last erzeugen, knackst du bestimmt die 700W. Aber wenn du das nicht machst, sollte das passen. Aber schau vorher mal nach, ob dein NT genügend PCIe Stromanschlüsse hat^^
 
Das sollte schon reichen. Die Silent Pro Gold Netzteile kommen auch recht gut mit einer Überlast (z.B. beim 600W über 30%) zu recht, wobei man aber solche Lastzustände besser nicht zu oft fahren sollte. Aber die Grundstabilität wird dein Netzteil liefern.
 
du kannst normalerweise die 700W auch erreichen. Es sollte reichen solange du die GTXs nicht dramatisch übertaktest. Da Du unter Last 70 W unter dem CB Sys liegts, wirst Du das auch bei SLI so sein, sprich du landest ca bei 650W max...

Mein Sys erreicht unter Vollast (OCCT + Furmark Knapp 400, allerdings schaltet meine GTX auch nicht runter und hat 2x 8Pins..)
 
das Netzteil hat alle Sicherheitsvorrichtungen! Probiers aus, das schlimmste was passieren kann, ist das der Rechner aus geht, dann solltest Du Dir ein neues NT kaufen - sonst alles ok!
 
Die 718W die CB (mit einem übertakteten Prozessor wohlgemerkt) gemessen hat, sind ja vor dem Netzteil. Bei 80% Wirkungsgrad wären das 575W Leistungsaufnahme der Komponenten, also noch deutlich innerhalb des Leistungsbereichs eines 700W Netzteils. Sollte es doch nicht reichen, schaltet das NT halt einfach ab.

Davon abgesehen: SLI ist quatsch, aber über Nachteile weißt du ja scheinbar schon bescheid.
 
"del"
 
Bedenke, dass es RIFT noch an Optimierungen fehlt, es ist noch im Beta-Stadium.

Ich selber habe bei 1920x1080 auch 30 FPS. Ich glaube kaum, dass eine zweite 580 mehr Leistung in diesem Spiel bringen wird. Zumindest zum jetzigen Zeitpunkt.
 
Computerbase hat hier jedoch mit ihrem System mit 2 GTX 580 einen Wert von 718 Watt erreicht.
Sind die 350 Watt (nur eine GTX 580!) die ich gemessen habe realistisch?

Du musst aber auch die Hintergründe betrachten: CB verwendet einen übertakteten i7 965 (130W TDP), du hast einen i7 2600 mit nur 95W TDP (ohne Übertaktung, richtig?).

Laut HT4U braucht die GTX 580 unter Spielelast 250W (wie bereits erwähnt): http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index13.php. Also: 2 * 250 + 95 (CPU) + 50 (Rest) ~ 645W. Das sollte dann aber auch das Maximum darstellen, da die Last unter Spielen variiert, wird es im Schnitt wohl weniger sein.

Dein NT liefert 672W auf der 12V Leitung, das sollte also hinhauen, sofern du nicht Prime und Furmark gleichzeitig laufen lässt ;)
 
digitalangel18 schrieb:
Davon abgesehen: SLI ist quatsch, aber über Nachteile weißt du ja scheinbar schon bescheid.

Ich glaub schon:

Ich werde mir im Sommer eine Klimaanlage wünschen, es können Mikroruckler auftreten, ich sollte schon mal Geld sparen für die Stromabrechnung, wieviel es letztlich bringt ist vom Spiel abhängig.

Sonst noch was? (ist ernst gemeint)

Danke für eure Antworten.
 
Genau, einfach ausprobieren, das Netzteil schaltet zur Not! Ansonsten könntest du ggf. ein Bild posten vom Netzteil (seitlich stehen Info's am Netzteil).
 
manu0815 schrieb:
Genau, einfach ausprobieren, das Netzteil schaltet zur Not! Ansonsten könntest du ggf. ein Bild posten vom Netzteil (seitlich stehen Info's am Netzteil).

Die Daten vom Netzteil sind:

Leistung Gesamt 700 Watt
Combined Power 3,3V/5V 150 Watt
Combined Power 12V 672 Watt
Effizienz 90 %

Standard ATX 2.03, EPS, ATX12V 2.3

Hauptanschluss
1 x ATX (20-polig) oder
1 x ATX 2.x (24-polig) oder
1 x EPS (24-polig)

Laufwerksanschlüsse 4 x 5,25 Zoll
1 x 3,5 Zoll
9 x SATA

Grafikkartenanschlüsse 3x PCI-Express 6+2-polig, 3x PCI-Express 6-polig

Stromstärken +3,3V 22 Ampere
+5Vsb 3.5 Ampere
+5V 25 Ampere
+12V Gesamt 56 Ampere
-12V 0.3 Ampere

Rückseite
Netzschalter

Schutzfunktionen Schutz vor Stromspitzen (OCP), Überspannungsschutz (OVP), Unterspannungsschutz (UVP), Überlastschutz (OLP/OPP), Kurzschlussschutz (SCP), Überhitzungsschutz (OTP)

Eigenschaften Aktiv PFC

Features ATX12V 2.3, EPS12V 2.9x, Kabel-Management, Lüfter temperaturgeregelt, 80 PLUS Gold zertifiziert, NVIDIA SLI-Ready zertifiziert, ATI CrossFireX zertifiziert

Bauform ATX
 
@ Cordesh

schonmal drüber nachgedacht eine AMD Karte zu kaufen? 2GB/4GB? 69xx?

und bedenke das 2 x 580er nicht gleich 2 x 100% sind ;)
 
Das zwei Karten nicht gleich zwei mal soviel FPS bedeuten weiß ich.

Denkst Du das mehr Speicher und AMD statt NVIDIA hier auch mehr FPS bringen?
Mir ist der Hersteller egal, ist seit vielen Jahren meine erste NVIDIA, vorher immer ATI/AMD, aber ich dachte die GTX 580 wäre derzeit die schnellste Karte?
 
SLI würde ich CF immer vorziehen. AMD hinkt bei MGPU immer noch hinterher (Profile, Mikroruckler...).
Ich würde schon ein 800W Netzteil nehmen. Wenn du die Karten mal doch noch übertakten willst oder eine andere CPU einbaust...dann denk dran, dass der Verbrauch mit der Wärmeentwicklung steigt und du ja noch "Kleinkram" wie Board, RAM, Platten, Laufwerke, Lüfter, evtl. Steuerungen, LEDs, Pumpen etc. drin hast. Und dass die höchste Effizienz von Netzteilen bei etwa 80% Auslastung liegt.
 
Denkst Du das mehr Speicher und AMD statt NVIDIA hier auch mehr FPS bringen?

Der Test der 6970/50 hat gezeigt, das für 2560*1600 + 8 x AA aktuell keine 2GB Speicher nötig sind (ganz unten): https://www.computerbase.de/artikel/grafikkarten/amd-radeon-hd-6970-und-hd-6950-test.1389/seite-26#abschnitt_performancerating_mit_aaaf
Der Test der GTX 580 3GB zeigt weiter, dass die GTX 580 mit mehr Speicher auch nicht schneller wird: https://www.computerbase.de/artikel/grafikkarten/2x-geforce-gtx-580-test.1427/seite-4#abschnitt_performancerating

Da kannste besser an der Taktschraube drehen ;) Außerdem muss die zusätzliche Leistung in anderen Spielen nicht vergeudet bleiben, mit Downsampling und SSAA kann man die Bildqualität steigern und so die überschüssigen FPS verbraten :)

boxleitnerb schrieb:
Ich würde schon ein 800W Netzteil nehmen. Wenn du die Karten mal doch noch übertakten willst oder eine andere CPU einbaust...

Sich für eine Eventualität ein anderes NT zu holen ist doch völliger Unfug. Wenn eines dieser Vorhaben umgesetzt werden soll (fraglich, ob die neue CPU überhaupt mehr verbraucht?), kann er sich doch immer noch ein neues NT holen. Bis dahin wäre das rausgeschmissenes Geld!
 
Zuletzt bearbeitet:
ist sie auch, und es wäre eine sträfliche Dummheit nur wegen des Speichers auf eine HD6970 zu wechseln. Denn solange du es nicht mit Texturmods oder 32-facher Kanteglättung übertreibst reichen auch die 1,5GB der GTX 580 dicke, trotz 4K-Auflösung.

mfg
 
Andi27 schrieb:
@ boxleitnerb dann beschäftige dich mal richtig mit SLI und Crossfire, es nehmen sich beide nix ;)

Das stimmt nicht. Nvidia tut aktiv etwas gegen die Mikroruckler, AMD weicht den Fragen diesbezüglich nur aus (nachgeholter PCGH Fragerunde mit AMD statt dem abgesagten Themenabend).

Außerdem würde ich in dem Leistungsbereich AMD sowieso nicht empfehlen. Denn nur bei Nvidia kann man auch in modernen Spielen die Leistung in Bildqualität umsetzten (SSAA, Downsampling). Lieber ein homogenes Bild bei 50fps statt eine Kanten-,Shader-,Texturflimmerorgie bei 80fps.

Held213 schrieb:
Sich für eine Eventualität ein anderes NT zu holen ist doch völliger Unfug. Wenn eines dieser Vorhaben umgesetzt werden soll (fraglich, ob die neue CPU überhaupt mehr verbraucht?), kann er sich doch immer noch ein neues NT holen. Bis dahin wäre das rausgeschmissenes Geld!

Ich bin kein Freund davon, Komponenten am Limit zu betreiben. Das senkt nur die Lebenszeit und erhöht bei einem Netzteil die Lautstärke. So ein Netzteil hält Jahre und mMn die wichtigste Komponente im Rechner. Er muss ja nicht gleich 1000W nehmen. Aber 700 halte ich für etwas zu wenig. Es wäre ärgerlich, nachher wegen 50-100W alles auseinanderbauen und das NT mit Wertverlust verkaufen zu müssen, sollte es hier und da doch nicht reichen. Ein kleiner Puffer ist nie eine schlechte Idee. Ist in der Geiz-ist-geil Welt vielleicht nicht verständlich.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben