480GTX SLI oder 5870 Crossfire?

Ich stimme schaffe 89 in allen Punkten zu

mir wär das mit der kühlung von der gtx 480 einfach viel zu teuer ich würde da auch nicht lang nachdenken
und sofort aus ökologischen und preis leistungs gründen zur toxic greifen

oder die umtauschen und zur deutlich leiserer powercolor PCs+ greifen

hol dir fraps und Teste mal beide Karten genau aus
dann entscheide ob du mit nem föhn im pc zwar schneller (nv Game) spielen kannst aber dann glaubst dir hebt der pc gleich ab

Dann schau dir den Test von cb über die PCs an die unter last 1/4 so laut ist wie die gtx

Naja viel Spaß beim grübeln
 
Die Temperatur ist bei einem 5870 CF allerdings auch recht hoch.

Ja frag ich mich auch.
Komisch ist warum das GTX275 three Way Sli so kühl bleibt. Komische Ergebnisse.
Auch komisch kommt mir vor, dass das GTX275 SLI 100Watt weniger ziehen soll als ein 5870 CF.
Da sindwohl einige Werte im Excel falshc eingetragen worden.
 
Zuletzt bearbeitet:
Was ist denn mit den Eyefinity Karten? Funktionieren die auch im CF Verbund?
Und kann man da ohne weiteres Adapterstecker auf den Display Port fuer DVI-D stecken?
Oder sind die Karten wirklich nur fuer Multi Monitor Systeme?
Leider ist die Auswahl bei 2GB Radeons sehr beschraenkt!
 
Das Problem der Eyefinity-Versionen kann aber in der u.U. ungünstigeren Treiberunterstützung für Spiele liegen, da es meines Wissens eigene Treiber für die Eyefinity-Karten gibt. Beschwören trau' ich mich das aber nicht.^^
 
2gb !

Im PCGH Test kommt sie auf knapp 3,0 Sone unter Last. Waere deutlich leiser als mein die Toxic oder die 480.

Aber ich wuerde gerne realistische Erfahrungen hoeren.
Ergänzung ()

Ich hab mir jetzt mal 2x die Vapor-X mit 2GB betsellt.
Werde dann mal berichten, ob ich damit zufrieden bin, oder doch wieder zu NVidia greife.
Aber ich hoffe, dass ich keine Wakue einbauen muss.
 
In dieser Preisklasse würde ich sowieso testen und bei Nichtgefallen die Ware zurück senden. Anders ist es kaum möglich weil fast niemand so etwas besitzt.
 
Ich würde da eher auf die Tests gehen.
Erfahrungswerte sind höchst subjektiv und gehen teilweise in ganz andere Richtungen.
2GB sind nutzlos, wenn du kein HD5870CF betreibst.
 
Schaffe89 schrieb:
Was seid ihr denn füR Nerds @ HisN.^^
Was fährst du denn bitte für Einstellungen? Anno1404 läuft doch selbst n 2560x1600 mit 4xAA@ HD5870 flüssig.

Du kennst mich doch :-) So viel wie möglich^^. Aber ich glaub ich bin wie üblich sogar bei nur 2xAA geblieben. Kanns im Moment leider nicht nachprüfen (wieder RMA)
Und schalte ich eine der beide 5850@70 auf der 5970 ab hab ich noch etwa 20-30 FPS bei Anno. Das macht leider gar keinen Spaß. Sobald das CF an ist und 60 FPS vsync bringt bin ich glücklich, die Abstürze auf 10 FPS (die übrigens andere CF-User hier bestätigt haben, bei kleineren Karten sind sogar bei kleinerer Auflösung nur 2 Min-FPS) deuten auf ein CF-Problem hin :-(
 
Ich möchte gar nicht wissen, was du mit deiner Karte anstellst, wenn die schon wieder in der RMA ist, die muss einem ja leid tun, ohne Scherz.
Zitat von CB:
Geblieben sind weiterhin die Mikroruckler, die bei vier ATi-GPUs vermehrt auftreten. Bei zwei Rechenkernen halten sie sich noch in Grenzen und über 30 FPS ist meist Entwarnung zu geben.
 
Zuletzt bearbeitet:
Andy_O schrieb:
Ergänzung ()

Ich hab mir jetzt mal 2x die Vapor-X mit 2GB betsellt.
Werde dann mal berichten, ob ich damit zufrieden bin, oder doch wieder zu NVidia greife.
Aber ich hoffe, dass ich keine Wakue einbauen muss.
Da steht es doch.
Also ist die Diskussion geklärt..warten wir einfach ab bis der TE den CF getestet hat und hier sein Statement abgibt.
 
Danke für die Info mit den Microrucklern. Das hat mir ehrlich gesagt noch ein bißchen Kopfzerbrechen gemacht.

Jetzt muss die Karte nur noch bei Mindfactory oder DriveCity lieferbar sein.
Bin echt selber gespannt, wie sich das CF System dann anhört und vor allem wie es sich damit zockt! :)
 
Ich bin wahrlich kein Umwelt-Prediger, aber ich finde allein eine GTX480 als eine hirnrissige investition. Ich würde genau wie einer meiner Vorredner deine HD5870 2GB behalten, übertakten und auf die neuen Grakas warten, die sowieso dieses Jahr kommen sollen. 2 GTX480 verbrauchen über 200W (!) mehr als 2 HD5870 unter last, und das ist schon echt krass. Bei nur 2 Stunden volllast pro tag sind das 400-450W mehr pro Tag, hinzu kommt der idle verbrauch von sagen wir 3 Stunden am Tag was wieder um die 60W mehr pro tag sind, sprich insgesamt über 500W mehr. Bei 300 Tagen betrieb im Jahr und einem kWh preis von ca. 0,20€ kommt man auf einen Mehrpreis der 2 GTXen von 30€. Und dieses Beispiel liegt min. 30% unter dem Standard. Von dem Leistung-Pro-Watt-Verhältnis bei Multi-GPU garnicht erst zu sprechen.
Eine Grafikkarte wird es bei den meisten Spielen auch tun meiner Meinung nach. Details runter und es klappt schon. Und ohne neuen Kühler und guter Kühlung des Gehäuses werden die Karten zu 100% einige male an heißen Sommertagen abstürzen, weill sie dann weit über 100° erreichen werden.
Dies ist mir schon bei älteren Grakas passiert mit deutlich weniger Stromverbrauch.
 
du glaubst aber nicht wirklich, dass es jemanden, der grakas für fast 1000€ kauft und mit dem gedanken spielt sich eine Wakü dazuzukaufen, interessiert, dass er 40€ im jahr sparen könnte, wenn er schwächere karten einsetzt, oder?
 
Gutes Argument :D und trotzdem: lohnt sich der Aufpreis für die paar FPS mehr? und die zusätzliche Lautsärke(da er ja keine WaKü will) und höhere Temperatur für volle Details? Meiner Meinung nach ist das total unverständlich!
 
<-- würde auf die FPS verzichten, 60 FPS vsync und gut ist. Aber mehr BQ ist einfach göttlich.
 
Nur das die bisschen mehr FPS sich dann ja auch nicht flüssiger anfüllen.
Vor allem wenn man wegen Tearing dann auch Vsync reinhauen muss und nur minimal unter der 60FPS Marke ist, reduzieren sich die FPS auf effektiv 30.
 
Die meisten Games machen trippe buffering mit, die 30 FPS only-Zeiten sind fast völlig vorbei. Ein oder zwei Bilder die doppelt ausgegeben werden fallen (meiner Meinung nach) nicht auf solange es nicht regelmäßig stottert^^
 
Tripple BUffering funktioniert doch nur unter OpenGL ?
Außer man erzwingt es per Tool.
 
Zurück
Oben