• ComputerBase erhält eine Provision für Käufe über eBay-Links.

2te HD4870 sinnvoll?

Rulrul

Lieutenant
Registriert
Aug. 2008
Beiträge
978
Nabend.

Bin grad wegen nem anderem thema hier zufällig auf diese Gainward HD4870 gestoßen und würde gerne eine kleine diskussion unter den nicht "kauf nur das neueste" anhängern starten.

http://www.ebay.de/itm/Gainward-HD-...er_Computer_Graphikkarten&hash=item43b6977166

Wie man in meiner signatur sieht, handelt es sich dabei um genau die gleiche wie in meinem System.
Nun die Frage, lohnt es sich mit zu bieten?

Pro:
- 2 identische grakas und rund 20€ sind nicht die welt.

Kontra:
- gibt es eine wirkliche leistungssteigerung? und es sind 20€ weniger auf meinem ersparrniss weg zu ner 830er SSD

Soweit ich das sehe, sollte es wegen steckplätzen an meinem MB kein problem geben, platz im gehäuse ist auch genug vorhanden und mein NT hat noch genug unbenutzte stecker.
 
Abwärme 2 dieser Karten ist einfach abartig hoch und in der Leistungsklasse wirst du auf jeden fall nen Übles opfer von MicroRucklern werden.
In mein augen wird das eher frust als lust
 
Naja, sinnvoll ist so eine Sache.

Der Leistungsgewinn wird je nach Anwendung zwischen 96 und -10% liegen (ja, es kann auch einen Malus geben). Hängt stark davon ab, ob die Anwendung optimiert ist und ob es Profile im Treiber gibt.

Der Stromverbrauch wird logischerweise verdoppelt. Das macht sich ziemlich extrem bemerkbar. Eventuell kriegst du auch Probleme mit deinem Netzteil - 160W oben drauf machen nicht so viele Netzteile problemlos mit. Unbenutzte Stecker hin oder her, die Leistung muss stimmen.

Auch kriegst du bei mehreren Karten Probleme mit Mikrorucklern. Das kann GEWALTIG stören, weil du trotz hoher fps nur ein sehr ruckelndes Bild hast.

Dafür spricht, dass du mit 20€ nirgends eine derartige Leistungssteigerung kriegst.

Dennoch würde ich dir ernsthaft davon abraten. Auch wenn du kein "kauf dir nur das neueste"-Anhänger bist, so fährst du objektiv wirklich besser deine Karte so lange zu behalten, wie du damit auskommst, und wenn es mal nicht mehr langt, direkt was vernünftiges Neues zu holen. Schon eine 7770 ist stärker als die 4870 (natürlich mit knapp unter 100€ auch teurer als die 20€-Karte), erspart dir aber nen Haufen Probleme drumherum.
 
Hi,

Crossfire (hieß das so?) lohnt sich imho nur, wenn es eine high-end-Karte ist oder du basteln willst (hier würde ich nicht von lohnen reden..)

Prob: keine 100% Skalierung, Mikro-Ruckler, sowie der hohe Stromverbrauch.

Spar lieber, verkauf die HD4870, und kauf Dir eine andere, neuere (gebrauchte) Karte :-)

Grüße JS
 
Zuletzt bearbeitet:
Crossfire oder SLI mit Lowend oder Midrange ist einfach nur Schwachsinn ...
sowas verbaut man wenn die Highend nicht genug Power hat und auch nur dann !

Mikroruckler anzuzführen ist aber ebenso schwachsinnig denn die haben nur DAUs! nen ordentliches aufgesetztes Crossfire oder SLI System kommt gar nicht erst in den Framebereich wo die zum tragen kommen ... deswegen macht man sowas auch nicht mit Lowend / Midrangekarten ... wo wir wieder bei den DAUs wären.

Einzigstes Argument was wirklich zählt bei SLI / Crossfire ist der Stromverbrauch ... aber ehrlich gesagt ? drauf geschissen!


im idle ziehen die nämlich auch jeweils 50watt aus deiner steckdose, macht also 100watt nur für zB das anzeigen des desktops, oder wenn du im internet rumsurfst auf facebook, oder computerbase verbrutzelt deine kiste 100watt für das anzeigen einer website.
Die HD4870 ist eine der stromhungrigsten Karten im Idle (>50W), da braucht eine, schon so viel wie ein modernes Gesamtsystem - rein von dem Aspekt aus ist es schon mal gar nicht zu empfehlen - Idle Stromverbrauch würde wohl bei 150-200W liegen.
genau dafür hat man nen BHKW im Keller und Solarthermik & Solarstrom auf dem Dach! steigende Strompreise ? Wayne? oder eher umso besser, dann kriegste auch mehr fürs Rückspeisen ...
 
Zuletzt bearbeitet:
nein, lohnt sich auf keinen fall...

2x4870 ziehen in etwa 300watt aus deiner steckdose, als beispiel: wenn du jeden tag im durchschnitt 3 stunden zockst (an einigen tagen mehr, an anderen weniger), sind das 3x0,300kWh also 0,9kWh mal 365 tage = 328,5 kWh

eine kWh wird ab dem 1 Januar mit eeg-umlage schon eingerecht deutschlandweit im durchschnitt 25 cent kosten.

macht ingesamt 82euro für ein jahr spielspaß mit den alten pixelschleudern, ...

richtig teuer wird es wenn du mit deinem rechner viel rumidlest, denn die karten haben eine richtig schlechte energiesparmodi

im idle ziehen die nämlich auch jeweils 50watt aus deiner steckdose, macht also 100watt nur für zB das anzeigen des desktops, oder wenn du im internet surfst auf facebook, oder computerbase verbrutzelt deine kiste allein 100watt für das anzeigen einer website (da kommt natürlich noch der stromverbrauch von cpu, mainboard, und deiner restlichen hardware dazu... )


wäre hilfreich uns zu schreiben welche spiele du zur zeit zockst und in naher zukunft beabsichtigst zu spielen
 
Zuletzt bearbeitet:
Ich hab CF ein mal mit zwei 5870 ausprobiert als sie noch relativ neu waren, und meine Erkenntnisse daraus: da wo ich vorher ~30 fps als flüssig empfand waren plötzlich ~45 fps nötig, um das gleiche "es läuft rund" Gefühl zu erzeugen. D. h. ein Großteil der Mehrleistung verpuffte einfach in der gesteigerten Anzahl Grund-FPS. Die Skalierung war abhängig vom Spiel zwischen 0 und niemals vollen 100 %, und witzigerweise hatte ich selbst bei 60 fps teils noch das Gefühl, dass die Framezeiten stark unterschiedlich waren*. Zudem dann noch das rumgemache mit CF-Profilen, und bei mir ist in unregelmäßigen Abständen eine der Karten immer ausm CF-Verbund geflogen (was ich nur daran gemerkt hab, dass auf einmal alles butterweich lief und nach ein paar Tagen dann "aha die eine Karte hängt garnicht mehr im CF drin!) und wollte aufs verrecken nicht mehr rein, was dann noch Treiberinstallation, Kartenausbau und -Slottausch und den ganzen Rotz nach sich zog. Mein persönliches Fazit daher: In absehbarer Zeit kein CF mehr, und wenn überhaupt dann allerhöchstens mit der aktuell schnellsten Single-GPU-Karte, alles andere ist naja...


*am Vsync-Limit dann natürlich nicht mehr die Zeit zwischen der Bildausgabe, aber der Bildinhalt an sich.
 
Die HD4870 ist eine der stromhungrigsten Karten im Idle (>50W), da braucht eine... schon so viel wie ein modernes Gesamtsystem - rein von dem Aspekt aus ist es schon mal gar nicht zu empfehlen - Idle Stromverbrauch würde wohl bei 150-200W liegen.
Mir wäre eine schon zuviel.
 
Zuletzt bearbeitet:
hmm...
Interessant, es von mehreren aspeckten zu sehen.
Ist halt kein kaufberatungsthread, finde das debatieren nur interessant und wenn sich dabei halt die möglichkeit auf eine 2te graka eröffnet, warum nicht^^

Mit freien Steckplätzen meines NTs wollte ich eigentlich auf die möglichkeit anspielen, das nach oben offen noch platz ist. Hab damals ein NT mit mehr Watt gekauft, als eigentlich nötig, damit ich später problemlos dazubauen oder hochrüsten kann.
Abwärme mach ich mir keine großen sorgen, mein gehäuse ist mehr n Windkanal als gehäuse :D
Das mit den mikrorucklern hab ich nicht ganz verstanden, würden die nun erscheinen oder nicht?

Ich gehe mal theoretisch vorran:
Als Beispiel nehmen wir mal BF3.
BF3 schafft meine aktuelle mit anständiger Leistung, ich war selber Föllig überrascht beim ersten mal.
Beim umschalten auf 3D gings dann aber los.
3D ist ja quasi das selbe bild aus 2 perspektiven errechnen und leich übereinander legen.
Sagen wir also meine graka schafft BF3 mit 50FPS (rein ausgedachte zahl)
dann müsste diese graka BF3 mit 3D bei 25FPS schaffen
Würde ich nun einer 2ten Graka sagen, sie solle das 2te bild berechnen, käme ich doch dann wieder auf 50FPS, also 50+50FPS synchron.

Wie können dann da Mikroruckler entstehen? Ist ja nicht so, dass die grakas sich am abwechseln sind, sondern Synchron laufen. (deswegen hab ich u.a. auch drauf geachted, dass die angebotene Graka komplett mit meiner identisch ist)
 
Wie können dann da Mikroruckler entstehen?
Ganz einfach: Eine Aufteilung im Sinne von GPU1 berechnet linke Ansicht, GPU2 die rechte findet nicht statt. Alle Bilder werden von beiden Karten gleichermaßen berechnet. Die Aufteilung Rechts/Links wäre noch schwieriger zu synchronisieren und hätte noch schlimmere Ruckler zur Folge.
 
Zurück
Oben