Benchmark: 8800GT gegen HD3870

Wenn ich das richtig verstanden habe ist die HD3870 und die HD3850 identisch bis auf den GDDR4 Speicher bei der 70er. Interessant könnte also auch der sehr günstige Crossfire Verbund zweier HD3850 sein. Dieser könnte ja in wenigen Wochen schon zum Preis einer "alten" 8800gts zu erstehen sein. Der Leistungszuwachs ist ja doch recht beachtlich und der Stromverbrauch würde trotzdem auf dem Niveau der HD2900 liegen.
 
Zuletzt bearbeitet:
find ja den kühler auch interessant. n stück alu oder wie? garkeine heatpipes?
jetz weiß ich auch, wieso des n dual-slot iss ;) iss so natürlich günstiger.
 

Anhänge

  • 3870front.JPG
    3870front.JPG
    162,3 KB · Aufrufe: 721
Tzz, der sieht aus.
Ein paar Kühllamellen und das wars. Naja, wenns reicht, kann es einem doch egal sein ;)
 
Was eine SingleSlot-Lösung bringt, die man mit aller Gewalt umsetzen will, zeigen ja die Temps der 8800 GT. Sind zwar sicher noch im grünen Bereich, aber kühler ist mir lieber. Und wenn das mit der DualSlot-Lösung ohne Heatpipe besser klappt als SingleSlot mit Heatpipe - na dann, soll's eben so sein. Der Erfolg scheint ATI für's erste recht zu geben.
 
Wenn man die 3DMark-Punkte auch auf Spiele übertragen könnte, wäre die HD 3870 sogar der 8800 GT vorzuziehen, solang der Preis stimmt. Denn sieh hat ja DirectX 10.1 und einen niedrigeren Stromverbrauch. Schon unglaublich was mit der R600-Architektur trotz 256 Bit möglich ist, falls das stimmt.
 
Nun wird einem auch klar, wieso Nvidia das Hauseigene Preissystem übern Haufen geschmissen hat. Die wussten eben, dass ATI ein Preisknaller rausbringen wird und wollten mit aller Macht etwas gleichwertiges auf den Markt schmeißen.
Resultat: Eine 8800GT die schneller als die größere Schwester GTS ist und fast an eine GTX ran kommt.
 
In den Benchmarks ist die HD3870 CrossFire etwa 60-80% schneller als eine einzelne.
Wäre der Leistungszuwachs in Spielen etwa gleich oder sogar noch höher?

Denn wenn die 3870 so um die 200 €uro kosten würde und die 3850 150 €uro, dann wäre ein CrossFire System preislich recht atraktiv und man könnte sogar Crysis einigermaßen flüssig spielen. :)
 
Das sieht schon alles sehr gut aus! Die HD3870 wird wohl (wenn sich alles bewahrheiten wird) meine nächste Grafikkarte sein und die X1800XT beerben. Kann man davon ausgehen, dass die HD3870 bis Februar genau 200€ kosten wird?
Was mich ein wenig wundert ist, warum ATI auf der RV670 Basis keine "Overkill" Grafikkarte bringt, die der GTX Konkurrenz machen kann (Es ist mir schon klar dass mit diesen Karten nicht so viel Geld gemacht wird aber es wäre für die Prestige ganz wichtig).
Wenn sich die RV670 Karten gut übertakten lassen und eine niedrige Leistungsaufnahme haben, wovon man ausgehen kann, wäre es doch nicht schwer durch Selektion eine
"HD 3890" mit ca. 850Mhz Coretakt und einem noch höher-getakteten GDDR4 Speicher rauszubringen. :freak: Aber das ist nur Wunschdenken...
 
Oh yeah Baby gib's mir - die langhaarige Rote kommt bei mir auch rein und vielleicht gesellt sich eine zweite im Januar dazu. Im Februar wird, denke ich, der Preis nochmal ein wenig gedrückt und davor wird sowieso im Januar eine Multi GPU Karte aka HD 3870X2 erscheinen, die für wenig Geld mit der schweren Konkurrenz zu kämpfen hat.

Ich bin mir jetzt schon sicher - die Kunden werden den Rv670 lieben :D
 
Wenn der Preis stimmt, dann ist die Karte ja nicht schlecht :)...und das sage ICH als nvidia-fanboy :D:D...aber mich interessiert jetzt mal eines...ich will mir jetzt keine Feinde oder so machen, aber wieso schauen alle so sehr auf den Stromverbrauch der Karte?? Es handelt sich ja hier nicht um 50€ monatlich die wegen der Karte weggehen...oder hab ich da was verpasst?? :lol:...also wenn ich mir eine Karte ( eine NVIDIA halt :D:D ) kaufe....ist mir der Strom egal, Hauptsache sie hat Leistung
 
ww2warlord schrieb:
Ich bin mir jetzt schon sicher - die Kunden werden den Rv670 lieben :D

Is doch n Zitat von Dirk Meyer, Chief Operating Officer von AMD;)

Ich warte am besten auf nen ausführlichen CB Test:)

mfg
 
2xkurz = 1xlang :lol:
außerdem kann ich ww2 nur zustimmen, wenn das so ist besucht mich auch bald ne neue ATI :D
 
Jole schrieb:
aber wieso schauen alle so sehr auf den Stromverbrauch der Karte?? Es handelt sich ja hier nicht um 50€ monatlich die wegen der Karte weggehen...oder hab ich da was verpasst?? :lol:...also wenn ich mir eine Karte ( eine NVIDIA halt :D:D ) kaufe....ist mir der Strom egal, Hauptsache sie hat Leistung

Innerhalb einer gewissen Bandbreite - für mich sind das so 90-120/130W etwa - gebe ich Dir recht.
Aber wenn man sich ansieht, was bspw. die X2900XT zieht, dann kann einem schon schlecht werden. Liegt ja nicht nur an der Stromrechnung direkt, sondern auch an einem evtl. stärkeren und stabileren NT, das dann rein muß; und für mich auch an der produzierten Abwärme, weil mehr Strom = tendenziell mehr Abwärme. Die Karte muß dann erstmal entsprechend gekühlt werden, und da wir alle miteinander wissen, daß die Serienkühler meistens entweder kühlen oder leise sind - aber nur selten beides zusammen - ... ...

Naja, und nach der technischen Definition des PCIe2.0 kann man sich zumindest theoretisch schonmal warm anziehen was den Strombedarf in Zukunft angeht.
Von daher schon erfreulich, daß es bei der HD38x0 trotz PCIe2.0 sehr sparsam zugeht, oder?
 
branhalor schrieb:
Naja, und nach der technischen Definition des PCIe2.0 kann man sich zumindest theoretisch schonmal warm anziehen was den Strombedarf in Zukunft angeht.
Haben sich nicht die OEMs dafür eingesetzt, dass man sich dann die zusätzliche Stromzuführung direkt mit dem Netzteil sparen kann und somit die Luftzirkulation im Gehäuse verbessert wird?
 
Zurück
Oben