Benchmark: 8800GT gegen HD3870

Da fällt mir ein. Wie viele Stream Prozessorne hat denn nun die hd3870? Hab son Bild vor Augen mit ca 400. Mal schaun ob ichs noch finde.

Zu Crysis : Also mir würds reichen wenn ich das Game im SP auf High ohne AA vernünftig zockeb könnte und multiplayer solls dann wirklich flüssig auf med laufen
 
hm also 416 streams geht doch garnicht auf, wenn es weiterhin 5D sind. 416 ist nich durch 5 teilbar^^
 
Die HD3870 ist zwar leicht hinter der 8800GT, aber allein schon das sie weniger Strom verbrauchen wird und durch 55nm Fertigung sich wahrscheinlich gut übertakten lässt ist ein Kaufgrund.

Dazu steht noch am Ende des Tests das sie die 3870 besser fanden weil das Bild besser aussah...noch ein Argument :D
 
Denke mal issn Auslesefehler von GPu-Z. Aber tacktet im Idle schön runter.

greetz

Auch schön. Braucht nur noch nen 6 Pin Anschluss.
 
Zuletzt bearbeitet:
Traurig daas der Stromsparmodus, den ich schon bei meiner 7800GT hatte heute wieder ein Kaufargument für oder gegen eine Karte ist weil er bei vielen Grafikkarten einfach nicht mehr eingesetzt wird:(
Gruß
 
Hallo zusammen,

also Leute, zu dem 3DMark kann ich wirklich nur den Kopf schütteln!! Wieso? Ganz einfach, schaut euch doch mal den CPUScore an! Da wird mit einer CPU gebencht, welche erstens momentan praktisch noch gar nicht zu haben gibt, 2.ten ist es ein Quad, was bedeutet, man muß mal die Hälfte abziehen für Leute welche einen Dualcoreprozessor haben und das sind bei weitem die meisten.

Außerdem scheint das Teil auch übertaktet gewesen zu sein. Nun, wenn man mal nur 2000 Points abzieht, welche ich den zusätzlichen Kernen anlaste, sieht die Sache schon anders aus.

Was mir aber bei Crysis auffällt, die scheinen höhere Grafiksettings zu haben, als "HIGH", was erklärt, wieso die Frames so im Keller sind.

Wenn alle Daten stimmen und ich keine GTS 640 schon hätte, würde es wohl voraussichtlich 3870 werden, denn in der Summe erscheint sie mir stimmiger als die 8800er GT zu sein.

So long....
 
Lar337 schrieb:
Und Crysis ist nicht schlecht programmiert sondern Grafiktechnisch zu hoch entwickelt für die heutigen GraKas.

Das ist aber bei vielen Spielen der Fall:
  • Gothic2 kann man in der Sichtweite bis auf 200% aufdrehen - meine X1800 XT damals ist bei 140-160% ins Schwitzen geraten, und da war das Spiel schon schon was älter.
  • Oblivion kriegste wie gesagt bis heute auf keinem PC, der keine GTX/Ultra hat, überall flüssig zum Laufen. Klar - bescheidene Programmierung, aber trotzdem.
  • Bei Blitzkrieg 2 und anderen 3D-Strategiespielen wurde der angezeigte Bildschirmausschnitt teilweise bis zur Unübersichtlichkeit derart drastisch eingeschränkt, daß es im Prinzip nicht mehr spielbar war. Warum: Weil man sonst Standbild gehabt hätte.

Denke mal, die Liste kann man noch endlos ausweiten.

Fakt ist sicher, daß man mit der richtigen Hardware auf Dauer wahrscheinlich alles darstellen kann. Und wie riDDi schon bemerkt hat, springen wir alle auch noch schön brav auf den Zug auf... und sind nebenbei bemerkt wahrscheinlich auch noch mit Schuld daran, daß unausgereifte Hardware und Software auf den Markt kommt. Hauptsache heute schon, am besten noch gestern.
*kopfschüttel*

Wobei ich nicht verheimlichen will, daß ich selbst schon super-ungeduldig auf die HD3870 warte ;) Aber man sollte sich zwischendrin immer mal wieder vor Augen führen, welches Spiel wir da eigentlich mitspielen.
 
Also sollten sich die 3DMark06 Benchmarks tatsächlich in den Spielen wiederspiegel, bietet die HD3870 definitiv das bessere Gesamtkonzept, da sie die Argumente Bildqualität, Stromsparer und DX10.1 vereinigt.

Doch ich persönlich hätte lieber die 8800GT weiter vorne, da die ATI Treiber des öfteren mit Problemen bestückt sind.(jedenfalls hatte ich mit ner 1950pro immer Probleme mit den Treibern)
 
Zuletzt bearbeitet:
@strubo0: der prozessor läuft standartmäßig auf 3ghz. die haben den für den benchmakr halt auf 4 ghz hochgetaktet ^^.

@topic: was mir am meisten aufgefallen ist - und das finde ich echt bemerkenswert - ist, dass die hd 3870 mit aa und af bei weitem nicht mehr so stark einbricht, wie es noch die 2xxx er karten von ati taten! ganz im gegenteil, der vorsprung der 8800 gt wird immer kleiner je mehr details bzw. aa oder af hinzugeschaltet werden.
somit für mich schonmal eindeutig: der aa bzw af bug ist behoben!

jetzt muss entlich mal ne neue karte her. bin mit meinem "normalen" rechner schon nen halbes jahr ohne grafikkarte ^^.

also 8800 gt oder hd 3870 wirds wohl werden, wobei ich wohl nun doch eher zur hd tentiere, da ich kein heizwerk in meinem rechner haben möchte!
schade, dass die hd 3870 nicht genau so viel leistung bringt wie die 8800 gt. dann würd mir der kauf leichter fallen ^^.
naaj mal schaun. oder ich kauf mir die 8800 gt und bau nen anderen kühler drauf!
 
DX10.1 bleibt wohl bis Mitte des nächsten Jahres eher ein Marketinggimmick. Preislich ist die ATI Karte echt attraktiv.

mFg tAk
 
hat man eigentlich extrem leistungseinbusen bei crossfire aufm dq6 wegen den 4 lanes beim 2ten slot?wenn ja gibts hoffentlich ne x2 version der karte xD
 
Hallo Zusammen ich habe mal eine Frage könnt ihr mir Sagen wie ich ein Benchmark von Crysis ertstellen kann?
 
SkiLLoR schrieb:
hm also 416 streams geht doch garnicht auf, wenn es weiterhin 5D sind. 416 ist nich durch 5 teilbar^^

Vielleicht sind sie ja jetzt 4D. Die Extrafunktionen des 5-ten Streamprozessors wurden in all die anderen integriert und deswegen braucht man ihn nicht mehr.

So, genug Geürchte in die Welt gestreut :D

@Topic
wenn die Stromsparfunktionen gut funktionieren ist es auf jeden Fall ein Kaufanreiz. Wobei nVidia mit HybridSLI noch mehr Sparpotential bietet. Für Kompletneukäufer wäre also ein HybridSLI-fähiges Mainboard mit einer nVidia Karte auch sehr interessant. Wenn das den alles funktioniert, wie es sein sollte.
 
Zuletzt bearbeitet:
mVp schrieb:
hat man eigentlich extrem leistungseinbusen bei crossfire aufm dq6 wegen den 4 lanes beim 2ten slot?wenn ja gibts hoffentlich ne x2 version der karte xD

Wenn beide Slots PCIe2.0 unterstützen sollte es dank der höheren Busfrequenz der beiden Slots doch eigentlich keine Einbussen geben oder sehe ich das falsch?

mFg tAk
 
Aber es fällt auf das die HD3870 beim 16x AF ziemlich einbricht wenn die Benches stimmen. Dem 8800 gt scheint das zusätzliche 16x AF nichts auszumachen...

8800GT SM2.0 8AA ohne / mit 16AF: 3355 / 3351 - 4 Punkte ~ - 0,1 %
HD3870 SM2.0 8AA ohne / mit 16AF: 3078 / 2588 - 490 Punkte ~ - 16 %

8800GT SM3.0 8AA ohne / mit 16AF: 2678 / 2674 - 4 Punkte ~ - 0,2 %
HD3870 SM3.0 8AA ohne / mit 16AF: 2839 / 2540 - 299 Punkte ~ - 11 %
 
Zuletzt bearbeitet:
Nichts ausmachen würde ich nicht sagen. Ausserdem ist hier nur 3DMark06 aufgeführt.
AF frisst schon lange nicht mehr allzu viel Leistung. AA kostet wesentlich mehr.

mFg tAk
 
nabend

Die Wasserreflexion soll in Crysis auf der hd 3870 leicht besser aussehen als auf der 8800GT. Deshalb wird hier von besserer BQ auf Seiten Amd's gesprochen. Ich denke, das Problem wird sich durch einen neuen Treiber beheben lassen, von daher fällt dieses Argument für mich weg.

Naja beim Stromverbrauch muss man Amd ein großes Lob aussprechen, aufjedenfall ein ganz großer Schritt in die richtige Richtung. Nvidia liegt zwar leicht hinten, aber so dramatisch ist der Stromverbrauch der 8800GT nun auch wieder nicht.

Performancetechnisch liegen für mich beide Karten ungefähr gleich auf, die HD 3870 wird sich wahrscheinlich etwas weiter, aufgrund der Kühlung und der Temperatur des Grafikchips, übertakten lassen.

Bleibt Schlussendlich noch der Preis, im Moment schauts so aus als ob die Amd gut 20-30€ billiger ist, was sich aber bei besserer Verfügbarkeit der 8800GT wieder ändern könnte.
Von daher werden dem Kunden zwei sehr schnelle Grafikkarten zu ungefähr dem selben Preis angeboten.

Fazit: Zwei super Karten zu einem angemessenen Preis, was will man mehr.

mfg amd 4ever
 
Zurück
Oben