HD4870 schlägt die GTX280

Am Ende kommen sie dann aber schon zum Ergebnis, das sich mit der allgemeinen Meinung deckt: Die GTX 280 ist 20% schneller als eine HD4870.
Und in einem anderen Test kommt am Ende heraus, dass die HD4850 sich um 10% der GTX 260 geschlagen geben muss...

Schön und gut, wäre der GT200 nicht so groß und teuer, dann hätte nVidia da auch was von :D
 
@Busta Rhymes
Die meisten Werte der GTX 280 im 4870er Test sind bis auf die Nachkommastelle identisch mit denen im älteren 280er Test selbst (also einfach übertragen von dort). Ein paar haben sich aber komischerweise deutlich geändert.

alt: GTX 280 Test
neu: HD 4870 Test

World In Conflict 1600x1200 4AA,16AF alt: 45,4 fps neu: 55,4 fps
Company Of Heroes 1280x1024 4AA, 16AF alt: 96,5 fps neu: 74,2 fps
Company Of Heroes 1600x1200 4AA, 16AF alt: 74,2 fps neu: 64,5 fps

Die Änderung bei World In Conflict kann ich mir am wahrscheinlichsten einfach durch einen Zahlendreher beim Eintippen erklären.
Aber was ist bei Company Of Heroes passiert? Eine Vermutung meinerseits wäre, dass beim Test der GTX 280 in CoH vergessen wurde die Qualitätsmerkmale einzuschalten, obwohl sie bei den Diagrammen angegeben sind. Alle getesteten Karten sind durchweg deutlich schneller, als im Test der HD 4870, wo ebenfalls AA&AF angegeben sind. Möglicherweise ist das bekannt geworden, sodass CoH erneut gebencht wurde statt die alten Zahlen zu übertragen - diesmal mit AA&AF, sodass hier alle Werte neu und entsprechend niedriger sind.
Muss nicht so gewesen sein, wäre aber eine mögliche Erklärung für die schlechteren Werte.

Im HWLuxx-Forum hat jemand die fps der beiden Karten aus dem 4870er Test zusammen gezählt und gibt 699 fps für die GTX 280 an gegenüber 698,5 fps bei der HD 4870. Das ist neben der merkwürdigen o.g. Ergebnisse ein weiterer Aufhänger zum Wundern. Als Erklärung hätte ich hier nur den geringen Umfang des Tests und die durchschnittlichen Auflösungen.
 
Zuletzt bearbeitet: (Zahlendreher ftw)
Es gibt ja durchaus Spiele, in denen die HD4870 die GTX 280 schlägt, das bescheinigen auch andere Tests. Aber trotzdem ist an diesem hier so einiges Faul.

Warten wir mal den CB Test ab.
Aber eins scheint schon sicher zu sein, sehr weit ist die HD4870 nicht weg von der GTX280.
 
Wenn die HD 4870 schon der GTX 280 Konkurrenz macht, bin ich gespannt auf die HD 4870 X2
 
10-20% leistungsunterschied reichen mir schon um nur die hälfte für ne graka zu bezahlen, wenn man bedenkt dass der treiber noch nciht vernüftig läuft, das ist noch luft nach oben ;)
 
Kann ich nur zustimmen, was habe ich von 10 - 20% mehr Leistung, wenn ich dafür aber im Schnitt 480 - 550 Euro zahlen muß.

Aber vielleicht habt Ihr alle Geld genug um mal eben 500 Euro auszugeben, ich habe es leider nicht, da ich im letzten Jahr schon ca. 750 Euro für neue GraKas ausgegeben habe.

Werde aber mal abwarten bis es die 1GB Version der 4870 gibt, da ich auch meinen 37 Zoll FullHD LCD anschließen möchte.
 
Spannend wirds doch erst bei der 4870 X2. So langsam fange ich auch an zu glauben, dass nVidia eine GX2 280 veröffentlichen wird. Irgendwie müssen die ja auf ATi antworten. Gerechnet haben sie damit bestimmt nicht, sonst hätte nVidia den Chip noch größer gemacht, oder etwas kleiner, um eine GX2 vom Stromverbrauch überhaupt möglich zu machen, ohne die Taktraten stark zu vermindern.

Lässt sich nur hoffen, dass die X2 auch ein 512-Bit-Interface bekommt (256 für jeden Chip), damit der Speicherdurchsatz auch erhalten bleibt.
 
Und wie bitte willst du 500Watt an Wärme abführen?

Die GT200 sind eine einzige Panne.
Der Chip ist riesengroß (ja allgemein hin auch als Brute-Force-Chip bekannt... von allem mehr),
er ist noch im veralteten 65nm Prozess hergestellt (ATi hat schon 45nm in der Pipeline und NV versucht noch mit 55nm alias GT200b),
er zieht bis zu 236Watt aus deinem Geldbeutel im Vergleich zu 150 (+-20) bei einer 4870,
der Lüfter ist jetzt schon extrem laut und läuft bei höheren Zimmertemperaturen ins Drehzahllimit (Ati ist noch lauter, aber temps OK),
er kostet NV eine ganze Stange Geld, die sie sich vom Kunden wiederholen... ... ...

Und von dieser Verschwendung an Silizium willst du auch noch 2 auf ein PCB setzen?
Na dann Prost Mahlzeit!
Dann hast du eine Karte mit 1GB langsamen GDDR3.
Dazu darfst du 550 Watt an Strom dareinschieben (der Bridge-Chip braucht auch was).
Und außerdem würde das die einzige Grafikkarte mit einem 120mm-Lüfter auf einem Radiator und einem aus dem vollen gefrästen Wasserkühler die immer noch durchbrennt...

Wenn NV dieses Miststück wirklich in doppelter Ausführung auf eine einzige Karte setzen will, dann frühestens mit dem GT200b, welcher noch nicht fertig ist.
Aber auch dann wird man maximal auf 180W pro Chip kommen und 400W sind immer noch zuviel für eine Karte.
Und auch mit niedrigeren Taktraten ist nichts... Dann ist eine 280GX2 ja langsamer als eine 4870X2, kostet mehr und braucht mehr Strom.
Momentan können die ja zumindest noch mit dem "Performance um jeden Preis"-Trick Kunden fangen.
Wenn ATi aber größer, schneller, weiter, billiger kann, dann zieht das nicht mehr.

NV sollte schleunigst mal wieder was NEUES entwickeln.
Die haben seit über 2 Jahren KEINE Innovationen mehr gebracht.
Sogar die DieShrinks sind auf TSMC zurückzuführen.
Ich hab ja selber eine Karte von denen, aber momentan siehts so aus als wär das vorläufig die letzte gewesen.

Momentan hab ich nur Respekt vor ATi...
Die holen aus einem Drittel der Fläche 95% der Performance bei halbem Stromverbrauch und einem 70% niedrigeren Preis!

Grüße vom:
Jokener
 
Ich denke wenn die Treiber ausgereifter werden demnächst dass die 4870 30% Schub noch bekommen wird durch die neuen Treiber.


mfg
 
Schön dieser Glaube.
Funkioniert aber nur wenn die 4850 auch um 30% beschleunigt wird.
Und dann wäre da noch die Sache, das auch Nvidia die Geforce 200 mit Treibern beschleunigen kann. :rolleyes:
 
oemer_1991 schrieb:
Ich denke wenn die Treiber ausgereifter werden demnächst dass die 4870 30% Schub noch bekommen[...]
Ich denke es wird ein Schub von 230%.
Aber es ist noch früh und wir sind wohl beide noch nicht ganz so wach, wenn wir so einen Unsinn ohne jegliche Argumente posten.
 
Naja imo spricht eigentlich alles für ATI.Alleine schon das preis/Leistungsverhältnis ist bei dem G200 ja mal sowas von schlecht.
Bevor man sich eine 280GTX käuft sollte man lieber über ein Crossfire mit 2 4850 nachdenken.Ist billiger und hat mehr Leistung.
Aber bin ganz froh das Nvidia es verbogt hat.SO hat AMD wenigstens die Chance ein bischem Geld einzufahren :)
 
Brainorg schrieb:
Naja imo spricht eigentlich alles für ATI.Alleine schon das preis/Leistungsverhältnis ist bei dem G200 ja mal sowas von schlecht.
Bevor man sich eine 280GTX käuft sollte man lieber über ein Crossfire mit 2 4850 nachdenken.Ist billiger und hat mehr Leistung.
Aber bin ganz froh das Nvidia es verbockt hat.SO hat AMD wenigstens die Chance ein bischem Geld einzufahren :)

Tja, wer die beste Karte will, der muß halt deutlichmehr zahlen - es wird aber in absehbarer Zeit hier genügend Leute geben, die mindestens eine 280 GTX drin haben werden.
Ich freue mich schon auf den ersten Erfahrungsbericht mit einer Triple-SLI-280 GTX.
 
Leute bedenkt auch, es ist noch kein richtiger Treiber für die HD 4xxx Serie herausten
Ich denke da werden nochmal 5-10% Leistung frei , wenn endlich Treiber kommen ;)
 
Den Test bei Hardwareluxx halte ich weder für objektiv, noch für seriös, erst recht nicht zutreffend. Die angeblichen Werte der GTX 280 zeigen nicht im entferntesten ihr Leistungsvermögen, vor Allem, wenn man das Testsystem betrachtet, die gezeigten Ergebnisse bringt die Karte schon in deutlich schwächeren Rechnern. Da kann jeder für sich selbst seine Schlußfolgerungen ziehen.
 
Hmm also ich habe mich erstmal für die HD4870 entschieden P/L Verhältnis.........da kann man nichts falsch machen. GTX einfach zu teuer für mich, jedenfalls zur zeit.

Aber ......die GTX 280 sollte nicht unterschätzt werden, nVidia wird sich schon was dabei gedacht haben die Karte mit so einem Preis herauszugeben, ich denke das in 1 -2 monaten ein neuer treiber erscheinen wird, der die Karte zu Höchsleistungen anspornen wird, allein der eigene Phyxistreiber oder wie das teil heißt wird super einschlagen, ich bin sicher das die hersteller die Treiber schon haben, nur halt für die Masse noch nicht verfügbar, über kurz oder lang wird die 280 einen massiven Performanceschub machen....
 
Zuletzt bearbeitet von einem Moderator:
Da gibts nicht viel dabei zu denken - es gab mal ne Meldung das der Chip alleine 119$ kostet - dann glaubste wohl selber nich das die Graka für 250€ verkauft wird o.O

Der Chip ist einfach zu teuer, um ihn billiger herzugeben
 
Zurück
Oben