News Erster Benchmark einer Radeon HD 6870?

Status
Für weitere Antworten geschlossen.
Ich hoffe das es kein Fake ist.
Sollte es echt kein Fake sein, wird diese Graka wohl auf dem Niveau einer GTX 480 512SP OC liegen.
Hört sich sehr interessant an.
Jetzt heißt es: Abwarten und Tee trinken!
 
cyrezz schrieb:
Also was dieses 5D bzw. beim SI 4D angeht so kann man vereinfacht sagen, die Shader bei AMD können bei pro Shader 5 bzw 4 Operationen ausführen. Bei nVidia sind es hingegen 1D, also die haben echte 480 Shader, die 1 Operation pro Shader berechnen können.

und @ Qbix

Das Problem, ist allerdings, dass 5D shader nur effektiv sind wenn 5 gleich Operationen abgearbeitet werden sollen, was eben nicht sehr oft vorkommt. Daher sind 1D Shader meist schneller, auch wenn es weniger sind, weil sie unabhängig arbeiten können. Die Shaderzahl bzw. die Anzahl der mögliche Operationen von den ATIs ist deswegen auch mit Vorsicht zu genießen, weil hier meist einfach x5 gerechnet wird.
Ein Umstieg auf 4D shaders würde die Karten auch schneller machen, wenn die komplette Shaderzahl gleich bleibt wie bei der 5XXX Serie.

Quarty schrieb:
@cyrezz: Stimme dir zu, wohl möglich wurden die Shader auf 5D optimiert.

Was soll das heißen? 5D shader sind 5D shader. Wie willst du die shader also auf 5D optimieren?
 
Zuletzt bearbeitet:
Zwirbelkatz schrieb:
Bleibt nur zu hoffen, dass dieser Speicher, falls er wirklich so hoch getaktet ist, kein Stromvernichter ist.

Wie ich einmal von yeeha lernte, war der GDDR5 an sich auf der HD4870/90 nicht verantwortlich für den horrenden Lastverbrauch der Karte, was man wiederum anhand unterschiedlicher RAM-Taktung bzw. unterschiedlicher RAM-Größen nachweisen konnte: Es waren schlimmstenfalls immer nur ein paar Watt, also nichts dramatisches. Vielmehr lag es an dem Speicherinterface der Karte, das sich je nach Lebenslage ne extra Schippe Strom genehmigte.

Von daher glaube ich nicht, dass hochgezüchteter GDDR5 - selbst bei 1,6GHz - beim Stromverbrauch großartig ins Gewicht fallen wird. Ist nur eine Annahme. :)
 
@ DvP "Was soll das heißen? 5D shader sind 5D shader. Wie willst du die shader also auf 5D optimieren? "

die shader vielleicht nicht aber z.b den scheduler der die shader mit daten füttert. Denn die 5D Shader von Ati sind wie schon jemand erwähnt hat schwerer auszulasten als Nvidias 1D Shader.

An dieser stelle könnte Ati einige prozent raus holen dazu den schnelleren speicher und fertig ist die 6xxx serie.

@ Iron Grey

Da kann ich dir nur zustimmen der hochgetaktete speicher sollte die stromaufnehme nur gering beeinflussen.
 
Quarty schrieb:
Stimme dir zu, wohl möglich wurden die Shader auf 5D optimiert.

Da hast du mich wohl missverstanden. Im Moment nutzt AMD diese 5D Variante. Wenn der kommende SI wirklich auf 4D basieren sollte, dann hätte AMD die Shadereinheiten massiv erhöht und damit würden sie mehr Leistung erzielen.

Würden sie, wie gemunkelt wird soll die HD6870 ja 1920 Shader besitzen, das alte Verfahren noch nutzen, so würden sie effektiv 384 Shadereinheiten haben (da 5D, so kommt man auf 1920). Sollte jedoch das neue Verfahren 4D greifen, so hätte AMD die Shaderanzahl auf 480 erhöht - zum Vergleich, ne HD5870 hat "nur" 320 5D Shadereinheiten (also 1600 Shader).

@DvP
Stimmt. Würden die Shader bei 1600 bleiben, aber eben in 4D, so würden sie 400 Shadereinheiten anbieten, gegenüber den 320 der HD5870 - das und der evtl. schnelle RAM würde schon einiges an Performance erhöhen ;)
 
Zuletzt bearbeitet:
Wenn die Werte stimmen und AMD auch bei Spielen etc. die Sache gut umsetzbar ist,
DANN kann Nvidia einpacken.
Bin mal gespannt mit was die kontern wollen. Die aktuelle GTX 480 kann sicher nicht die Antwort sein...
 
bei spielen siehts anders aus... da ist dann die neue 6870 keine 31 % mehr schneller als eine 5870 sondern so um die 23 % schneller.DIe hohe punktzahl erklärt sich daran das die atis einen sehr schnellen speichertkt haben.

das erklärt auch dieses video:

http://www.youtube.com/watch?v=yx69O-HY9DI&feature=channel
eine HD 5870 nimm da teilweise die 480er auseinander besonders beim 2ten benchmark^^.In spielen siehts aber ganz ganz anders aus da liegt die 480er im schnitt 10% vorne.
 
Sehr interessant das Ergebnis, auch wenn es nocht nicht offiziel ist. Macht aber Lust auf mehr:)

Dann kann ich endlich meine in die Jahre gekommen 8800 GTS in Rente schicken.
 
Zuletzt bearbeitet:
mastermc51 schrieb:
DANN kann Nvidia einpacken.
Bin mal gespannt mit was die kontern wollen. Die aktuelle GTX 480 kann sicher nicht die Antwort sein...

Viele Nutzer haben keinen 30 Zoll Monitor und sind keine AF/AA Fetischisten, da reichen dann sehr gut die aktuellen Nvidia Karten. ATI bringt schon schöne Karten raus aber was nützt es, wenn man ständig Ärger damit hat? Brauchst nur mal in den Faden mit dem neuen Treiberrelease schauen, ich würde mich da ärgern.
 
mastermc51 schrieb:
Wenn die Werte stimmen und AMD auch bei Spielen etc. die Sache gut umsetzbar ist,
DANN kann Nvidia einpacken.
Bin mal gespannt mit was die kontern wollen. Die aktuelle GTX 480 kann sicher nicht die Antwort sein...

Naja ich würde die GTX 480 eher als Frage denn als Antwort bezeichnen :D
 
Ich würde mir wünschen, wenn ATI mal etwas an der OpenGL Performance drehen würde.
Ich habe derzeit eine 5770er verbaut. Andere Leute mit teilweise einer 5 Jahre alten Nvidia liefern im Vergleich dazu ein viel flüssigeres Bild ab.
Das ist manchmal ein wenig frustrierend, da ich ansonsten sehr zufrieden mit meiner ATI bin.
 
Eigentlich sind die Werte nicht so übertrieben - für eine neue Generation ist das doch eher ein kleiner Sprung was dann auch zu dem passt dass die HD6 eben kein völlig neues Design sind.
 
ATI Soldat schrieb:
Brauchst nur mal in den Faden mit dem neuen Treiberrelease schauen, ich würde mich da ärgern.
Ich hatte bisher nur Karten von ATI / AMD und noch nie irgendwelchen Ärger :) Deshalb werde ich auch nie auf die Konkurrenz umsteigen ;)
 
Ärger gibts auf beiden Seite, ich mehr auf NVidia weswegen ich auch umsteige auf ATI mit der kommenden Generation wenn die Preise passen. Ich habe z.B. 2 Monitore und bei einigen Spielen werden diese auch unterstützt, Ziel ist Eyefinity. Das geht bei NV nur mit SLI und das ist für mich nicht drin.

Einpacken wird niemand nur weil der andere die Leistungskrone inne hat. Naja gut ok, für manche Dachplatten scheint das ja wichtig zu sein...
 
Mephisto2022 schrieb:
die shader vielleicht nicht aber z.b den scheduler der die shader mit daten füttert. Denn die 5D Shader von Ati sind wie schon jemand erwähnt hat schwerer auszulasten als Nvidias 1D Shader.

Das mag schon stimmen, aber so hat das keiner gesagt. Ich hab geschrieben, dass man die 5D Shader kaum so effektiv auslasten kann wie die 1D von NV ;-) Im worst case Fall: Scheduler arbeitet extrem schlecht, oder jeder Shader muss eine andere Operation ausführen, könnte die GTX480 480 ops ausführen und die 5870 nur 320. Die Realität scheint sogar ziemlich oft nahe an so einem Worst Case Fall dran zu sein.

@ cyrezz
Klingt total nachvollziehbar, jedoch weiß ich nicht wie realistisch ein Design change auf 4D ist. Habe ehrlich gesagt vorher noch nix davon gehört. Die letzte Ati Karte mit 4D war die X1950 und dann wurde auf 5D gewechselt. Habe den Vorteil aber auch nie wirklich verstanden und das hat man auch schon bei der 2900XT gesehen, welche aber noch andere Probleme hatte.

Wictale schrieb:
Ich würde mir wünschen, wenn ATI mal etwas an der OpenGL Performance drehen würde. Ich habe derzeit eine 5770er verbaut. Andere Leute mit teilweise einer 5 Jahre alten Nvidia liefern im Vergleich dazu ein viel flüssigeres Bild ab.

Bei welcher Anwendung und welchem OS?
 
Zuletzt bearbeitet:
Numrollen schrieb:
Ärger gibts auf beiden Seite, ich mehr auf NVidia weswegen ich auch umsteige auf ATI mit der kommenden Generation wenn die Preise passen. Ich habe z.B. 2 Monitore und bei einigen Spielen werden diese auch unterstützt, Ziel ist Eyefinity. Das geht bei NV nur mit SLI und das ist für mich nicht drin.

Einpacken wird niemand nur weil der andere die Leistungskrone inne hat. Naja gut ok, für manche Dachplatten scheint das ja wichtig zu sein...
Wie kommst du darauf?
Ich dachte die aktuellen nVidia-Karten unterstützen bereits das Spanning über 2 Monitore?
Und welche Spiele unterstützen mehr als 1 Monitor und macht das dann noch Sinn?
Vor allem mit einem dicken fetten Balken in der Mitte vom eigentlichen Bild?
Bei 3 Monitoren hast du die Balken wieder links und rechts, nicht mehr in der Mitte.
Aber da muss auch dann die Grafikkarte und der Rest vom System ordentlichen Dampf liefern, damit das auch ordentlich und ohne ruckeln läuft, auch ohne das man die Einstellungen weiter rutnerschrauben muss.
 
bleibt noch die frage wie viel so kosten wird auf einer roadmap stand 450 UVP.
 
@DvP:
Die einzelnen Shader bei den NVIDIA Grafikkarten laufen aber auch nicht komplett ungetrennt voneinander. Aber vermutlich ist der Scheduler bei NVIDIA einfach der bessere.
 
Liest sich interessant. Vor allem die 4D Geschichte. Für den alltäglichen Nutzer dürfte 1Dam interessantesten sein, da meistens nur eine Operation ausgeführt und selten gleiche, das dürfte bei Hardcore Anwendungen eher der Fall sein.
Von daher habe ich mich schon immer gefragt, warum sie 5D Shader verwenden. 2D oder 3D sollten doch reichen.

Wollen wir hoffen, daß sich der Benchmark bewahrheitet, denn dann wären die beiden wieder wirklich komplett gleichauf, was uns nur zugute kommen kann. Auf der anderen Seite hat es aber auch einen Nachteil, denn dann versuchen sich beide immer wieder gegenseitig zu übertrumpfen, ergo haben Spieleprogrammierer wieder mehr Leistung, die Spiele werden Hardware fressender. Sogesehen ein Glück, daß es Konsolen gibt, die das wieder bremsen :)

DvP schrieb:
... Die Realität scheint sogar ziemlich oft nahe an so einem Worst Case Fall dran zu sein.

Nix für ungut, der Satz ist klasse. Wunderbarer Anschauungsunterricht wie wenig einige über die Anglizismen wissen, die sie nutzen. Oder was möchtest Du mit dem "schlimmsten Fall Fall" uns sagen? ;)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben