Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ich hoffe das es kein Fake ist.
Sollte es echt kein Fake sein, wird diese Graka wohl auf dem Niveau einer GTX 480 512SP OC liegen.
Hört sich sehr interessant an.
Jetzt heißt es: Abwarten und Tee trinken!
Also was dieses 5D bzw. beim SI 4D angeht so kann man vereinfacht sagen, die Shader bei AMD können bei pro Shader 5 bzw 4 Operationen ausführen. Bei nVidia sind es hingegen 1D, also die haben echte 480 Shader, die 1 Operation pro Shader berechnen können.
Das Problem, ist allerdings, dass 5D shader nur effektiv sind wenn 5 gleich Operationen abgearbeitet werden sollen, was eben nicht sehr oft vorkommt. Daher sind 1D Shader meist schneller, auch wenn es weniger sind, weil sie unabhängig arbeiten können. Die Shaderzahl bzw. die Anzahl der mögliche Operationen von den ATIs ist deswegen auch mit Vorsicht zu genießen, weil hier meist einfach x5 gerechnet wird.
Ein Umstieg auf 4D shaders würde die Karten auch schneller machen, wenn die komplette Shaderzahl gleich bleibt wie bei der 5XXX Serie.
Quarty schrieb:
@cyrezz: Stimme dir zu, wohl möglich wurden die Shader auf 5D optimiert.
Wie ich einmal von yeeha lernte, war der GDDR5 an sich auf der HD4870/90 nicht verantwortlich für den horrenden Lastverbrauch der Karte, was man wiederum anhand unterschiedlicher RAM-Taktung bzw. unterschiedlicher RAM-Größen nachweisen konnte: Es waren schlimmstenfalls immer nur ein paar Watt, also nichts dramatisches. Vielmehr lag es an dem Speicherinterface der Karte, das sich je nach Lebenslage ne extra Schippe Strom genehmigte.
Von daher glaube ich nicht, dass hochgezüchteter GDDR5 - selbst bei 1,6GHz - beim Stromverbrauch großartig ins Gewicht fallen wird. Ist nur eine Annahme.
@ DvP "Was soll das heißen? 5D shader sind 5D shader. Wie willst du die shader also auf 5D optimieren? "
die shader vielleicht nicht aber z.b den scheduler der die shader mit daten füttert. Denn die 5D Shader von Ati sind wie schon jemand erwähnt hat schwerer auszulasten als Nvidias 1D Shader.
An dieser stelle könnte Ati einige prozent raus holen dazu den schnelleren speicher und fertig ist die 6xxx serie.
@ Iron Grey
Da kann ich dir nur zustimmen der hochgetaktete speicher sollte die stromaufnehme nur gering beeinflussen.
Da hast du mich wohl missverstanden. Im Moment nutzt AMD diese 5D Variante. Wenn der kommende SI wirklich auf 4D basieren sollte, dann hätte AMD die Shadereinheiten massiv erhöht und damit würden sie mehr Leistung erzielen.
Würden sie, wie gemunkelt wird soll die HD6870 ja 1920 Shader besitzen, das alte Verfahren noch nutzen, so würden sie effektiv 384 Shadereinheiten haben (da 5D, so kommt man auf 1920). Sollte jedoch das neue Verfahren 4D greifen, so hätte AMD die Shaderanzahl auf 480 erhöht - zum Vergleich, ne HD5870 hat "nur" 320 5D Shadereinheiten (also 1600 Shader).
@DvP
Stimmt. Würden die Shader bei 1600 bleiben, aber eben in 4D, so würden sie 400 Shadereinheiten anbieten, gegenüber den 320 der HD5870 - das und der evtl. schnelle RAM würde schon einiges an Performance erhöhen
Wenn die Werte stimmen und AMD auch bei Spielen etc. die Sache gut umsetzbar ist,
DANN kann Nvidia einpacken.
Bin mal gespannt mit was die kontern wollen. Die aktuelle GTX 480 kann sicher nicht die Antwort sein...
bei spielen siehts anders aus... da ist dann die neue 6870 keine 31 % mehr schneller als eine 5870 sondern so um die 23 % schneller.DIe hohe punktzahl erklärt sich daran das die atis einen sehr schnellen speichertkt haben.
Viele Nutzer haben keinen 30 Zoll Monitor und sind keine AF/AA Fetischisten, da reichen dann sehr gut die aktuellen Nvidia Karten. ATI bringt schon schöne Karten raus aber was nützt es, wenn man ständig Ärger damit hat? Brauchst nur mal in den Faden mit dem neuen Treiberrelease schauen, ich würde mich da ärgern.
Wenn die Werte stimmen und AMD auch bei Spielen etc. die Sache gut umsetzbar ist,
DANN kann Nvidia einpacken.
Bin mal gespannt mit was die kontern wollen. Die aktuelle GTX 480 kann sicher nicht die Antwort sein...
Ich würde mir wünschen, wenn ATI mal etwas an der OpenGL Performance drehen würde.
Ich habe derzeit eine 5770er verbaut. Andere Leute mit teilweise einer 5 Jahre alten Nvidia liefern im Vergleich dazu ein viel flüssigeres Bild ab.
Das ist manchmal ein wenig frustrierend, da ich ansonsten sehr zufrieden mit meiner ATI bin.
Eigentlich sind die Werte nicht so übertrieben - für eine neue Generation ist das doch eher ein kleiner Sprung was dann auch zu dem passt dass die HD6 eben kein völlig neues Design sind.
Ärger gibts auf beiden Seite, ich mehr auf NVidia weswegen ich auch umsteige auf ATI mit der kommenden Generation wenn die Preise passen. Ich habe z.B. 2 Monitore und bei einigen Spielen werden diese auch unterstützt, Ziel ist Eyefinity. Das geht bei NV nur mit SLI und das ist für mich nicht drin.
Einpacken wird niemand nur weil der andere die Leistungskrone inne hat. Naja gut ok, für manche Dachplatten scheint das ja wichtig zu sein...
die shader vielleicht nicht aber z.b den scheduler der die shader mit daten füttert. Denn die 5D Shader von Ati sind wie schon jemand erwähnt hat schwerer auszulasten als Nvidias 1D Shader.
Das mag schon stimmen, aber so hat das keiner gesagt. Ich hab geschrieben, dass man die 5D Shader kaum so effektiv auslasten kann wie die 1D von NV ;-) Im worst case Fall: Scheduler arbeitet extrem schlecht, oder jeder Shader muss eine andere Operation ausführen, könnte die GTX480 480 ops ausführen und die 5870 nur 320. Die Realität scheint sogar ziemlich oft nahe an so einem Worst Case Fall dran zu sein.
@ cyrezz
Klingt total nachvollziehbar, jedoch weiß ich nicht wie realistisch ein Design change auf 4D ist. Habe ehrlich gesagt vorher noch nix davon gehört. Die letzte Ati Karte mit 4D war die X1950 und dann wurde auf 5D gewechselt. Habe den Vorteil aber auch nie wirklich verstanden und das hat man auch schon bei der 2900XT gesehen, welche aber noch andere Probleme hatte.
Wictale schrieb:
Ich würde mir wünschen, wenn ATI mal etwas an der OpenGL Performance drehen würde. Ich habe derzeit eine 5770er verbaut. Andere Leute mit teilweise einer 5 Jahre alten Nvidia liefern im Vergleich dazu ein viel flüssigeres Bild ab.
Ärger gibts auf beiden Seite, ich mehr auf NVidia weswegen ich auch umsteige auf ATI mit der kommenden Generation wenn die Preise passen. Ich habe z.B. 2 Monitore und bei einigen Spielen werden diese auch unterstützt, Ziel ist Eyefinity. Das geht bei NV nur mit SLI und das ist für mich nicht drin.
Einpacken wird niemand nur weil der andere die Leistungskrone inne hat. Naja gut ok, für manche Dachplatten scheint das ja wichtig zu sein...
Wie kommst du darauf?
Ich dachte die aktuellen nVidia-Karten unterstützen bereits das Spanning über 2 Monitore?
Und welche Spiele unterstützen mehr als 1 Monitor und macht das dann noch Sinn?
Vor allem mit einem dicken fetten Balken in der Mitte vom eigentlichen Bild?
Bei 3 Monitoren hast du die Balken wieder links und rechts, nicht mehr in der Mitte.
Aber da muss auch dann die Grafikkarte und der Rest vom System ordentlichen Dampf liefern, damit das auch ordentlich und ohne ruckeln läuft, auch ohne das man die Einstellungen weiter rutnerschrauben muss.
@DvP:
Die einzelnen Shader bei den NVIDIA Grafikkarten laufen aber auch nicht komplett ungetrennt voneinander. Aber vermutlich ist der Scheduler bei NVIDIA einfach der bessere.
Liest sich interessant. Vor allem die 4D Geschichte. Für den alltäglichen Nutzer dürfte 1Dam interessantesten sein, da meistens nur eine Operation ausgeführt und selten gleiche, das dürfte bei Hardcore Anwendungen eher der Fall sein.
Von daher habe ich mich schon immer gefragt, warum sie 5D Shader verwenden. 2D oder 3D sollten doch reichen.
Wollen wir hoffen, daß sich der Benchmark bewahrheitet, denn dann wären die beiden wieder wirklich komplett gleichauf, was uns nur zugute kommen kann. Auf der anderen Seite hat es aber auch einen Nachteil, denn dann versuchen sich beide immer wieder gegenseitig zu übertrumpfen, ergo haben Spieleprogrammierer wieder mehr Leistung, die Spiele werden Hardware fressender. Sogesehen ein Glück, daß es Konsolen gibt, die das wieder bremsen
DvP schrieb:
... Die Realität scheint sogar ziemlich oft nahe an so einem Worst Case Fall dran zu sein.
Nix für ungut, der Satz ist klasse. Wunderbarer Anschauungsunterricht wie wenig einige über die Anglizismen wissen, die sie nutzen. Oder was möchtest Du mit dem "schlimmsten Fall Fall" uns sagen?