News Erster Benchmark einer Radeon HD 6870?

Status
Für weitere Antworten geschlossen.
ATI Soldat schrieb:
Viele Nutzer haben keinen 30 Zoll Monitor und sind keine AF/AA Fetischisten, da reichen dann sehr gut die aktuellen Nvidia Karten. ATI bringt schon schöne Karten raus aber was nützt es, wenn man ständig Ärger damit hat? Brauchst nur mal in den Faden mit dem neuen Treiberrelease schauen, ich würde mich da ärgern.

Naja, ich hab noch eine GTX 285 drin und komm bei Bad Company 2 auf durchschnittlich ca. 50 fps, was ja reicht. (mehr wie 60 Hz hat eh kein LCD)
Die Graka hab ich im März 2009 gekauft und bin immer noch zufrieden damit.
Ich bin kein "Fanboy" von irgend was. Ich kauf ein Produkt das mir zusagt und ein vernünftiges P/L Verhältnis hat.
Ich hatte erst (davor glaub ich ne Voodoo III 2000) ne Geforce 4 Ti 4200, dann eine ATI Radeon 9800pro, dann eine ATI X 1900XT, später eine 9800GTX und derzeit eine GTX 285.
Also eben das was zu der entsprechenden Zeit aktuell schnell und ein passables P/L hatte.

Mich würde es dennoch freuen wenn Nv mal eine "überarbeitete" GTX 480 bringen könnte, die
mit 2x 6 pol Strom funzt, niedrigen Idle Stromverbrauch hätte und keine solche Heizung.
Ich denke mal in 28nm wäre der Fermi ein gutes Stück Hardware und da wo ihn Nv gern hätte.
AMD hat ja mit der Fermi keine echte Konkurenz. Zu laut, zu heiß, zu stromhungrig und zu teuer. Da lobe ich mir doch meine "alte" GTX 285.

Allerdings habe ich mit meiner NV nie Treiberprobleme gehabt, bei AMD ist das derzeit wohl nicht ganz so optimal. Zu ATI Zeiten hatte ich aber auch mit ATI keine Treiberprobleme....

Bei CPUs kauf ich auch nach P/L. Letztes Jahr eben ein AM2+ Board von Gigabyte und einen AMD PII 940 BE (4x 3,0 Ghz) @ Standardtakt und undervoltet, da der ganz schön Energie "verheizt"
Nicht so das ich kein Intel würde wollen, aber das P/L passt mir da nicht, zumal es bei AMD leichter ist um und aufzurüsten.
Auch wenn mich der 1090T "jucken" würde, da ich oft Blu-Ray umrechnen muss, bzw. Filme von unserem Full-HD Camcorder schneide und 2 Kerne mehr gut wären warte ich auf die 8 Kern CPUs.
Bei dem Video Schnitt mit Adobe Premiere z.b. wird CUDA verwendet, aus ca. 8-11 Stunden (wohlgemerkt mit meinem Phenom II 940 BE mit 4 Kernen @3,0 Ghz) werden so ca. 2,5-3 Stunden.
Was ein großer Unterschied ist wie ich meine!
Von daher würde ich erst eine AMD Graka kaufen, wenn ich die dann auch zum Video umrechnen einsetzen könnte wie derzeit meien GTX285 per CUDA (u.a. auch Badaboom)
Ich hab keinen Bock dann wieder 8-11 Stunden zu warten, wenn ich weis das es in 2,5 Stunden auch gehen würde!

OK, ich "überspringe" einfach die AM3 Boards und "warte" auf Bulldozer und AM3+.
Ich muss dann eh Mainboard, Speicher, CPU und auch Graka kaufen :freak:
 
Zuletzt bearbeitet:
@ Forum-Fraggle

Ein "Fall" der eintreten kann ist nicht viel anderes als ein "Szenario" das eintrifft, oder? Letzteres ist ein gängiger begriff im zusammenhang mit "worst case", wie du wohl kaum abstreiten kannst. Klar klingts blöd, da gebe ich dir aber vollkommen recht. Ich würde es auch nicht nochmal schreiben :lol:

@ DerKlops0r
Klar kann das sein aber auch wenn der scheduler gleich gut/schlecht ist, sind 1D einfach effektiver. Wie gut einzelne Teile der Architekturen arbeiten und wo die internen Schwächen sind, wäre zwar interessant, aber dafür haben wir einfach zu wenig Infos. Das sieht man ja schon dadurch, dass wir kaum ermessen können wie viel Vram wirklich gebraucht wird, wie clever der vorhandene Speicher genutzt wird und ob manche Karten Speicherkrüppel (Bandbreite) sind, oder nicht. Es gibt einfach zu viele Variablen.
 
Zuletzt bearbeitet:
@DerKlops0r
Was effektiver ist kann ich nicht sagen, bin da kein Experte. Was jedoch wichtig ist und man beachten sollte, es sind einfach völlig verschiedene Herangehensweisen bei AMD und nVidia.

Bei nVidia sieht es wie folgt aus: (Bsp. GTX 480)
Shader: 480
Shadertakt: 1401MHz (1:2 zum Coretakt)
Shaderart: 1D

Bei AMD hingegen sieht es so aus: (Bsp. HD5870)
Shader: 320
Shadertakt: 850MHz (1:1 zum Coretakt)
Shaderart: 5D

Jetzt ist natürlich die Abhängigkeit der Software gegeben, wie diese zu Werke geht. Da das 5D wohl nicht immer optimiert ist, hat AMD hier wohl eine Schwachstelle gegenüber nVidia (meine Vermutung, stecke da nicht so tief in der Materie).

Erhöht AMD nun die Shader auf 384 - 480 (je nach Verfahren und was effektiv an Shadereinheiten verbaut wird), so dürfte bei gleich bleibendem Takt, die neue HD6870 um einiges schneller sein als die Vorgänger. Wünschenswert wären natürlich die 480 Shader, aber das wird sich noch zeigen, welches Verfahren AMD verwedet und was dabei rauskommt ;)

@DvP
Fern ab der Effektivität; nVidias Shader arbeiten auch einfach schneller, da sie viel höher getaktet sind. Dies macht ja neben der Art der Shader (1D vs. 5D) einen Vergleich/Einordnung der Shaderleistung so schwer ;)


EDIT
@Mephisto2022
He he... Zwei Dumme... ;)
 
Zuletzt bearbeitet:
DvP schrieb:
Das mag schon stimmen, aber so hat das keiner gesagt. Ich hab geschrieben, dass man die 5D Shader kaum so effektiv auslasten kann wie die 1D von NV ;-) Im worst case Fall: Scheduler arbeitet extrem schlecht, oder jeder Shader muss eine andere Operation ausführen, könnte die GTX480 580 ops ausführen und die 5870 nur 320. Die Realität scheint sogar ziemlich oft nahe an so einem Worst Case Fall dran zu sein.

achso dann habe ich dich vorhin etwas falsch verstanden.
Aber an dem punkt das Ati viel leistung gewinnen könnte wenn sie ihre 5D shader effektiver auslasten könnten halte ich fest.

Worst Case Ati 320 ops NV 580 ops (wie kommst du auf 580ops bei 480 shadern?)
Best Case Ati 1600ops NV 580 ops (stimmt das so?)

dazu muss man noch die taktraten der beiden karten berücksichtigen Ati hat ja keine eigene shader domain mit seperatem takt

Ati 5870 shader laufen mit 850Mhz und NV480 Shader bei 1400Mhz
 
War es eigentlich schon mal der Fall, dass wir so kurz vor dem Release einer neuen Generation, so extrem wenig gewusst haben? Im Endeffekt ist uns NICHTS bekannt, außer der Tatsache, dass in 40nm gefertigt werden muss. Nicht mal der Codename ist mehr gewiss, nachdem im aktuellen Treiber nur NI und nicht SI auftaucht.

Mephisto2022 schrieb:
Worst Case Ati 320 ops NV 580 ops (wie kommst du auf 580ops bei 480 shadern?)

Sorry, hab mich einfach nur vertippt :rolleyes:
Hab vergessen den Takt mitzurechnen. THX @ cyrezz für den Hinweis!
 
Zuletzt bearbeitet:
hier wird ein wenig was verwechselt hab ich das gefühl --- ohne mich jetzt groß mit der ATI architektur auszukennen: 5D wird wohl benutzt um die grafikkarten-typischen aufgaben zu bewältigen, also z.B. modifikation von 3D koordinaten oder 4D farb-daten (RGBA), warum gerade 5D benutzt wurde weiss ich zwar auch nicht, vielleicht für zusatzfunktionen auf daten oder RGBA+(extra-info), aber es würde auch erklären warum die nächste generation nur noch auf 4D Shader setzt (RGBA eben).

Keiner der Shader kann übrigens ohne Probleme seperat eine Operation ausführen getrennt von den anderen Shadern. Weder bei NVIDIA (thema warps), noch bei ATI (thema cluster). Bei beiden herstellern werden immer 16 shader-einheiten zusammengefasst, kommt eine operation rein die nur von 1 shader berechnet werden muss, warten die anderen 15.

Ich denke mal die NVIDIA Grafikkarten arbeiten etwas effektiver, weil der Scheduler besser ist und weil die 1D Shader nicht noch extra aufgaben bekommen müssen zur besten ausnutzen im gegensatz zu 5 bzw. 4D.

Gruß

ps. mal sehen was die zukunft bringt @ HD6xxx-Generation
 
Zuletzt bearbeitet: (typo)
Ich halte die Benchmarks durchas für realistisch und freue mich auf diese Karte.

Aber: Aussagen wie "Dann kann nvidia einpacken" und "dann wars das wohl mit nvidia" etc. pp. finde ich stark übertrieben.

Die aktuelle 480 GTX ist immer noch eine tolle Karte, Performance satt und durch Tesselation sehr innovativ. Die AMP-Varianten zeigen, dass es dabei auch noch leise und relativ kühl geht. Gemessen an der Anzahl der Transistoren ist der Stromverbauch nicht zu hoch. Ein Cypress mit der selben Anzahl an Transistoren dürfte nicht viel weniger verbrauchen.

Ich bin mir sicher, dass nvidia nicht schläft und es auch in den nächsten Jahren bei einem offenen Schlagabtausch bleibt, das ist auch gut so.

Meine nächste Karte wird definitiv diese Karte sein, dann hat mein 4890 Crossfire endlich ausgedient.

Grüße
Max
 
Volker schrieb:
Dieser zeigt ein beeindruckend hohes Ergebnis in 3DMark Vantage
Ehrlich gesagt, für das kommende ATI Spitzenmodell finde ich das Ergebnis alles Andere als beeindruckend. Das schaffen auch diverse, nicht mal so sehr stark übertaktete, HD 5870. Aus der Sicht finde ich es eher enttäuschend.
 
Ich halte es für keinen Facke, Zumal man sich den Sprung von GTX 480 zu HD6870 anschauen muss, da sieht es realistisch aus, klar von hd 5870 -> hd 6870 ist es viel, aber meines erachtens hat AMD/ATI die Karte optimiert und etwas verbessert um die Krone für Singlecore Karten wieder zu gewinnen.

Also heißt es warten, die Hersteller scheinen es interessant zu machen, immerhin soll ja die neue Fermi auch bald kommen.
 
Wictale schrieb:
70 shader laufen mit 850Mhz und NV480 Shader bei 1400Mhz

So gesehen wäre das folgendermaßen:

Worst Case ATI: 272.000 vs 672.000 (NV) OPS
Best Caste Ati: 1360.000 vs 672.000 (NV) OPS

EDIT:
Wo ist eigentlich die Quelle, dass 4D shader verwendet werden sollen??
 
Zwirbelkatz schrieb:
Bleibt nur zu hoffen, dass dieser Speicher, falls er wirklich so hoch getaktet ist, kein Stromvernichter ist. Vor allem nicht idle. Denn dort hat die GTX460 deutlich vorgelegt mit ihren ca. 15 Watt Verbrauch.


cool eine Middle-Low-Range Karte mit einer High-End vergleichen... ^^
 
Jolly91 schrieb:
...immerhin soll ja die neue Fermi auch bald kommen.

Wir/Ich hab noch nichtmal alle gt400 gesehen, was soll da denn schon neues kommen ?
 
@Plastikman

Die GTX460 ist bei weitem kein Kostverächter. Der G104 ist sogar so gut, dass wahrscheinlich ein GTX470-Refresh auf Basis dieses Chips erscheinen wird/soll. Unabhängig davon macht die GTX460 so ziemlich alles besser als der Ur-Fermi und zu manchen Teilen auch als die HD5850/70, weswegen die Karte sogesehen in gewissen Disziplinen als Maßstab angesehen werden kann, was Zwirbelkatz meiner Meinung nach zu recht getan hat.

@DUNnet

Das ist unmöglich dein Ernst.
 
Ich trau der HD 6870 schon diesen 3DMark Wert zu. 2000 Punkte vor der GTX 480, das wäre der Hammer wenn sich das bestätigen würde. Das wären bis zu 20% mehr Performance gegenüber der GTX 480. Ich hätte höchstens erwartet, dass man mit der GTX 480 gleich auf liegt oder nur ein wenig schneller ist, aber mit 20% hätte Ich nicht gerechnet. Der Takt des Speichers ist schon recht hoch, womöglich ist er in diesem Screen ja leicht übertaktet. Ich hoffe nicht, dass die Karte mehr als 250 Watt verbrauchen wird. Bei der Leistung wird das auf jeden Fall ein Kassenschlager für AMD, selbst wenn die Kapazitäten bei TSMC zum größten Teil von Nvidia belegt sind.
 
Iron Grey schrieb:
@Plastikman

Die GTX460 ist bei weitem kein Kostverächter. Der G104 ist sogar so gut, dass wahrscheinlich ein GTX470-Refresh auf Basis dieses Chips erscheinen wird/soll. Unabhängig davon macht die GTX460 so ziemlich alles besser als der Ur-Fermi und zu manchen Teilen auch als die HD5850/70, weswegen die Karte sogesehen in gewissen Disziplinen als Maßstab angesehen werden kann, was Zwirbelkatz meiner Meinung nach zu recht getan hat.

@DUNnet

Das ist unmöglich dein Ernst.


Ich sag auch nicht, dass die GTX 460 schlecht ist. Aber dass eine Mid-Low Range Karte weniger verbraucht als eine kommende High-End ist ja wirklich nicht schlimm^^. Das ist alles was ich sagen wollte.

Außerdem habe ich das Gefühl, dass die GTX 460 ein kleinwenig übermäßig gelobt wird. Sie ist gut, aber alle tun so, als ob die HD 5770 oder HD 5830 so völlig unnütz sind. Wenn dann noch Leute bereuen eine HD 5870 gekauft zu haben, nur weil es eine GTX 460 gibt, verstehe ich die Welt nicht mehr :P
 
Plastikman schrieb:
cool eine Middle-Low-Range Karte mit einer High-End vergleichen... ^^
Die HD5870 mit 20 Watt idle kanns ja auch, also wo genau ist jetzt dein Problem? Abgesehen davon agiert eine GTX460 mit Werksübertaktung fast auf dem Niveau einer GTX470 und die ist bestimmt nicht "low" oder irgendwas.

@Iron Grey
Danke :)

Ich sag auch nicht, dass die GTX 460 schlecht ist. Aber dass eine Mid-Low Range Karte weniger verbraucht als eine kommende High-End ist ja wirklich nicht schlimm^^. Das ist alles was ich sagen wollte.
Was abzuwarten wäre. Der Verbrauch der GTX460 ist solide, aber bei weitem nicht perfekt.

Wenn dann noch Leute bereuen eine HD 5870 gekauft zu haben, nur weil es eine GTX 460 gibt, verstehe ich die Welt nicht mehr :P
Weil viele womöglich zu viel für ihre HD5870 gelöhnt haben. Ich habe meine jedoch für 300 Mücken gekauft, das ist gemessen an der Mehrleistung noch zu ertragen.

Einzigste was ich glaube das es so was wie bei der HD4890 wird, das sie übertaktet und überarbeite Architektur werden was mehr Leistung bringt aber auch mehr Stromverbrauch.
Davon gehe ich ebenfalls aus.
 
Zuletzt bearbeitet: (Aus Mücken Elefanten gemacht)
DvP schrieb:
Bei welcher Anwendung und welchem OS?
Photoshop mit seiner OpenGL Unterstützung. PS läuft bei mir weitaus flüssiger, wenn ich diese komplett abschalte.
Poser möchte ich am liebsten garnicht erst aufmachen, so träge ist das Interface (jetzt mal ganz abgesehen von dessen Usability). Von OpenGL Rendering für Previews ganz zu schweigen.
Bekannte mit einer alten Nvidia haben bei diesen Anwendungen kein Problem. Alles flüssig wie es sein sollte.

Das sind jetzt für mich nicht unbedingt irgendwelche "must-have" Applikationen die 100% rund laufen müssen, aber wenn man sieht, wie eine ältere Nvidia die relativ neuere Ati im Regen stehen lässt, macht man schon dicke Backen.

Das soll hier jetzt kein Anti-Ati rumgeheule sein. Mit der DirectX Leistung bin ich vollauf zufrieden. Alles bestens dort. Ich würde mir halt nur gerne ein bischen mehr OpenGL Performance wünschen.
 
Ich warte lieber mal bis Ende September bis man den News mehr trauen kann. Den jetzt geht es wie immer los mit solchen auf einmal auftauchenden Screenshots ect.

Einzigste was ich glaube das es so was wie bei der HD4890 wird, das sie übertaktet und überarbeite Architektur werden was mehr Leistung bringt aber auch mehr Stromverbrauch.
 
DvP schrieb:
@ Forum-Fraggle

Ein "Fall" der eintreten kann ist nicht viel anderes als ein "Szenario" das eintrifft, oder? Letzteres ist ein gängiger begriff im zusammenhang mit "worst case", wie du wohl kaum abstreiten kannst. Klar klingts blöd, da gebe ich dir aber vollkommen recht. Ich würde es auch nicht nochmal schreiben :lol:

Schön daß Du es mit Humor nimmst, so meinte ich es auch :) Leider fühlen sich viele bei solchen Sprüchen böse auf die Füße getreten.
Aber abstreiten muß ich ;). Leider breitet sich der Begriff "worst case" aus (wie auch Cashcow), obwohl es dafür identische Begriffe in unserer Sprache gibt (ich halte viel von Anglizismen, die unsere Sprache bereichern!). Wie auch immer, das Wort case in worst case ist ja bereits der Fall/Szenario ;) Sagt ja auch keine Highway Autobahn ;)

Um wieder zum Thema zu kommen:
Ein neues DX wurd ja nicht angekündigt, also kann die Karte kein neues unterstützen. Ist eigentlich schon etwas zum Terminplan von Dx12 bekannt?
Und die Tesselation Leistung dieser karte würde mich interessieren.
 
hmm interessant.
gibt es eigentlich gute alternativen zu 3d vision? also auch mit SHUTTER-brille? weil mit ner farb oder polarisationsbrille würd ich nicht gerne spielen wollen^^ weil 3d interessiert mich schon (auch wenn es kaum hier jemanden interessiert), immerhin kann man ja dann ne kleinere geforce für physx verwenden, kommen ja immer mehr gute spiele die das nutzen (zb. metro, mafia), wäre aber schon super wenn man die dann vorübergehend abschalten könnte, wegen stromsparen
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben