News Erster Benchmark einer Radeon HD 6870?

Status
Für weitere Antworten geschlossen.
@hyprcrisy: was war an fermi ein großer wurf oO
schau dir die leistung von der gtx285 an und dann von fermi.
und dann die leistung der 4870 zur 5870.

dann würde ich die 5870 deutlich als besseren wurf ansehen. von der leistungssteigerung gegenüber dem vorgänge ca gleich, nur das fermi sich das mit stromverbrauch und temp erkauft (bis auf 460er).
bei ati war immerhin alles besser.

und wie schon gesagt wurde: es ist nicht schwer eine schnelle karte zu bauen! die schwierigkeit liegt darin, sie kühl, klein und sparsam zu halten.
ansonsten hätten wir schon 40cm grakas, wo gleich quad-sli/crossfire schon drauf wäre ;) *reine vermutung*
 
Die einzige Möglichkeit die mir grad einfällt die NV hat ist die GTX 490 2*2GB ohne µRuckler anzubieten, mit perfekten Support, vielleicht sogar günstiger als die HD 6870 um die höhe Leistungsaufnahme zu rechtfertigen. Aber das ist sowas von unwahrscheinlich und wirklich eine Panik-Lösung. Wenns wirklich so wird wie hier spekuliert kann NV einpacken für sehr lange Zeit... Gleiches Spiel wie beim G80(der war ja auch noch in 90nm was trotzdem ok war) nur diesmal darf AMD(ATI)abräumen.:daumen:
 
Das wird eine spannende Sache. :)

Habe mal nachgerechnet, Nvidia würde auch mit ner GTX485 (Vollausbau, 512SP, 800Mhz Takt) diesen Wert nicht schlagen.

Quelle: https://www.computerbase.de/artikel...11-test.1262/seite-3#abschnitt_3dmark_vantage

HD5870 macht 9075 Punkte,
GTX480 macht 9740 Punkte,
HD6870 macht 11963 Punkte (vermutlich).

Der GTX480 wurde ja im Vollausbau bei gleichem Takt (700Mhz) schon eine Leistungssteigerung von ca. 5,x% bescheinigt. Nimm man jetzt an, die Karte skaliert mit der Takrate !optimal!, dann wären das bei 800Mhz

9740 * 1,055 = 10276,
10276 / 700Mhz * 800Mhz = 11743 Punkte für eine theor. GTX485.

Ich glaube, dass AMD genau das NVidia damit mitteilen möchte, dass nämlich NVidia dem GF100 einen Respin (neues Stepping) verpassen muss, um mit mind. 850Mhz bei erträglicher Spannung und Verlustleistung takten zu können.

Ich bin fest davon überzeugt...
 
Also wenn die Karten tatsächlich in jetzigem Zustand 12 000 Punkte erreichen, ist das beeindruckend. Mit optimierten Treibern wirds sicherlich noch mehr.
 
Kasmopaya schrieb:
Die einzige Möglichkeit die mir grad einfällt die NV hat ist die GTX 490 2*2GB ohne µRuckler anzubieten, mit perfekten Support, vielleicht sogar günstiger als die HD 6870 um die höhe Leistungsaufnahme zu rechtfertigen.

Das ist wohl eher mehr als unwahrscheinlich, Mikroruckler entfernen, mit der jetztigen Art wie SLI arbeitet (AFR), wird das nix. Dazu ein perfekter Support :freak: , wird wahrscheinlich nicht drin sein, es sei den du bist Geschäftskunde und kannst direkt bei NV einkaufen. Und dann auch noch Günstiger als die 6870. Wenn man die Preise vergleicht, war NV doch schon immer teuerer!
 
Hoffentlich von vornherein in Serie mit 2GB ab Werk bzw alls HD6970 mit 2*2GB dann wir meine jetzige 5970 auch Verkauft.
Aber die Stromaufnahme wird auch sehr Interresant.
MFG
 
Es ist doch irgendwie immer das gleiche Spielchen. Irgendwer bringt irgendwo aus dubioser Quelle einen angeblichen Screenshot einer neuen Karte heraus

und schon sind die Nerds auf den Honigtopf hereingefallen und lecken sich die Pfoten von dem Bisschen was noch vom letzten Mal am Deckel kleben geblieben ist.

Viel interessanter ist doch die Frage, warum wir immer noch keine anständigen Games sehen die DX10 geschweige den DX11 in Reinkultur benutzen? Warum wir immer noch keine Games sehen, die mal die Vorgängerkartengenerations ordentlich nutzen?

Es ist ein Jammer und wie ich finde aktuell äusserst peinlich für elitäre Spieleschmieden, sich weiterhin mit Konsolen-DX9 und Klötzchengrafik ohne AA oder ähnlichen No-Future-Techniken zu beschäftigen.

In diesem Jahr haben wir noch wirklich sehr wenig Innovation in der Spieleindustrie gesehen, weder spielerisch noch technisch.

Also was zum Himmel soll ich mit nullsagenden Bild-vom-Monitor-Bildchen von einem synthetischen Benchmark, der weder praxisbezogen noch brauchbar ist?

Ok, wem die 2000 Extrapunkte anturnen, dem sei es gegönnt. Brauchbar sind sie hingegen aktuell nicht.

Es ist schön, dass ATI eine neue Karte bringen wird...aber hey...dont tell anyone...i got secret for ya: It´s always the same story...a new star will born.
 
Project-X schrieb:
hmm... wenn ich richtig gelesen habe, kommt die neue Radeon Serie schon in Oktober raus, und man sollte also vorher schon seine HD 58X0er auf Ricardo/Ebay verticken und je nachdem sich eine Temporäre GraKa holen um später bei der HD 68X0er zuzuschlagen?
Den nach dem Release verlieren die HD 58X0er enorm an Wert.

Lohnt nicht eine HD5870 wird 350.- kosten, bei Ebay bekommt man höchstens 280.- für ne gebrauchte HD5870... beobachte die Karten schon lange , davon muss man ca. 30 Euro gebühren abziehen also landen man bei 250.- !

ca. 100 Euro aufpreis für HD6000
 
Crossfire Sebi schrieb:
Das ist wohl eher mehr als unwahrscheinlich, Mikroruckler entfernen, mit der jetztigen Art wie SLI arbeitet (AFR), wird das nix. Dazu ein perfekter Support :freak: , wird wahrscheinlich nicht drin sein, es sei den du bist Geschäftskunde und kannst direkt bei NV einkaufen. Und dann auch noch Günstiger als die 6870. Wenn man die Preise vergleicht, war NV doch schon immer teuerer!

Mit Afr ginge das sicher auch, Ati hat ja einen Gpu to GPU bus bei der HD4870 gehabt, der wurde nur wegen des Stromverbrauchs nicht eingesetzt und das Ganze abgeblasen. Man hat aber verlauten lassen das man das wohl wieder einbauen wird und damit die Dualkarten massiv besser und geschmeidiger skalieren sollen.

Es kommt halt drauf an wie die Chips miteinander verbunden sind und nicht ur wie das Bild berechnet bzw die Gpus gebraucht werden.

Arhey schrieb:
Also wenn die Karten tatsächlich in jetzigem Zustand 12 000 Punkte erreichen, ist das beeindruckend. Mit optimierten Treibern wirds sicherlich noch mehr.

Man sollte den Benchmark genau wie irgendwelche Treiber nicht überbwerten...
 
MEDIC-on-DUTY schrieb:
Viel interessanter ist doch die Frage, warum wir immer noch keine anständigen Games sehen die DX10 geschweige den DX11 in Reinkultur benutzen? Warum wir immer noch keine Games sehen, die mal die Vorgängerkartengenerations ordentlich nutzen?

Es ist ein Jammer und wie ich finde aktuell äusserst peinlich für elitäre Spieleschmieden, sich weiterhin mit Konsolen-DX9 und Klötzchengrafik ohne AA oder ähnlichen No-Future-Techniken zu beschäftigen.

In diesem Jahr haben wir noch wirklich sehr wenig Innovation in der Spieleindustrie gesehen, weder spielerisch noch technisch.

Jo wie z. B. Crytek, die springen jetzt mit Crysis 2 auch auf den Konsolenzug auf =( Ich hoffe, dass Sie wenigstens ne gute Portierung von Steuerung und Grafik hinbekommen und das nicht so vermurkts wird.
 
Hoffentlich von vornherein in Serie mit 2GB ab Werk bzw alls HD6970 mit 2*2GB dann wir meine jetzige 5970 auch Verkauft.
Ne schaffen sie nicht, aber vielleicht strengen sie sich wenigstens so gut wie möglich an und es gibt wieder Verbessrungen. Eine GTX 485-512 hat laut ersten Gerüchten noch weniger Chance als die GTX 480, weil der Stromverbrauch exorbitant steigen soll. Schon Lustig, nichtmal eine Ankündigung von NV für irgend was neues, die überlassen mit der HD 6000 ATI komplett das Feld, bzw. ihnen bleibt ja gar nix anderes übrig. Gut für ATI, bei den Desktop GPUs haben sie immer noch nicht 50% Marktanteil, nur bei den Notebooks haben sie NV überholt. Aber das dürfte sich nun auch ändern, gute 60%-70% würden ATI schon mal gut tun. Die Treiberabeitlung könnte das Geld dringend gebrauchen. :rolleyes:

Wenn man die Preise vergleicht, war NV doch schon immer teuerer!
Aktuell sind sie sogar ein Ruckerl günstiger, liegt daran das sie die miserable Performance per Watt der Fermis mit dem Preis ausgleichen müssen bzw. den extrem schlechten Ruf durch die GTX 480/485.

Hoffentlich von vornherein in Serie mit 2GB ab Werk bzw alls HD6970 mit 2*2GB dann wir meine jetzige 5970 auch Verkauft.
Wirds sicherlich nicht geben, zumindest bei der HD 6870 wird es die 1GB geben, allein wegen dem Startpreis der sonst zu hoch währe. Aber schon Beschiss, die Karte ist ja prädestiniert für SGSSAA und Eyefinty bzw. die höchsten Einstellungen. Dürfte wohl ein Vram Krüppel werden...

Bei den Dualkarten(sowieso Bauernfängerei, erkennt man schon am Namen -> HD 5970, extra das X2 weggelassen und so tun als ob es eine singel Karte ist) ist es schon Tradition sie als Vram Krüppel los zu schicken, beim Marketing hat die karte ja 2GB Vram und nicht 2x1GB...
 
Zuletzt bearbeitet:
Jo ATI macht grad schon einiges richtig. Ich werde auch von meinem SLI System wechseln, wenn das Gesamtpaket von ATI stimmt. Bin bisher nur bei NV geblieben weil meine erste ATI nach 3 Tagen abgereaucht ist!

BTW: Ne Graka unter 1 Gb Vram nehm ich aber nicht meher^^ Der geht dann der Speicher zu schnell aus.
 
Aber die Grafikkarten, mit denen aktuelle Spiele in 3D Vision Surround mit 3 Full-HD-3D-Monitoren laufen, müssen erst mal gebaut werden :P

Und dafür brauch man bei anständigen Bildquailitäteinstellungen und aktuellen nicht besonders grafikhungrigen Spielen schon mal die Rechenleistung von 3 GTX 480 für flüssiges Spiel.

Insofern dürfen AMD und Nvidia gerne mal ordentlich weiterforschen ^^

... und ATI 3D-Shutterbrillen-Unterstützung endlich mal bieten... mein Gott, das wird doch nicht so schwer sein!


Ach ja, PS: Die GTX 480 schlechtzumachen nur wegen 100W höherem Stromverbrauch... Who cares, das sind bei 20h leistungshungrige Spiele (Furmark-Werte sind einfach unrealistisch) zocken die Woche 45 Cent. Ein großes Glas Leitungswasser statt Cola pro Woche trinken, dann habt ihr das wieder rein... dieses Argument ist echt lächerlich @ATI-Fanboys.
Btw frisst mein System mit Core i7-875K@4GHz und overvolteter GTX 480 @1,113V inkl Wakü und vielen Lüftern/Lampen bei WoW in Donnerfels stehend an der Steckdose gemessen... 280W :D
 
Zuletzt bearbeitet:
@Cey123
Geht auch bei amd...und dort wird nur eine Karte gebraucht, um drei Monitore anzufeuern.
 
Dr.Pawel schrieb:
Letztendlich wird es mMn eben an der Verfügbarkeit hängen bleiben, schaffen es die Karten in ausreichenden Stückzahlen produziert zu werden hat Nvidia nichts dagegen zu halten. Nvidia wird natürlich dann massiv an der Preisschraube drehen müssen, was dem Gewinn und den Quartalszahlen wohl nicht gerade gut tun wird.
Mfg

Und dann könnte das passieren, was schon mal passiert ist. Nvidia muss die Karten erneut EOL schicken, weil sich die Gewinnmarge nicht mit den Kosten deckt. So, wie es einst bei den eigentlich soliden GTX260 Karten der Fall gewesen ist. Bevor einer mault: Ich hatte selbst eine.
 
so wie ich das sehe ist ATI momentan eine generation zurück im vergleich zu nvidia und würde mit der 6xxx serie ausgleichen.
mit generation meine ich, nur dual ATI gpu karten können single nvidia gpu schlagen. auch in anbetracht der transistorenanzahl hat ati ca. 40-60% von dem was nvidia verbaut. dennoch ist es erstaunlich, dass ati mit weniger transistoren so nah an nvidia rankommt ;-). ati ist nun einmal effizienter und güsntiger in vielen bereichen als nvidia.

es würde mich freuen, wenn ati eine 6xxx serie rausbringt, dann hat nvidia erneut probleme und muss es sich vielleicht überdenken, ob sie weiterhin so ein arrogantes verhalten sich leisten können.
 
Crossfire Sebi schrieb:
Wenn die Karten schnell genug sind für Auflösungen ab 1920 x 1200 is se gekauft, und en neuer Bildschirm dazu^^

Du weist aber schon, dass es genug Karten gibt, die schnell genug für 1920 x1200 plus AA und AF sind oder?

DvP schrieb:
Ui, das wäre interessant! Wenn Antilles mit wirklich als doppelte Cayman-XT kommt, könnte das ein sehr gutest Indiz für die Leistungsaufnahme des Chips sein. Die GPUs der 5970 waren ja nicht ohne Grund etwas gedrosselt worden.




Das denke ich auch. Wobei ich glaube dass der Cayman maximal 400mm² groß sein wird. Nicht mehr.

Ja Ich rechne ja auch am ehesten mit maximal 400 mm², aber 420 bis 450 mm² halte Ich durchaus auch für möglich. So wie Ich AMD kenne, wird man auf eine möglichst hohe Ausbeute schauen und dementsprechend die GPU möglichst klein halten. Wenn die Karte das Leistet, was dieser kleine Bench zeigt, kann AMD die HD 6870 für 500€ verkaufen und macht damit dicke Gewinne.

Was Ich interessant fände, wäre eine Angabe darüber wie viel Prozent Nvidia von der 40nm Produktion bei TSMC reserviert hat. Es heißt ja man habe einen Großteil reserviert. Das könnten 60, 70 oder sogar 80% sein.

Die TDP der HD 5970 liegt ja bei ca. 300 Watt. Möglich, dass die Antilles XT nicht viel mehr verbraucht. Das würde bedeuten, dass der Cayman sogar weniger Strom braucht, als der Cypress. Das wäre nur möglich, wenn man Leckströme beseitigt. Aber gut, man hat mehr Erfahrung mit 40nm als vor dem Cypress. Gut möglich, dass man die Architektur stark optimiert hat und somit eine geringere Core-Spannung realisieren kann. Es könnte aber auch sein, dass die Antilles XT mehr als 300 Watt verbraucht, wobei ein Plus von 10 - 20 % beim Stromverbrauch ja auch nicht dramatisch wären, wenn die Leistung im gleichen Maß steigt. 10% wären 19 Watt, also rund 210 Watt beim Cayman. Wenn die Chipfläche um 10% steigt, durchaus realistisch.
 
Cey123 schrieb:
Ach ja, PS: Die GTX schlechtzumachen nur wegen 100W höherem Stromverbrauch... Who cares, das sind bei 20h leistungshungrige Spiele zocken die Woche 45 Cent. Ein großes Glas Leitungswasser statt Cola pro Woche trinken, dann habt ihr das wieder rein... dieses Argument ist echt lächerlich...

Das Glas Wasser müsste ich wohl eher zur Kühlung der Grafikkarte verwenden, damit ich den lauten Lüfter nicht mehr hören muss. Aber auf ne WaKü hab ich halt keinen Bock...

Das Problem ist eben nicht nur die Leistungsaufnahme, sondern auch die damit verbundene Hitzeentwicklung des Chips und die dafür notwendige Kühlung.

Meine ATI hör ich auch beim Zocken unter Vollast nicht raus und ich kann meine 5.1-Anlage genießen ;-)


Aber ich bin mal gespannt, wie die 6870 so wird... wenn die was taugt und mit 2GB kommt könnte ich zum ersten mal meinen Zyklus (nur jede 2. Generation kaufen) durchbrechen. Bisher hört sich's ja schon mal ganz gut an und damit meine ich jetzt nicht nur diesen (evtl. fake) Benchmark sondern die anderen Gerüchte um 4D Shader und mehr Tesselation-Leistung.
 
Crossfire Sebi schrieb:
Jo wie z. B. Crytek, die springen jetzt mit Crysis 2 auch auf den Konsolenzug auf =( Ich hoffe, dass Sie wenigstens ne gute Portierung von Steuerung und Grafik hinbekommen und das nicht so vermurkts wird.


Und selbst Crysis 2 sieht auf der Xbox 360 einach Sch.... aus!
Die Grafik blieb einfach auf dem Stand von 2008 stehen. Das ist auch der Grund, warum viele ältere Spiele, z.b. Oblivion heute noch so schön und modern wirken.
Von Call of Duty will Ich nicht mal anfangen, die verwenden seit MW die selbe Engine und haben sie nur sehr leicht verbessert. Ich denke auch nicht, dass die nächsten drei Grafikkarten-Generationen etwas bringen werden, wenn man sowieso auf Konsolen-Niveau bleibt. Erst 2013, 2014 wird sich merklich etwas ändern, nämlich dann wenn die neue Konsolengeneration auf den Markt kommt. Dann wird DX11 ähnlich etabliert sein wie DX9 heute. Es gibt doch nur noch Spiele, die mit DX9-Engines kommen. Man sucht vergeblich nach Spielen, die auf DX10 oder 11 setzen. Ein paar Ausnahmen gibt es, das ist aber auch alles. Man frägt sich wirklich, wozu man noch alle 2 Jahre eine neue Grafikkarte kaufen muss, wenn die Grafik onehin auf DX9-Level bleibt.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben