News Erster Benchmark einer Radeon HD 6870?

Status
Für weitere Antworten geschlossen.
toll wie immernoch mit 3dmark vantage zahlen geprahlt und hysterie verbreitet wird. aber mal ehrlich, wen interessieren immer mehr frames auf einer alten technik? ich will neue technologie und nicht eine nächste generation ati karten die immernoch das selbe nur besser kann. mfg
 
@FrankGTL: Könnte möglich sein, aber die HD6870 wird auch nicht so Verlustarm werden.

Und ATI Und Nvidia machen ja bestimmt irgendwie ein gemeinsames Ding. Glaube das eine GTX485 bestimmt wider kommen wird auch.
 
GunnyHartman schrieb:
Du weist aber schon, dass es genug Karten gibt, die schnell genug für 1920 x1200 plus AA und AF sind oder?

Damit meinte ich eigentlich Auflösungen ab 1920 x 1200. Habs falsch geschrieben! So ne enorme Pixeldichte ist einfach der Hammer. -> Dell Ultrasharp mit 2560 x 1440 auf 27 Zoll ist einfach nice anzusehen.
 
Jesterfox schrieb:
Das Problem ist eben nicht nur die Leistungsaufnahme, sondern auch die damit verbundene Hitzeentwicklung des Chips und die dafür notwendige Kühlung.

Die ATI-Referenzlüfter sind auch nicht so viel besser, siehe auch Vergleiche im Internet über den Klang der Lüfter im vergleich zueinander (GTX480 zwar lauter, aber dafür etwas unauffälligeres Rauschen)

Undervoltet um 0,1V bei gleicher Taktrate war meine GTX 480 auch relativ unauffällig im Vergleich zu den Gehäuselüftern etc.

Der einzige Nachteil ist derjenige, dass GTX480-Versionen mit modifiziertem Kühler immer noch recht rar und teuer sind.
Aber prinzipiell bekommst du mit einem alternativen selbst angebrachten Luftkühler (z.B: dem Zalman, der ind er AMP! verkauft wird, den gibts ja auch extra zu kaufen, oder dem Artic Cooling Accelero Plus) auch die GTX 480 auf Luft unter Last ggf. mit OC angenehm laut.
 
Zuletzt bearbeitet:
Wattebaellchen schrieb:
Die Verfügbarkeit wird also bei der Serie auch nicht so der Hit sein, aber eine HD6770 würde den meisten schon reichen und davon dürfte es nach kurzer Zeit mehr als genug geben.

Bessern wird sich das erst wenn die Nachfolger bei Globalfoundries in Dresden vom Band laufen.
Bei der Verfügbarkeit sehe ich weniger Probleme.

Erstens, wird zwischen Mitte 2010 und Ende 2010 eine ganze Fabrik (Fab14) auf 40nm umgestellt.
Nvidia wird kaum noch mehr Wafer bestellen können, aber Qualcomm schon. Aber wenn AMD bei der zweiten Fabrik wieder nur diese "wenigen" Stückzahlen bekommt wie in der Ersten, weil diesmal Qualcomm bevorzugt wird, dann wäre das immer noch eine Verdopplung der Wafer-Stückzahlen

Zweitens, wenn HD 6870 wirklich 30% zulegt, dann kann AMD sie je nach Preiskampf zwischen 350 und 500 Euro verkaufen. Vorallem, wenn sie schneller als GTX485 ist.
Mit 500 Euro wäre der Markt viel kleiner und somit braucht AMD da weniger Wafern.

IMO hat AMD mit der 4000er & 5000er-Serie trotz guter Position einen Preiskampf gemacht, damit sie ihre Image deutlich verbesserung und andererseits Marktanteile gewinnen und Nvidia zu überholen, weil sie mit besseren Marktanteilen Physx & Cuda überhaupt/schneller besiegen können.

Das Image ist schon erheblich verbessert worden und die Gesamt-Marktanteil-Krone hat man auch schon.
Um weiteren Marktanteile dazuzugewinnen müssen sie wahrscheinlich die Einzel-GPU-Krone bekommen sowie IMO das AF-Flimmern wegzubekommen, wobei es nicht so perfekt werden muss wie die AF-Blume.
Kurz gesagt, AMD müsste keinen Preiskampf mehr machen sondern mit Qualität & schnelleren GPU kontern.

Und danach sieht es aus und wenn wenn wenn AMD mit der HD 6870er schneller & sparsamer als HD 485 ist, sowie mit der neuen Architektur auch noch das AF-Flimmern wegkrieg und sonstige Qualtitäsverbesserungen bringt, dann könnte AMD den HD 6870 wieder erheblich teurer verkaufen, wodurch die dann recht weniger Wafer brauchen, was bei einer eventuellen Wafer-Knappheit sehr nützlich sein kann.
Sowas wie HD 5870 mit zu niedrigen Preisen und großen Lieferschwierigkeiten um das Image zu verbessern hätte AMD IMO dann nicht mehr nötig.

Kasmopaya schrieb:
Refresh? Ne was ganz neues ein "Hybrid" mit Teilen der neuen Architektur und so wies ausschaut wurden die wichtigsten Teile übernommen, ergo quasi die neue Architektur nur mit mehr Stromverbrauch wegen 40nm, aber immer noch doppelt so gut effizient wie jede Fermi...
Ohne 32nm-Probleme wäre die neue North-Island-Architektur eh längst am Markt.
Natürlich nimmt man die ganze Architektur, aber vielleicht mit etwas weniger Einheiten, da man mit 40nm (=Hybrid) nicht mehr so viele Freiheiten hat.
Okay, das ist meine Vermutung, was so ist es mit Abstand am Logischsten.

franeklevy schrieb:
Naja, als Refresh aber eigentlich ganz gut, bin gespannt wie Nvidia darauf reagieren wird.
Was sollen sie reagieren?
Wir wären schon mal froh, wenn Nvidia es schafft eine GPU am Markt zu bringen, der nicht teildeaktiviert werden muss.
 
@GunnyHartman: CoD verwendet seit dem aller ersten Teil die gleiche Engine, allerdings wird sie von Titel zu Titel immer weiter aufgebohrt bzw optimiert.
 
Kaum ist ein Benschmark raus ( der sowieso fragwürdig ist ), schon starten einige wieder mit dem Standard gelaber hier durch.
Im Herbst jetzt AMD paar Monate später wieder Nvidia. was soll dieses dumme gerede Nvidia kann den Löffel abgeben und was weiss ich.....:rolleyes:

Ihr wisst doch garnicht woran diese Leute da arbeiten.
 
Mal angenommen es ist kein Fake, so sind doch 20% Geschwindigkeitsvorteil für eine neue Generation von Grafikkarten ein Witz. Was ist aus den Zeiten geworden wo es mindestens 60% waren?
 
Junge denk mal nach es wird immernoch in 40 nm gefertigt. Wenn du 50 % leistungs steigerung haben möchtest musst du auch mit dem massiven anstieg an Stromverbauch leben.

Es müssen mehr Transistoren verbaut werden, das macht den Chip teuer weil größer. Amd will aber anscheinend nen günstige Chip haben der effizient ist und grade so die Konkurrez schlägt.
 
flappes schrieb:
Die Leistung einer Grafikkarte zu steigern ist das kleinste Problem.
Die Kunst besteht darin eine günstige Karte zu produzieren und den Stromverbrauch in Grenzen zu halten.

Daher finde ich solche zahlen recht witzlos.
Man muss Bedenken, dass Southern Island angeblich schon teilweise die nächste Generation nutzt.
Außerdem hat ATI jetzt dermaßen lange Zeit gehabt den 40nm Prozess zu optimieren. Ein Problem am Anfang war ja z.B., dass die Leitungen zwischen Chipebenen (sry, wenn ich das, was ich mal gelesen habe, nicht gut wiedergeben kann) oft fehlerhaft waren. Aus 4770 hat ATI dann die Konsequenz gezogen und bei der HD5000-Serie diese Leitungen immer doppelt ausgelegt, um die Zahl der funktionsfähigen Chips hochzuhalten. Wenn der Prozess jetzt nochmal 1 Jahr älter ist, TSMC weiter ist, und ATI noch besser die Probleme kennt, können die allein durch solche Optimierungen die Leistungsaufnahme senken und Geld sparen. Wenn sie wissen, dass sie inzwischen bestimmte Sachen nicht mehr redundant auslegen müssen, sinken Leckströme, die Chipfläche wird kleiner bzw. bleibt bei mehr Shadern annähernd konstant etc.

Ich glaube kaum, dass die HD6000-Serie so viel Lärm und Wärme entwickeln wird, wie ne GTX480 oder vergleichbares. Vllt. ein bisschen mehr, aber dürfte im Rahmen bleiben.


Und ein Punkt, der berücksichtigt werden muss: ATIs reine Rechenleistung war schon seit Generationen über der von nVidia-Karten. Aber mangels Dreiecksleistung etc haben sie bei Spielen immer schlechter abgeschnitten. Wenn ATI nun durch DirectX 11 und Tesselation dazu gezwungen war die Dreiecksleistung massiv aufzubohren und jetzt wirklich die Rechenpower der Chips ausnutzen kann, dann ist so ein Leistungssprung vollkommen im Bereich des Möglichen.
Also:
1. Weitere Optimierungen auf 40nm +
2. Design-Elemente von Northern Island +
3. Beseitigung der größten ATI-Schwachstelle
= 30% mehr Leistung Nice one
 
Zuletzt bearbeitet:
Ich weiss nur eins, die HD5870 wird meine letzte Graka sein! Es ist zwar schön das es immer weiter geht aber was die letzten Jahre so abgeht ist einfach nur noch lächerlich. Wieviel Spiele sind den jetzt drausen wo die hd5870 nicht mitkommt? Naja egal bin eh schon zu alt dafür und werd mich zu ruhe setzten was das Thema angeht.
 
Sehr schwierige zeiten kommen auf NVIDIA zu, nach 8 Monaten gerade so mal HD5870 um 10% geschlagen mit widerlichen mitteln (STROMVERBRAUCH, LAUTSTARKE, TEMPERATUR) , verzweiflung pur !
...und jetzt bringt AMD noch ne HD6000, Huang bekommt die tage graue haare.
 
Zuletzt bearbeitet:
Wie AMD es wohl mit den Preisen der neuen Serie macht? Wäre cool wenn sie die "alte" 5000 Serie einfach günstiger machen, und die neue auf dem selben Preisstatus wie die 5000er serie jetzt.... hoffentlich werden sie nicht all zu teuer
 
Ich glaube kaum, dass die HD6000-Serie so viel Lärm und Wärme entwickeln wird, wie ne GTX480 oder vergleichbares. Vllt. ein bisschen mehr, aber dürfte im Rahmen bleiben.

Der 6 und 8 Pinner sind nicht umsonst an der Karte. Wie schon von anderen vermutet, wird die 6870 wohl um die 250 Watt verbrauchen ! Das hat sicherlich unter anderem damit zu tun das die Leistung Richtung Tesselation aufgebohrt wurde.

Somit entwickelt sich die 6870 ganz klar in Richtung GTX 480/2 (512 SP). Immer in der Annahme das was wir jetzt wissen, den Tatsachen entspricht. Warum nun einige GF 100 "hasser" das hier als den großen Fortschritt Ihrer geliebten AMD's betrachten ist mir unverständlich.

Die alles entscheidende Frage ist doch für die meisten Highend'ler bei der Sachlage: Werden die ATI'S auch per Software zu Voltmodden sein ? Sollte das nicht der Fall sein (wie zuletzt auch) werden GTX 485 und 6870 wohl zumindest übertaktet sehr nahe bei einander liegen ! Das der Stromverbrauch bei der NV dann 50 Watt +X mehr sein wird interessiert in dem Bereich doch nicht wirklich, zumindest kaum einen tatsächlichen Käufer.

Das das Ganze nach guten Kühllösungen verlangt ist klar, nur ab dann auch bei AMD (250Watt +X)!

Aber die Zeit steht ja nicht still und die Mainboard's mit PCI Express slot's im dreier Abstand, werden wohl die Regel. Dann kann auch weiterhin fröhlich tripple SLI'iert und ge-Xf't werden. Braucht man nur das geeignete Gehäuse mit nem guten NT.

:)
 
Ich hab noch kein Bild von nem PCB gesehn, daher sind es nur Gerüchte... die HD5750 hat auch nen 6pin obwohl sie an der Grenze des PCI-E Slots liegt, andere würden den 6 pin weglassen, passt schon so.

Zumal 6 + 8 pin auch für die Dualkarte sein könnten :freak:

Eine HD5970 hat entweder 2 6 pin oder 6 +8....
 
Ja gut, Ich meinte das auch auf den Stand von MW1 bezogen. Nach CoD 3 gabs ja einen größeren Sprung und seit dem nicht mehr wirklich.

Ich weis gar nicht, wieso sich jetzt wieder einige darüber aufregen, dass man die Leistungsaufnahme der Fermi-GPUs bemängelt.
Der Cypress verbraucht bei 15 % weniger Performance einfach mal 100 Watt weniger Strom. Das ist schon eine nennenswerte Lücke und zeigt auch, dass AMD das effizientere Chipdesign hat. Wenn die SI kommen werden sie womöglich zu den Fermis aufschließen, sowohl was Verbrauch als auch Leistung anbelangt, allerdings werden sie niemals ein derartig schlechtes Performance pro Watt Verhältnis haben. Mag sein dass der Verbrauch um 10, 20% steigt, gleiches gilt dann aber auch für die Performance.
Manche mögen zwar sagen, dass es darauf nicht ankommt, okay. Aber 50 bis 100 Watt weniger Stromverbrauch bei gleicher Performance sind schon ein Argument. Eine GTX 480 lässt sich durch Undervolting auch etwas im Verbrauch bremsen, eine SI-Radeon wird aber dennoch weniger verbrauchen und mindestens gleich schnell sein. Man könnte die Radeon ja auch undervolten, dann wäre sie widerrum sparsamer und dennoch schneller.
Wenn Ich es mir aussuchen kann, nehme Ich schon die Karte, die bei gleicher Leistung 100 Watt weniger verbrät, allein schon wegen der Kühlung und der Hitze, aber auch dem Stromverbrauch. Wer unbedingt eine GTX 480 möchte, wird sie sich auch kaufen, egal wie viel Strom sie verbraucht, das sind dann aber nur wenige. Die Mehrzahl der Käufer schaut halt einfach auch auf Eigenschaften abseits der Performance. Der Preis ist auch entscheident und weniger Stromverbrauch bedeutet eventuell auch, dass man am Netzteil und der Belüftung sparen kann.

Von daher ziemlich blödsinnig hier den Mehrverbrauch der Fermis als Bashing gegen Nvidia abzutun.
 
Sehr guter Zug von AMD, durch diesen angeblichen Benchmark wird die Kaufkraft für die GTX460 Käufer wieder geschwäscht und man wartet lieber auf den Release der HD6*** Serie um mehr Leistung für den gleichen Preis bekommen zukönnen (Glaskugelguck)

Hätte mir auch fast eine 460 gekauft, nun wird doch erstmal gewartet.
 
naja die neuen karten wären (wenn die leistung über der gtx480 ist) auch auf deren niveau, was dem preis angeht, oder vllt noch drüber sein. amd hat ja auch nichts zu verschenken und die können das geld sehr gut gebrauchen, wahrscheinlich geben sie nur deswegen so derbst gas, damit sie auch mal bisschen was verdienen können
 
Pumpi schrieb:
Der 6 und 8 Pinner sind nicht umsonst an der Karte. Wie schon von anderen vermutet, wird die 6870 wohl um die 250 Watt verbrauchen ! Das hat sicherlich unter anderem damit zu tun das die Leistung Richtung Tesselation aufgebohrt wurde.

Somit entwickelt sich die 6870 ganz klar in Richtung GTX 480/2 (512 SP). Immer in der Annahme das was wir jetzt wissen, den Tatsachen entspricht. Warum nun einige GF 100 "hasser" das hier als den großen Fortschritt Ihrer geliebten AMD's betrachten ist mir unverständlich.

Ein bisschen voreilig, über den Stromanschluss, die Leistungsaufnahme so exakt schätzen zu wollen. Es soll ja schließlich auch Karten geben, die weniger verbrauchen als das maximal mögliche, was der Anschluss hergibt.
Die HD5870 z.B. hat auch einen 6 + 8 Pin Anschluss und verbraucht keine 250 Watt.

Allein, das die Antilles aus zwei vollwertigen Cayman XT bestehen soll, lässt vermuten, das es eben nicht zu einem Verlußtleistungsanstiegt kommen wird. Eher das Gegenteil ist der Fall.

Aber wir werden sehen was wirklich mit der 6000er los ist, wenn der CB-Test erwartungsvoll erscheint.
 
AMD_Freak_ schrieb:
Wie AMD es wohl mit den Preisen der neuen Serie macht? Wäre cool wenn sie die "alte" 5000 Serie einfach günstiger machen, und die neue auf dem selben Preisstatus wie die 5000er serie jetzt.... hoffentlich werden sie nicht all zu teuer
Die werden dann einfach eingestampft, weil die Produktionskapazitäten nach wie vor niedrig sein werden. Restbestände wird es sicherlich auch kaum welche geben.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben