News Spezifikationen der HD 6990 (nicht) enthüllt

Sorry Krautmaster lass doch mal dein Fanboygeblubber. Erst was von total überzogenen 10% faseln und nachher angeblich nur noch 5-7% was ebenso falsch ist. Im CB-Test gibts sogar Benchmarks wo der High-Quality-Bench mehr FPS hat wie mit Einstellung Quality. Und bei CB waren es Worstcase ca. 5%, meistens aber 3% oder weniger. Wo sprichst du hier bitte von Vorteil?

Edit: An MR2 las die Bilder mal stecken, die wurden schon einige Seiten vorher gepostet. Du brauchst sie jetzt net nochmal so Fett hier reinhängen!
 
Zuletzt bearbeitet:
sorry;-)

2 Geometriepipelines versorgen je eine Setup Engine
 
Zuletzt bearbeitet:
Dann kann ich echt nicht nachvollziehen wieso du immer noch ne 4850 im Rechner hast. Du musst ja tagtäglich Qualen leiden bei der miesen BQ
 
Die 1920 Streamprozessoren der HD 6970 sprechen für die schnellste Single GPU 2010 :cool_alt:
 
TeHaR schrieb:
Mit 480 Shadern wird die 6970 locker die GTX 580 schlagen. 50% mehr Shader dabei sollen die neuen komplexeren 4D shader ja ca. 20% effizienter sein. Dh. Cayman hat schonmal effektiv 80% mehr Shaderpower als Cypress.

Ähm ich glaub du verwechselst da was die 4D Shader sind keineswegs komplexer sondern im Gegenteil sogar einfacher, daher ja das Leistungs Plus.

KAOZNAKE schrieb:
Naja sollte kein Thema für die 6970 sein mit der 580 mitzuhalten. Im Prinzip genauso viel Shader wie die GTX 480, aber effektivere 4D Shader bei evt gleichem Takt wie die 6870 (also mehr als die 5870). ..........

Die Nvidia Karten haben schon seit ewigen Zeiten 4D Shader, hier holt AMD nur auf und überholt damit nicht.

@Topic:

Ich hoffe das AMD noch einige Überraschungen in petto hat und der schnellste Cayman die GTX580 schlagen kann was Speed an geht. Glaube es zwar nicht aber hoffen ist ja erlaubt.
Denn sonst wird die GTX580 wieder sehr sehr lange sehr teuer bleiben, wäre AMD aber diesmal der mit der schnellsten GPU am Markt dann wird Nvidia am Preis drehen müssen. Am coolsten wäre es wenn die HD6970 die GTX580 im Durchschnitt so um 15% abhängen könnte und einen niedrigen Preis hat. Würde AMD mit so einer Karte bei 400€ UVP in den Markt drängen dauert es hoffentlich dann nicht mehr lange bis Nvidia die GTX580 auf unter 400€ senkt.

Jetzt heißt es Tests abwarten, bleibt die GTX580 die schneller als Cayman XT dann werden es für mich wohl 2x 470er oder 2x460er im SLI Verbund werden. Aber wenn die Überraschung eintritt und AMD zersägt die GTX580 und Nvidia senkt den Preis auf unter 400€ dann wird es die GTX580 werden.
 
Am coolsten wäre es wenn die HD6970 die GTX580 im Durchschnitt so um 15% abhängen könnte und einen niedrigen Preis hat

Puh da müssen aber viele Gebete erhört werden. Ich denke eher dass Cayman (wenn überhaupt) die GTX580 im niedrigen einstelligen Prozentbereich schlagen wird.
 
terraconz schrieb:
Die Nvidia Karten haben schon seit ewigen Zeiten 4D Shader, hier holt AMD nur auf und überholt damit nicht.
Hä? nVidia hat doch 1D Shader!? Darum sind ja die Flops in der Theorie bei den Radeons so viel höher aber in der Praxis war NV in der Shaderleistung deutlich vorne weil sich die 1D Shader (bei Spielen) zu 100% auslasten lassen und die 5D Shader nicht mal annähernd. Durch die 4D Shader haben viel mehr Einheiten Platz und die Auslastung sollte besser sein. Laut Folien bringt eine gleiche Anzahl von 4 und 5D Shadern wohl in der Praxis eine fast identische Performance.

@ BLaKeDJ06
Danke für deinen Beitrag :freak:

Bzgl. BQ Diskussion:
Bin ich der einzige der mit seiner NV Karte derbstes Schattenflimmern in so manchem Games hat? Letzte Beispiele sind BC2 und Black Ops.
 
Zuletzt bearbeitet:
terraconz schrieb:
Die Nvidia Karten haben schon seit ewigen Zeiten 4D Shader, hier holt AMD nur auf und überholt damit nicht.

das wäre mir neu... Nvidia hat 1D Shader also erzähl keinen !
 
Wann ist man eigentlich dazu übergegangen, den Grafik-RAM komplett als "Framebuffer" zu bezeichnen? Auf dem Foto heißt es nämlich "Framebuffer 4 GB", und das ist ja eigentlich Quatsch, weil der eigentliche Framebuffer bloß ein paar MB verschlingt.
 
Artikel-Update: Auf einer polnischen Webseite sind mittlerweile zahlreiche Bilder einer AMD-Präsentation zur „HD 6900“-Serie veröffentlicht worden. Einige Fotos zeigen dabei, dass die Informationen bis zum heutigen 22. November unter NDA standen. Trotz allem ist die Seite derzeit nicht mehr erreichbar, allerdings konnte VR-Zone die Bilder rechtzeitig sichern. Unter den Folien tauchen dabei einige alte Bekannte auf, deren Echtheit nun bestätigt wird. Die Daten zur HD 6970 und zur HD 6950 enthalten aber leider immer noch keine genauen Spezifikationen, womit man sich also weiterhin gedulden muss.

Danke an unseren User Eggcake[br]
für den Hinweis!
 
Jetzt mal ehrlich, bei AMD wird immer und immer wieder auf der schlechteren Filterung herumgeritten. Verständlich, wenn man ganz penibel ist, und auch in manchen Spielen sichtbar.

Nur kann ich nicht verstehen, warum keiner sieht, dass Nvidia im Vergleich zu AMD ein unschärferes Bild bei hohen Kantenglättungsmodi hat (muss am LOD liegen). Das ist genauso sichtbar, und mich störts sogar mehr als das bissl flimmern meiner HD5570.

Die Bildqualität ist bei beiden nicht perfekt. Ich hab noch ne Ati X1800XT hier, im BQ-Vergleich dazu kackt sogar Nvidia derb ab.
 
richtig, nvidia verwendet 1d-shader. und da gibt es auch nix aufzuholen. auf welchen shadertyp man setzt, hängt von der gesamtarchitektur und dem ziel ab. ati könnte auch auf 1d-shader wechsel und damit einen rückschritt machen. ebenso könnte 4d für nvidia einen rückschritt bedeuten. grundsätzlich ist 1d vs. multi-d eine abwägung zwischen kosten und effiziens. 1d-shader sind kostspieliger, da deutlich mehr davon gebraucht werden, aber auch effizienter, da die auslastung bei 100 % liegt. fragt sich, ob man lieber mehr geld ausgibt und einen höheren verbrauch in kauf nimmt, oder ob man billiger und sparsamer, aber dafür weniger effizient produziert. in der praxis sehen wir ja sehr schön, dass es keinen klaren sieger dabei gibt. es ist sozusagen geschmackssache...
 
BLaKeDJ06 schrieb:
Die 6970 müsste schon mindestens 50 Prozent schneller sein als ne GTX580 um nen Kauf für mich zu rechtfertigen.

Denn Bildquali und das fehlende Physx sowie der bescheidene Treibersupport machen die Karte uninteressant!
Die GTX 580 müsste mindestens 150€ günstiger sein bei gleicher Leistung zu einer 6970 um einen Kauf auch nur minimalst zu rechtfertigen. Die üble Bildqualität (vor allem bei Crysis, der fehlende 3 und mehr Monitorsupport, schlechte Treiber die sogar Grafikkarten zerstören, exorbitanter Stromgebrauch, machen die Karten völlig uninteressant.
 
Jetzt geht das flamen schon wieder los. Lasst euch doch nicht provozieren.
 
@Bildquali

klar sinds bei Barts 3% ... aber 3% sind 3% und die hohe Quali Stufe reicht nicht an die der Nvidia Karten ran.
Würde sie das wären es vielleicht 5 oder gar 10%.

Natürlich hat die HD6970 auch Vorzüge sofern sich die Spezifikationen bewahrheiten. 2 Gb VRam sind top, auch das effizientere / sparsamere Design mit kleineren DIE spricht für sich, auch was das OC Potential angeht (kommt auf den Grundtakt an).

Für mich würde neue AMD Serie das komplettere Paket wenn man auf diesen Rückschritt in BQ verzichtet hätte, egal ob mehr oder weniger auffällig.

Euer Abstempeln als FanBoy klingt fast so, als würdet ihr diesen Schritt gut heißen ^^

Also mus man zusammenfassend sagen, dass entweder Nvidia doof ist Leistung für mehr (kaum sichtbare) BildQuali zu verschenken, oder AMD nutzt die leicht schwächere BildQuali dafür aus um einige % mehr Performance rauszuholen, oder seh ich das falsch?

Persönlich hatte ich gehofft, dass die HD69XX gerade hier auch einen drauflegt... was letztendlich herauskommt wird sich zeigen.

Edit:
persönlich halte ich das Potential der HD69XX für sehr groß, allein wegen den Architekturänderungen zu 4D Shadern. Auch die Leistung / W / mm² wird dem G110 überlegen sein, vermutlich auch der idle Verbrauch und eventuell die Übertaktbarkeit. Dazu kommt der größere VRam.

Demnächst weiß man mehr - ich habe lediglich gesagt, dass ich mich bei einem +- 5% "Leistungs-Patt" beider Karten, für die bessere BQ entscheiden würde.
 
Zuletzt bearbeitet:
Ich seh auf den Folien die 6970 mit <300W und die 6850 mit <225W angegeben, wie kann da die 6990 mit 300W zurechtkommen? Wenn das so stimmt, angeblich soll es das ja laut CB, würde man Leistungsmäßig dann nicht mehr wesentlich besser als NV mit der GTX 580 da stehen. Wodurch das Argument der deutlich besseren Effizienz bzw. deutlich geringerem Stromverbrauch wegfallen würde.

Danke DvP :)
 
Zuletzt bearbeitet:
DvP schrieb:
@ Hitman145
THX, ist aber schon in der News verlinkt, ohne Ausschnitt.

In der News heißt es aber:
Die Daten zur HD 6970 und zur HD 6950 enthalten aber leider immer noch keine genauen Spezifikationen, womit man sich also weiterhin gedulden muss.
In dem Bild welches ich oben gepostet habe stehen aber Spezifikationen der HD6970

 
Zuletzt bearbeitet:
Zurück
Oben