News Spezifikationen der HD 6990 (nicht) enthüllt

Da finde ich ehrlich gesagt Nvidias "Werbung" besser.
Bei AMD kann man nur spekulieren. Die Karte kann sowohl gut wie auch schlecht werden. Da gibt es null Anhaltspunkte.
Gut möglich das dadurch (ungeduldige) Käufer zur Konkurenz wandern. Man weiß ja nicht mal ob sich das warten lohnt.
 
Haudrauff schrieb:
Da finde ich ehrlich gesagt Nvidias "Werbung" besser.
Bei AMD kann man nur spekulieren. Die Karte kann sowohl gut wie auch schlecht werden. Da gibt es null Anhaltspunkte.
Gut möglich das dadurch (ungeduldige) Käufer zur Konkurenz wandern. Man weiß ja nicht mal ob sich das warten lohnt.

Auch wenn man die Daten kennen würde - genaue Angaben zu den Leistungen bringt am Ende eh erst der Test... - immerhin sind die 69xx doch deutlich Strukturverschiedener. Da sind Vorraussagen schwierig und am Ende wird eh weiter spekuliert, was denn am Ende für ein Produkt rausgekommen ist.

Also Spekulatius wir lieber weiter, ist ja bald Weihnachtszeit :evillol:
 
Natürlich wirds erst der finale unabhängige Test zeigen.
Aber bei der 580 z.B. waren die geleakten Daten am Ende doch so ziemlich zutreffend. 20% mehr Leistung bei weniger 20% weniger Stromverbrauch wurden angegeben. Am Ende sinds so ~15% jeweils geworden.
Aber wir wissen ja alle, dass die Hersteller immer gerne ein bischen Aufrunden.

Bei AMD könnten die ruhig auch mal bischen was aus dem Nähkästchen plaudern. Ich sehe absolut keinen Vorteil darin wenn man sich bedeckt hält. Ganz im Gegenteil sogar.
 
Haudrauff schrieb:
Da finde ich ehrlich gesagt Nvidias "Werbung" besser.
Bei AMD kann man nur spekulieren. Die Karte kann sowohl gut wie auch schlecht werden. Da gibt es null Anhaltspunkte.
Gut möglich das dadurch (ungeduldige) Käufer zur Konkurenz wandern. Man weiß ja nicht mal ob sich das warten lohnt.

Wenn Cayman der große Wurf werden würde, dann hätte AMD bestimmt schon etwas mehr Tam-Tam gemacht und um den Launch der 580 GTX herum versucht die Aufmerksamkeit auf sich zu lenken. Die Tatsache, dass sie dies nicht getan haben und die Verschiebung vom 22.11. auf den 13.12. lassen mich nichts Gutes erahnen. Wenn ich mir dann noch ansehe wie schlecht die 6850/6870 zu übertakten sind und wie heiß die Letztere schon wird bzw. wie relativ lautstark der Referenzlüfter arbeiten muss, um die Temperaturen im Rahmen zu halten, dann bin ich leider schon fast gezwungen anzunehmen, dass Cayman ein mittelschwerer Flop wird.
 
Selbst wenn die 6970 ein paar % unter der GTX 580 sein wird von der Leistung her, wird sie ja immernoch für viele ein gutes gesamtpaket abgeben, wenn der Stromverbrauch ne ecke besser sein wird als bei der 580, sie weniger Kostet, und eben Eyefinity bietet.
Was ich nur hoffe, dass irgendwann PhysX oder sowas einheitlich wird und mit DX12 oder so kommt, und nicht nur Nvidia-Only bleibt :D
 
Moriendor schrieb:
Die Tatsache, dass sie dies nicht getan haben und die Verschiebung vom 22.11. auf den 13.12. lassen mich nichts Gutes erahnen. Wenn ich mir dann noch ansehe wie schlecht die 6850/6870 zu übertakten sind und wie heiß die Letztere schon wird bzw. wie relativ lautstark der Referenzlüfter arbeiten muss, um die Temperaturen im Rahmen zu halten, dann bin ich leider schon fast gezwungen anzunehmen, dass Cayman ein mittelschwerer Flop wird.

Das hört sich an, als wenn du über ne GTX 480 reden würdest..............:lol:
Sry aber diese Meinung kann ich absolut nicht teilen, schon mal ne 6870 verbaut?

Gruß Andi
 
Zuletzt bearbeitet:
Ich finde immer noch das die Folie von Oktober am meinsten Aussagt gibt wie die HD69xx werden.

Die HD6990 wird 5-10% schneller sein als die gtx580
Die HD6970 wird sich zwischen der gtx480 und gtx580 befinden
Die HD6950 wird leicht unter der gtx480 und wohl auf dem level der gtx570 sein.

gtx580tabele-jpg.208176
 
Solange ATI den AF filter nicht verbessert können sie ihre Karten behalten.
Nvidia hat grossen mist gebaut mit der ersten fermi-generation aber die zeiten sind endgültig vorbei, sehe schwarz für Ati.

Gtx570 ist zwar noch nicht erscheinen aber nach der genialen Gtx580 kann und wird da nichts mehr schiefgehen !
 
@Kartenlehrling: Naja sieht wohl nach der Folie schon danach aus.
Deine Erklärung hat ja auch Hand und Fuß aber ich glaube nicht das AMD nur ein Leistungssprung von 5-10 % von der 5970 zur 6990 macht.

@bronsson: Also die GTX580 hat sich im gegensatz zur GTX480 schon gebessert, kann man nix sagen. Trotzdem ist die Leistungsaufnahme weiterhin hoch und die Temperaturentwicklung auch! Ich versteh auch nicht was ihr alle an dem AF-Filter habt die meisten hier labern wahrscheinlich einfach alles nach was so in den Foren geschrieben wird! Ich persönlich hab auf meiner 8800 GTS sowie auf meiner 4870 und 4890 niemals ein Flimmern feststellen können.
 
Zuletzt bearbeitet:
Mir bei meiner mittlerweile verkauften HD5870 schon und das nicht zu knapp, deswegen auch der wechsel.

Bei der heutigen Grafik ist sowas inakzeptabel
Ergänzung ()

Moriendor schrieb:
Wenn Cayman der große Wurf werden würde, dann hätte AMD bestimmt schon etwas mehr Tam-Tam gemacht und um den Launch der 580 GTX herum versucht die Aufmerksamkeit auf sich zu lenken. Die Tatsache, dass sie dies nicht getan haben und die Verschiebung vom 22.11. auf den 13.12. lassen mich nichts Gutes erahnen.

Mich schon, vielleicht wurde das flimmerige AF verbessert, kritik gab es ja zugenüge.;)
Die hoffnung stirbt zuletzt
 
Das Flimmern der ATIs kann ich aus erster Hand bestätigen. Also diesen FAKT bitte nicht unter den Teppich kehren.
Ein steht wohl aber fest. AMD weiss, dass die HD 6970 nicht mit der GTX 580 mithalten kann. Wenn dem so wäre, wüssten wir das schon längst vom AMD sponsored Fanboy höchstpersönlich. AKA Charley.
 
@ Kartenlehrling
Deine Kalkulation hat einen Schwachpunkt, der ebenfalls auf der Folie steht:
siehe Bild

Die Leistungsabstände sind nur geschätzt!

Es gibt bessere Gründe warum die Krokodile verschoben wurden und die scheinen auch plausibler.
a) zu wenig Karten da, dank fehlender Komponenten
b) Keinen solchen Katastrophenstart (Verfügbarkeit) hinlegen wie letztes Jahr, was AMD ja selbst schon so gesagt hat

Es gibt ja zwei Vermutungen, TSMC wiedermal oder eben TI! Wie auch immer, es ist ärgerlich das ich jetzt schon zum zweitenmal auf eine Graka von ATI / AMD warten muß! Kommt noch soweit, dass ich eine nVidia kaufe und dann auch anfange zu erzählen, dass der Stromverbrauch ja nicht so schlimm ist......
 

Anhänge

  • geschätzt.jpg
    geschätzt.jpg
    6,1 KB · Aufrufe: 627
Mir ist die HD 6000er Generation sowieso mehr oder weniger egal. Ich warte lieber bis zu den ersten 28nm Karten. Die Disskusion um die Shaderzahl halte Ich sowieso für müsig. Schließlich ist es egal wie viele Shader die Karte hat, die Zahl alleine macht nicht deren Leistung aus. Was die Shader angeht, so haben die aktuellen AMD Karten onehin genug davon und brauchen eigentlich nicht noch mehr davon. Und wenn mehr, dann müssen diese auch von mehr TMUs und ROPs unterstützt werden. Letzen Endes wird man erst durch Tests und Bechmarks sehen, wo AMD mit den HD 6900ern steht. Es ist genauso wenig sicher, dass ein Cayman mit 1536 Shadern langsamer als eine GTX 580 sein wird, wie ein Cayman mit 1920 Shadern schneller als diese sein wird. Nochmal, was nützen einem 1600 Shader, wenn nur 32 ROPs und 80 TMUs zur Verfügung stehen und die Shader oft leer laufen lassen? Mit mehr ROPs und mehr TMUs und mehr Tesselations Engines lassen sich die Shader wesentlich besser auslasten. Und, durch den verdoppelten Speicher werden auch einige Flaschenhälse beseitigt. Weniger kann auch mehr sein.
 
@GUG:

Pro SIMD stehen 4 Texture-Units zur Verfügung, will heissen, dass die Anzahl TMUs direkt von der Anzahl Streamprozessoren abhängt.

96 TMUs wären es bei 1536 Streamprozessoren bzw. 120 TMUs bei 1920 Streamprozessoren.
 
Mal hoffen das es keine 384 werden......
 
Also ich hab momentan übergangsweiße ne 8800gts drin und die hat nicht wirklich ne bessere bq als meine verkaufte hd5870 und davor hatte ich ne gtx275 viel unterschied hab ich nicht gemerkt ein gewisses flimmern und ruckeln hatte ich bei ati und Nvidia.

Jedoch hoffe ich weiter hind das amd es mit der verschiebung des launch gut meint.
 
Zurück
Oben