News Spezifikationen der HD 6990 (nicht) enthüllt

Wäre mal interessant ob ATi mit der 6xxx Generation endlich die Klötzenbildung mit dem Windows 7 h264 Codec und den 720p ÖR Streams in den Griff bekommen hat.
 
@ TVP zum Thema Flimmern

Bzgl. BQ Diskussion:
Bin ich der einzige der mit seiner NV Karte derbstes Schattenflimmern in so manchem Games hat? Letzte Beispiele sind BC2 und Black Ops.
__________________

Das hat oder hatte man mit ner ati ja auch.
 
Krautmaster schrieb:
ich hoff nur, dass nicht an der Spannungsversorgung gespart wurde. Meine HD4850 war dahingehend einfach aufs billigste reduziert - der Chip hätte weit mehr mitgemacht aber dann hätten sich die VRs verabschiedet.

Mit dem einen einzigen 6 pin PCIe Stecker war die Karte eh am Limit, also hätten da auch super Tolle VR's nix gebracht.
 
Hmm also erstmal, die HD 6970 hat keine (weiter Voraussicht) 1920 Shader, das werden (nach diesen Folien) nur 480 sein, sie wird (nach diesen Folien) 1920 Streamprozessoren haben, bei Nvidia mögen die zwar die selben sein aber bei ATI liegt zwischen beiden ein riesen Unterschied.

Und nun zum Topic, AMDs Shader waren schon immer effektiver als die von Nvidia, die HD 5870 hatte gerade mal 66% der Shader im Vergleich zur Nvidia aber dafür gerade mal 80% der Leistung, nun haben sie eine Karte mit noch effizienteren Shadern (man vergleiche mit der HD 6870 die nur noch 44% der Shader hatte aber dafür 70% der Leistung), und davon gleich 480, ich verspreche mir vielleicht zu viel aber ATI hat da eine Monsterkarte im Ofen gegen die Nvidia nicht so leicht gewinnen kann...
 
Bullet Tooth schrieb:
Mit dem einen einzigen 6 pin PCIe Stecker war die Karte eh am Limit, also hätten da auch super Tolle VR's nix gebracht.

;) joa, der Stecker an sich is nicht das Problem... die VRs waren nicht drauf ausgelegt und wurden zu heiß und liesen mit zunehmender Temperatur zuviel Saft durch und ab 1,408VGPU gehen die Lichtlein an xD

Allerdings lief die Karte auch @ 910 Mhz 3D Mark.
 
Naja mal sehen ob es nicht so wird wie damals beim Launch des R600.
 
@ Toxicity
Zuerst erklärst du uns, dass man Kraut und Rüber nicht miteinander vergleichen/verwechseln soll und dann machst du es selbst wieder. Auf diese Art und Weise 1D und 4(bzw. 5)D Shader zu vergleichen macht auch nicht mehr Sinn.
 
@Toxicity:

Du hast den Kerntakt nicht berücksichtigt, welcher bei der HD 5870 rund 20% höher liegt als bei der GTX 480. Von daher sind die Shader des Cypress nicht zwingend effizienter.
 
@GUG:

Noch ist nichts Genaues bestätigt. Es ist aber sehr wahrscheinlich, dass die HD 6870 mit 1920 Streamprozessoren daherkommt.
 
^^ Wen das stimmt das der Cayman wirklich 1920ST hat dan schätze ich mal grob das der Cayman XT etwa 40-50% schneller sein wird als die HD5870 :) , ist nur grob geschätz ;).
 
Partybu3 schrieb:
immer diese verbrauchsmonster ... zum glück bietet amd daneben noch genug normale karten an. 300 watt ... krank

UNTER 300W. Kann genau so gut 260W bei High-End Benchmarks brauchen und vllt 220W bei extremes Gaming. Furmark würde vllt sogar die 300W Marke durchbrechen auf irgendwelche 330W. x)

Aber wir werden dann sehen, wenn die ersten Tests erscheinen. Vielleicht wirds doch eine Sensation, was sich keiner getraut hätte.
 
Ich kanns mir einfach nicht verkneifen:
Leute es geht um sch**** Grafikarten! Dreht sich euer ganzes Leben um digitale Grafik? Oh man. Ich mein ich bin ja auch interessiert, aber was manche hier für nen Aufriss machen um nen paar Pixelberechner ist MIR einfach unbegreiflich und grenzt für MICH an Lächerlichkeit. Ich würde mir auch jede Grafikgeneration neu kaufen wenn ich grad das Geld dafür hät. Das meine ich also keineswegs. Aber diese Diskussionen, und das beste ist alle wiederholen sich immer ohne Ende. Neija, muss zugeben, belustigt mich auch irgendwie^^
Achja der Höhepunkt dann immer wenn Leute sich wegen so etwas noch anfangen zu beleidigen und zu streiten. Bei manchen scheint das Leben abhängig davon zu sein welche Firma die schnellere Grafik hat. Insbesondere immer geil wie NV als Teufel und AMD als Engel skizziert wird. Leute das sind beides Großkonzerne, die nehmen sich alle nix!
 
Zuletzt bearbeitet:
Interessant :) ich freue mich chon auf die tests :)wäre schön eine in die finger zu bekommen.
Ich gehe bei der 1920 shader version von nemleistungs abstand von ca 10% zur 580(ich weiß ist arg hoch gegriffen) aber wenn schon n nvidia mit nem reiferen chip mit 512 gegnüber 480(+15%) schaftt mit nem angehobenen takt schafft.
sollte amd auch schaffen mit1920 stream prozessoren gegenüber 1600(+20%) und genauso ner modifikation an der taktscharaube sollte die hd6970 die gtx580 in den griff bekommen :).

Was auch intressant wird is der preisüber oder unter 400^^?
 
Jenergy schrieb:
@Toxicity:

Du hast den Kerntakt nicht berücksichtigt, welcher bei der HD 5870 rund 20% höher liegt als bei der GTX 480. Von daher sind die Shader des Cypress nicht zwingend effizienter.

*lacht* Die Shader einer GTX480 laufen nicht mit 700Mhz,
sondern mit 1401Mhz. ;) Was sagt das jetzt über die Effizienz aus?
320 Shader bei 850Mhz gegen 480 Shader bei 1401Mhz, dabei nur
15% schneller. Jetzt füge mal 20% mehr Shader hinzu, die um 20%
effektiver arbeiten und mit 5% mehr Takt laufen.

Die HD6970 wird die GTX580 wohl deutlich schlagen. Aber wen
interessierst? Das Ding wird über 400 EUR kosten.
 
Zuletzt bearbeitet:
@Weltenspinner:

Reden wir jetzt von GFlops oder für die 3D-Darstellung relevanten Pixel- und Texelfüllraten?
 
Zurück
Oben