News Erste Bilder von AMDs DirectX-11-Karte

wenn ihr mich fragt macht AMD schonwieder den Fehler und hält zuviel zu sehr im Schatten. Die Geheimniskrämerei nervt. Wenn es noch 3 Wochen bis Launch sind dann will ich sehen was mich erwartet. Performance, DX 11, Bilder von den Karten...

Wenn jeder sieht dass eine HD5870 eine GTX285 wegfegt, falls dem so sein sollte, dann steigt die Spannung doch noch viel mehr und man freu sich auf die Karte - genauso werden dann viel mehr Käufer zu Beginn zuschlagen.

Wenn es keine Vorabbenchmarks gibt kommt bei mir immer ein fader Beigeschmack ala 2900 XT auf...

Ich will Benchmarks sehn!!
 
Hä? Es ist genau richtig so. So sollte es immer ablaufen! Nur ist die Geschichte in letzter Zeit so krass verwässert worden, dass jeder 4 Monate vor Launch alles wissen will. Nvidia macht es genau so, sind aktuell zum Glück noch härter mit NDA als AMD. Mich freut es sehr, dass vorab nicht alles bekannt wird, denn davon hat keiner was, sich aus halben Gerüchten und Spekulationen etwas auszumalen, was dann so nicht eintritt. Oft genug gehabt in letzter Zeit.
 
@Krautmaster
Naja man will halt gerade vor Konkurrenten die Informationen solange wie möglich geheim halten.
Außerdem werden die Karten am 10.9 erst richtig vorgestellt und werden wohl erst paar Wochen danach verfügbar sein. (damit zum Win 7 Launch genug Hardware vorhanden ist)
 
Was wirklich interressant ist, sind die kleinen Lüftungsgitter am Dual-Slot -sollte ATI diesmal weniger Wärme erzeugen????:cool_alt:
 
Das ist wohl eher eine Geschmackssache und darüber kann man sich schließlich nicht streiten;)
 
hofe ne 4870 gibts dan für 70 und ne 4890 für 100

Ja, eigentlich kaum zu glauben, dass so derart starke Karten dann mal für 70-80 Euro verramscht werden. Für die "alte" Karte die man austauscht gibts sogar ja auch noch mal Geld raus :)

Aber so wird es wohl kommen. Bleibt eigentlich nur der Stromverbrauch als Wehrmutstropfen. Aber ansonsten wird man dann mit ner 80Euro GPU (HD4870) und einer 60 Euro CPU (PDC6300/PHII-250) ohne Reue auf Full HD zocken können. Da sich am Spielemarkt kaum noch was tut segeln die Preise halt ins Bodenlose.

Da wirkt selbst das Argument der günstigen Spielekonsolen für mich künstlich, selbst wenn die PS3 jetzt "nur" noch 300 Euronen kostet.
 
FloW3184 schrieb:
8*32bit=256bit
und es ist nur die rückseite... d.h. dieselben chips werden auch auf der vorderseite sitzen...
ergo:

2*8*32bit=512bit

brauchst nur die chips zu zählen... xD
Bei den Karten von ATI hat der Speicherausbau nichts mit dem verwendeten Speicherinterface zu tun (im Gegensatz zu Nvidia). ATI könnte auch 896MB Speicher bei einem 256bit-Interface verbauen.
 
Wobei es schade wäre, wenn 896mb Karten überhaupt noch rauskommen.
Für unteres Midrange vielleicht passend, aber für Performance sollte man schon 1024 nehmen, und für High End dann 1024 bis 2048mb.
 
Ich fände, 2048 MB sollten mit den neueren Generationen Pflicht werden.

Man darf gespannt sein, ist ja nich mehr lange hin ;)
 
Endlich geht es wieder los aufrüsten !habe meine gtx285 jezt schon 3 Monate drin!schätze mal das die hd 5870 so schnell wie ne hd4870 x2 wird.
 
Was hat denn hier jeder für ein Problem mit der Optik?
Abgesehen von der Tatsache, das dies ein Sample ist und optisch wohl nicht viel mit den Retail Karten zu tun hat, ist es doch vollkommen unerheblich wie die Karte ausschaut. Weder ändert ein tolles Design etwas an der Performance, noch an der Kühlleistung. Und selbst mit Windows Kit sieht man die Karte nur von oben.

Sobald die Karte im Rechner steckt, müßt ihr euch nur noch um den Staub sorgen machen, der sich am Lüfter sammeln wird.
 
Jeder kann sich auch denken das ausser XFX Karten keine ATI Karte schwarz werden wird ;)
Eher Blau (sapphire) oder Rot (andere Hersteller) ausnahmen bestätigen die Regel :D
 
Ich werde mir ziemlich bald im nächsten Jahr nach dem Weihnachtsgeschäft eine neue Grafikkarte zulegen (Diesmal von AMD) direkt im Zug dazu noch Windows 7.

@Topic
Wieso wollt ihr alle jetzt schon wissen, was die alles für Daten haben?
Bei einem Film/Buch will man ja auch nicht Monate vorher wissen, was genau passiert und wie es ausgeht.
Und mit dem Kühler:
Die Farbe ist doch egal (abgesehen davon, das es nicht der originalkühler sein wird, der gezeigt wurde [wie bei neuen Autos]) und wenn man Modder ist, würde ich eh einen neuen Kühler draufbauen. Und wem das zuviel Arbeit ist und sich Modder nennt, wenns ihm nicht gefällt, den nenn ich Kaufmodder. Und die Mag ich garnicht.
 
OT:
Sgt.Speirs schrieb:
Bei den Karten von ATI hat der Speicherausbau nichts mit dem verwendeten Speicherinterface zu tun (im Gegensatz zu Nvidia). ATI könnte auch 896MB Speicher bei einem 256bit-Interface verbauen.

Kannst du mal einen Link liefern, der deine Aussage bekräftigt?

Für mich ist diese Aussage Schmarrn, auch wenn du sie im Konjunktiv hälst.

Ein 256bit-SI erfordert 8 GDDR-SCs (die haben aktuell alle eine Bittiefe von 32), die nach Adressierung "gleichzeitig" 8 32bit-Datenwörter, also ein 256bit-Datenwort auf die Reise schicken oder zum schreiben erhalten.
Die Speicherkapazität eines SCs ist auch addressierungsbedingt immer eine 2er Potenz in bit.
Das Verwenden weiterer SCs parallel zu den 8 vorhandenen macht SI-bedingt und adressierungsbedingt auch nur mit 2er-Potenzen als Vielfache Sinn (also 2x8, 4x8, 8x8).
Schliesse ich nur 6 SCs zusätzlich parallel zu den 8 vorhandenen an, um auf eine mögliche Gesamtgrösse von 896 MB zu kommen, so würde nach Adressierung dieser "6er-Reihe" nur ein 192bit-Datenwort herauskommen oder hineingehen, von der Verschwendung von Adressbits mal abgesehen.

Das Ende vom Lied ist, dass auch ATIs verwendete Speichermenge vom SI abhängt, und immer eine 2erPotenz als Vielfaches des SI sein wird.
Für 256bit-SI bedeutet das bei den im Moment erhältlichen GDDR3/5-SCs, 512MB, 1GB, 2GB, 4GB etc.

Gruß
Raubwanze
 
Zuletzt bearbeitet:
Diese Nachricht erinnert mich an die alte. Erste DX10 Karte bla etc.
Was kam raus ? Lassen wir es bei 2-5 guten spielen unter DX10. Die vergleiche waren nur bei direkten Screenshot vergleich, wenn überhaupt, ersichtlich. Dafür dann wieder Hunderte Euro ausgeben ? LöLchen.

Ich kann das ganze nicht mehr ernst nehmen. Ich bin schon seit DX3 dabei. Also liebe leut. Lasst euch nicht verarschen un nur Alphamänchen brauchen immer das neuste. ;)
 
Und weiter? Sollen die GPU-Entwickler zu arbeiten aufhören, bis Du ihnen sagst, dass es jetzt genug DX11 Spiele gibt und sie eine neue Graka-Generation entwickeln dürfen? Oder Sollen sie lieber nochmal Karten ohne DX11 entwickeln?

Ooooder kann es vielleicht sein, dass die Karten auch unter DX9/10 schneller sind als die Vorgänger? ;)

Also hört endlich mit diesem "DX10/11 braucht eh keiner" Geschwafel auf, das interessiert doch keinen.
Die DirectX Version ist nämlich nicht das einzige an einer Grafikkarte. Das ist jetzt für manchen schockierend, aber es ist so.
 
hennich schrieb:
Diese Nachricht erinnert mich an die alte. Erste DX10 Karte bla etc. .....

Erstens sowas nennt man Fortschritt. Ist ja schön das du seit DirectX 3 dabei bist, wäre ja schlimm wenn wir heute immernoch bei DirectX 3 wären :rolleyes:

Zum anderen, mit der neuen Generation kommen immer neue Karten die mehr Leistung bei weniger Verbrauch bringen ( gibt natürlich äusserst selten Ausnahmen ).

Neue Karten die um einiges schneller rechnen als das alte Topmodell, für Spieler die auf 26 Zoll spielen kommt die neue Generation doch grade richtig ! Nur weil du ( und du bist nicht die Referenz der Menschheit ) das grade nicht brauchst heisst es nicht das niemand neue schnellere Karten braucht.

Immer das selbe mit solchen Leuten. Erweitert mal euren Horizont, es gibt nicht nur euch auf der Welt.
 
Zurück
Oben