News Erste DirectX-11-Karten von ATi bereits im Juli?

Ich glaub nicht das AMD schon im August mit einer DX11 Karte kommt, wenn DX11 bis da hin, noch nicht erschienen ist.
Wie soll man denn Treiber zuverlässig testen ohne finale DX11 API?
Ergibt für mich keinen Sinn.

Sicher man ist dann "Erster", aber der Schuß kann auch ganz schnell nach hinten losgehen, wenn die Karten bzw. ihre Treiber, noch nicht ausgereift sein sollten.

Sollte MS den Release von DX11 auch schon im August bringen, wäre das natürlich was anderes.
 
Microsoft arbeitet mit ATI eng zusammen...zumindest enger wie mit dem grünen teufel. Deswegen ergibt das doch sinn, dass ati auch früher mit dx 11 auftaucht (nvidia powning) - was alles in allem gut wäre, denn wenn nvidia genug leute findet die die karten wegen physx kaufen, könnte jetzt ati auch genug leute finden die die karte nur wegen dx11 kaufen.
 
@IchmagToast:
Wenn du noch keine Soundkarte hast, spare lieber auf eine Graka, wenn du eine hast, dann die Logitech Boxen.
Und Win Vista bleibt auch in 2 Jahren noch gut, bitte kein geflame.


@ Topic:
40nm sind ja schön ung gut, nur warum werden die Sprünge immer kleiner?
So richtig viel Mehrleistung werden die 40nm Karten auch nicht haben um neue DX11 Spiele zu befeuern, wie das neue Battlefield Engine.
 
kann ich dann trotzdem OpenGl mit meiner "veralteten" 4870x2 nutzen? also dann auch physx etc oder wird das nur mit den neuen karten gehen?

wäre schade wenn man die leistung nicht nutzen könnte, denn die hat sie ja =/
 
@Adam Gontier.
Du musst das ganze Prozentual sehen. Die Sprünge werden keineswegs kleiner.
und ati muss sich halt entscheiden.
Mainstream -> weniger Mehrleistung, deutlich weniger Verbrauch
Highend -> deutlich mehr leistung, gleicher Verbrauch
 
Ahhh....ich bin völlig überfordert...auf was soll ich den sparen?

Auf ne neue DX11 Graka, auf Win7 oder doch mein Z-5500?
Spar auf das Z-5500 ;)

Hab ich selber und das knallt besser als DX 11 oder eine schnelle CPU :D
 
Auf ne neue DX11 Graka, auf Win7 oder doch mein Z-5500?

Spare erst mal auf das Z-5500, da hast Du dauerhaft was von ;)
Anschliessend ist die GraKa dran.

40nm sind ja schön ung gut, nur warum werden die Sprünge immer kleiner?
So richtig viel Mehrleistung werden die 40nm Karten auch nicht haben um neue DX11 Spiele zu befeuern, wie das neue Battlefield Engine.

Wieso kleiner, der letzte war doch 65nm->55nm, oder habe ich das falsch im Kopf?
Mehrleistung welcher Karte? Die ersten 40nm-Karten sind "Rezessions-freundlich": unter 100€, wo am meissten verkauft wird. Die Mehrleistung kommt dann hoffentlich im Juli.
 
40nm sind ja schön ung gut, nur warum werden die Sprünge immer kleiner?

Weil kaum noch Luft nach unten ist. Hieß es nicht mal, bei ~22nm sei bei Silizium Schluss?
Jedenfalls wird schon fleißig nach einem Nachfolger für Silizium gesucht, das oben genannte Graphene ist ein guter Kandidat.
 
Ich hoffe, es wird ein grosse Erfolgt wie 48xx Reihe! also abwarten und Tee trinken! (spekulieren bringt gar nichts)
 
Papst_Benedikt schrieb:
Aber ich Glaube kaum, dass es sich schon um den RV870 handeln wird, da sagt mein Bauchgefühl, das des zu früh wäre...
Wieso zu früh? AMD hatte doch schon sehr früh bekanntgegeben, dass sie sich voll auf DirectX11 konzentrieren wollen. Außerdem basiert der RV870 soviel ich gehört habe auch noch auf den RV770 und ist somit kein Chip, der gänzlich neu entwickelt werden musste. Also ich finde das realistisch, wobei es sich immer noch verzögern könnte, sofern die Gerüchte wahr sind.

IlDuce88 schrieb:
Sobald Nvidia dann nachzieht, gibts dann auch Karten, die aus den 40nm dann auch mal was rausziehen und auch Energie sparen.
ATI kriegts ja nicht hin mal ne Verbrauchsarme Karte hinzutüdeln. Selbst im Idle sind die Dinger immer ultraheiß und Verbrauchen 25% mehr als die Nvidia-teile die schneller sind ....


Und wenn die 40nm-ATI-Karten dann nicht mal den Verbrauch der 55nm Nvidia Karten schlagen, dann wirds peinlich!
Bla Bla Bla, der RV740 ist von AMD, er ist in 40nm wie der RV870, er hat GDDR5 wie der RV870, und wird für seine Leistung voraussichtlich wenig Strom verbrauchen. Wenn man 1 und 1 zusammenzählen kann, wird AMD hier ergo ordentlich optimiert haben. Natürlich wird aber auch Nvidia versuchen ordentlich zu optimieren bezüglich Leistung/Stromverbrauch, aber da braucht man jetzt nicht den Teufel an die Wand malen.
 
Zuletzt bearbeitet:
nee glaube bei 12nm liegt die grenze, bin mir aber nicht sicher. IBM hats ja schon geschafft n rechenlulatsch auf 22nm basis zu basteln. bis das zur marktreife kommt haben die schon längst das graphene weit genug entwickelt...
 
Hier stand Mist.
 
Zuletzt bearbeitet:
m-sharingan schrieb:
ihr wisst garnicht wie schnell sich die technick in den nächsten 2-3 jahren entwickeln wird

habt ihr schon mal von graphene gehört?
wurde erst vor kurzem entdeckt

ich glaub du weißt nicht von was du da redest. graphen ist schon seit vielen jahren (>15) bekannt, das problem ist, dass es keine ideen gibt wie man es wirtschaftlich nutzen kann. wobei es da im letzten jahr erste fortschritte im labor (!) gab.
 
Adam Gontier schrieb:
@ Topic:
40nm sind ja schön ung gut, nur warum werden die Sprünge immer kleiner?
So richtig viel Mehrleistung werden die 40nm Karten auch nicht haben um neue DX11 Spiele zu befeuern, wie das neue Battlefield Engine.

Naja die Sprünge werden "kleiner" weil es langsam schwerer ist kleinere Fertigung in den Griff zu kriegen.
Klar von 90nm auf 65nm war großer Sprung, aber selbst diese 30% von 55nm auf 40nm sind beachtlich.

Mehrleistung wird es durch die Architektur sicherlich bekommen.
DX11 wird auch leistungsfähiger als DX10 sein, allein schon durch Tesselation welches unmengen an Polygonen einspart und somit auch an Berechnungen.

Allerdings kann man jetzt noch nicht wirklich sagen wie groß die Unterschiede bei der Leistung sein werden. Denk aber schon dass diese beachtlich sein wird. (HD3xxx zu HD4xxx war auch enormer Sprung)

@IlDuce88
Das ist nur bei HD48xx so.
Die kleineren Karten von ATI verbrauchen deutlich weniger Strom.
Als Beispiel HD4350 mit unter 20W verbrauch oder 4550 mit unter 25W verbrauch.
Hier stinkt nvidia ziemlich ab.
Bei 4650/4670 ist der Verbrauch zum Gegner etwa gleich.
 
Zuletzt bearbeitet:
hmm also ich glaub da nicht dran... ich bring doch nicht zwei monate vorher ne 4890 raus... und fülle meine lager mit ner karte die drei monate später schon veraltet ist. so blöd kann doch keiner sein...
 
@zappels
Wieso blöd?
Die Karten verkaufen sich jetzt schon sehr gut und bis die neue Generation erhältlich sein wird dauert es sowieso noch eine Weile.
Ich vermute auch, dass die neuen Karten am Anfang etwas teurer sein werden da die ohne Konkurenz bleiben.
 
hmm also ich glaub da nicht dran... ich bring doch nicht zwei monate vorher ne 4890 raus... und fülle meine lager mit ner karte die drei monate später schon veraltet ist. so blöd kann doch keiner sein...

- die 4890 könnte schon früher geplant gewesen sein
- Der RV870 dürfte ein ganzes Stück stärker sein als die 4890, da ist ein Zwischending auch nicht schlecht
- die 4890 erfüllt ihren Zweck, nv die gtx275 zu vermiesen.
 
IchmagToast schrieb:
Auf ne neue DX11 Graka, auf Win7 oder doch mein Z-5500?

Nach deiner Sig: Z-5500, dann Windows 7 (diesmal 64Bit ;) und eine DX11-Karte, wenn die "Radeon 6000"-Serie (also die zweite DX11-Generation) raus ist. Vorher kannste die DX11-Spiele eh an einer Hand abzählen.
 
Zurück
Oben