News Erste DirectX-11-Karten von ATi bereits im Juli?

Wenn sie echt die vierer Reihe auf 40nm umstellen, dann hoffe ich mal, das bedeutet gleiche/leicht erhöhte Leistung bei geringerem Verbrauch. Mehr Leistung können die dann mit der den Fünfern fahren.
 
Volker schrieb:
Also die 4770 wird es definitiv nicht sein, die DirectX 11 bietet, da die vieeeeeeel eher kommt, quasi schon an die Tür klopft^^

Mit anderen Worten der Postbote hat euch bereits ein "top secret" Paket in die Hand gedrückt. ;)

Nur mal so am Rande hat jetzt gar nix mit dem Paket zu tun, kann es sein das PCIe Stromanschlüsse langsam aus der Mode kommen, also der Trend geht in die Richtung oder nicht? :rolleyes:


MfG Kasmo
 
Es heißt ja, dass dx10.1 gegenüber dx10.0 auf der selben Karte 20% Performancevorteil bringt, sofern richtig genutzt. Wird dieser Performancevorteil, dann auch mit dx11 genutzt?
So könnten die ATI-Karten Besitzer mit dem von nvidea boykotierten dx10.1 ja doch noch die lachenden Gewinner werden. Da dann fast jedes Spiel dx11 und somit auch dx10.1 unterstützt.
 
DX11 Spiele müssen erstmal erscheinen ,so long warte ich erst einmal ab was NV bringt.
MFG
 
Beelzebub schrieb:
Es heißt ja, dass dx10.1 gegenüber dx10.0 auf der selben Karte 20% Performancevorteil bringt, sofern richtig genutzt. Wird dieser Performancevorteil, dann auch mit dx11 genutzt?
So könnten die ATI-Karten Besitzer mit dem von nvidea boykotierten dx10.1 ja doch noch die lachenden Gewinner werden. Da dann fast jedes Spiel dx11 und somit auch dx10.1 unterstützt.

Soviel ich weiß kann eine DirectX 10 oder 10.1 Grafikkarte auch DirectX 11 darstellen, DirectX 11 ist abwärts kompatibel, nur dann eben nicht so performant (diese Kompatibilität ist erstmals hinzu gekommen mit DirectX 11).

So wie du das siehst muss das Spiel extra dafür einen DirectX 10.1 Renderpfad besitzen (wie auch einen für DirectX 10 und auch 9 um nicht zu viele Kunden auszuschließen), hängt aber eben von den Spielentwicklern ab (Automatisch wird es nicht unterstützt). Ein DirectX 9 Spiel unterstützt auch nicht automatisch DirectX 8, 7 und 6 ... außer die Entwickler bauen die Unterstützung dafür ein.
 
Paddy84 schrieb:
40nm sind zu wenig....... zu wenig um endlich aus der 150 Watt Stromversorgung raus zu kommen.

Sie hätten gleich auf 32nm gehen sollen so wäre mehr Leistung als in jetzigen Karten möglich
bei gleichen Preisen und das unter 150W bei Last.

Soviel Unterschied ist das doch garnicht von 40 auf 32nm.
32 nm kommt vorraussichtlich erst anfang nächsten Jahres auf dem Markt und das erst bei den deutlich einfacher aufgebauten CPUs.

Überleg mal was du da verlangst ! 40nm ist das bis jetzt kleinste Fertigungsverfahren.Selbst die CPUs sind größer !!
Und ob 40nm wirklich etwas gegen den Stromhunger beiträgt ist ebenfalls nicht gesichert.

Nur weil Intel es mit ihren 45nm Penrys geschafft haben ihre TDP deutlich zu senken ist dies schließlich nicht nur der Fertigungsgröße zu verdanken und läßt sich somit nicht auf die Strukturgröße allein übertagen !

ATI hat schließlich mit ihren 55nm GPUs trotz Allem einen sehr hohen Verbrauch und auch NV hat mit ihrere Blitzumstellung auf 55nm kaum etwas an Einsparung in sachen Stromverbrauch bewerkstelligen können wenn nicht sogar überhaupt nichts !

Blitzmerker schrieb:
Mal ne Frage, währe es theoretisch möglich, dass die HD 4XXX Reihe schon DX11 Support hat?
Weil Hardwaretechnisch braucht man nur eine Tesselation-Unit und Unterstützung für Compute Shader.

Warum sollte ATI dann krampfhaft versuchen noch DX10.1 Titel auf den Markt zu werfen ?
Stell dir mal vor die 4000er könnten DX11. Das währe doch ein riesen Hammer und würde auf jeder Verpackung mit draufstehen.
Allein die Tatsache das dies eben nicht als Marketing missbraucht wird spricht leider dafür das sie es eben nicht können.
Und wie sollte man eine Hardware DX11 fähig machen wenn die Rahmenbedingungen der dazugehöhrigen Schnittstelle noch garnicht existiert haben ?


LatinoBoy schrieb:
hmm ich würde mal sagen , das dies völlig unnötig ist so eine karte sich zu erwerben , da es noch kaum spiele für DX10.1 gibt wollen sie schon auf DX11 zugreifen was ich nicht verstehen kann ist , dass NVIDIA nix dagegen unternimmt sie zweifeln wohl nicht an ihren karten und machen mit der DX10 herstellung ganz normal weiter schade aber auch

Du hast dir die Antwort gerade selber gegeben.
Der Grund warum es kaum DX10.1 Spiele gibt liegt eben daran das NV es ziemlich gut geschafft hat diese vorteilshafte Funktion der Konkurrenz gekonnt bei der Spieleentwicklung zu unterdrücken da ihre eigenen Karten dies eben nicht unterstützen.
Mit DX11 wird das aber Gott sei Dank anderst laufen wenn nun auch NV DX11-Karten auf den Markt werfen.

Joker X schrieb:
Und wie sieht es den mit CF sys aus. Wen ich jetzt einen DX11 Karte habe und eine DX10.1 (4870) Was ist dan Kann ich dan auch DX11 nutzen oder bleib ich dan auch DX 10

Schlicht und ergreifend NEIN !
Eben so wenig wie man eine HD3000er mit einer HD4000er mittels CF kombinieren kann.
So läßt sich eine HD4000er nicht mit einer HD5000er kreuzen.

Beelzebub schrieb:
Es heißt ja, dass dx10.1 gegenüber dx10.0 auf der selben Karte 20% Performancevorteil bringt, sofern richtig genutzt. Wird dieser Performancevorteil, dann auch mit dx11 genutzt?

Mit älteren Spielen sicherlich nicht !
Nur bei neueren Spiele die auf DX11 optimiert sind läßt sich dieser Performancegewinn erzielen.
Genauso wie es bei Dx10.1 der Fall ist. Nur eben bei Games die DX10.1 unterstützen.

Bei marketing Games wie Crysis kann man sich aber schon eine aufwendige Optimierung über die Treiber vorstellen.

So könnten die ATI-Karten Besitzer mit dem von nvidea boykotierten dx10.1 ja doch noch die lachenden Gewinner werden. Da dann fast jedes Spiel dx11 und somit auch dx10.1 unterstützt.

NVidia bringt ja auch eine DX11-Karte auf den Markt.Von daher ist es egal.
 
http://de.wikipedia.org/wiki/DirectX#DirectX_11

"Grundsätzlich sollen alle Grafikkarten, die mit DirectX 10.x kompatibel sind, auch unter DirectX 11 eine vollständige Kompatibilität erreichen."

Von daher ist es eine reine Frage der Performance, weil DirectX 10 Hardware nicht ausgeschlossen wird. Somit können wir alle erwarten, dass RV870 und GT300 einen enormen Leistungssprung bringen. Ansonsten wären sie wohl eher ein großer Flop.
 
Ein bisschen skeptisch bleibe ich dennoch. DX10 ist zwar auf dem MArkt, doch völlig angekommen ist es trotz der bisherigen Spielemasse trotzdem nicht. Ich erwarte keinen Quantensprung, aber was DX11 an verbesserungen bringen wird ist essentiell für die PC Welt. Entlastung der CPUs bei immer weiter steigender GPU Leistung. Die Prozessoren geraten dann weiter ins Hintertreffen. Scheinbar ein wichtiger Schritt. Erstaunlich wie sich das alles weiterentwickelt. Und was optisch bei raukommt ist ja auch nicht gerade nebensächlich^^
 
Mal eine ganz ganz blöde Frage: Lesen Gamer eigentlich keine Tests, sondern glauben teuer = gut? Der letzte Test im CPU-Bereich sagt eines ziemlich klar: sämtliche (!) aktuell verfügbaren CPUs über etwa 150€ bewegen sich in einer Leistungsspanne von etwa 10% - was der Abstand von einer Grafikkarte zur nächsten ist. Niemand würde auf die Schnappsidee kommen und eine GTX260 (erste Version) durch eine GTX275 zu ersetzen - aber ihren "veralteten" C2D E6600 oder Athlon 64 X2 6000+ durch irgendwas neues ersetzen machen hier jede Menge... Letzteres bringt im aller besten Fall das Gleiche...
 
Zitat:
So könnten die ATI-Karten Besitzer mit dem von nvidea boykotierten dx10.1 ja doch noch die lachenden Gewinner werden. Da dann fast jedes Spiel dx11 und somit auch dx10.1 unterstützt.
NVidia bringt ja auch eine DX11-Karte auf den Markt.Von daher ist es egal.
Ich beziehe mich auf die jetzige und vorherige Generation.
Meine Frage ist eben, ob die alten 10.1-Karten nun bei neuen DX11 Spielen einen 20% Schub bekommen und die dx10.0 Karten von nVidea nicht.
 
@ Thek
Da muss ich dir schon rechtgeben.
Jedoch vergisst du dass von 2 auf 4 kerne upgegradet wird. Das hat irgendwie so den Staun Faktor.
Und Anwendungen laufen schneller blabla eben... viele Leute lassen sich ja auch glaubhaft machen n Quad wäre pflicht.^^

@ Belzebub
Ja bekommen sie, ich weiß zwar nicht obs 20% sind aber den Schub bekommen sie schon.
Auch wenn Nvidia directx11 Karten rausbringt, werden nicht alle gleich die kaufen, sondern viele ihre "alten" direct x 10 Karten behalten.
Wenn jetzt dann sehr viel directx10.1 Titel rauskommen wirds Nvidia bestimmt ärgern. Sowie der Marktanteil auch sinken wird... da dann Käufer die sparen wollen noch die 4800 gen. kaufen werden, anstatt die alte von Nvidia.

Ich denke kaum dass ATI die 5000er Gen. früher bringt als die neue von Nvidia. Die neuen Karten werden zum ähnlichen Zeitpunkt das Licht der Welt erblicken, sehe ich in meiner Glaskugel.^^
Die 40nm Karten die schon im Juli/August kommen sind vll auch die alten 4800ter nur in 40nm gefertigt und vll mit direct x11.
 
Zuletzt bearbeitet:
Niemand würde auf die Schnappsidee kommen und eine GTX260 (erste Version) durch eine GTX275 zu ersetzen
Wenn man ein gutes Angebot hat - warum nicht?
Der Grund warum es kaum DX10.1 Spiele gibt liegt eben daran das NV es ziemlich gut geschafft hat diese vorteilshafte Funktion der Konkurrenz gekonnt bei der Spieleentwicklung zu unterdrücken
Wohl eher an AMDs mangelnder PR. nV machte damals massiv Werbung für SM3 und heute für PhysX. Und was macht AMD mit DX10.1? Richtig, nichts. Entweder fehlt denen die Kohle oder im Marketing sitzen Nieten. Leider.
Der Grund warum es kaum DX10.1 Spiele gibt liegt eben daran das NV es ziemlich gut geschafft hat diese vorteilshafte Funktion der Konkurrenz gekonnt bei der Spieleentwicklung zu unterdrücken
Der reine Shrink senkt die Leistungsaufnahme nicht.
 
Zuletzt bearbeitet:
@TheK
Also bei dem Vergleich Phenom II 920 vs. Athlon X2 6000+ seh ich deutlich mehr als nur 10% mehr Leistung.

Grad wenn es um die minimum FPS geht, hält sich ein PII 920 immer im flüssigen Bereich, wenn der X2 6000+ nur noch einstellige Frameraten erzeugt.
Bei den max. Frames nehmen sich die aktuellen CPUs nicht viel, das ist richtig, doch hier ist dann oft die Graka die Schuldige.

Womit wir wieder beim eigentlichem Thema wären. :rolleyes:
 
Dx10 hat sich doch noch nichtmal so richtig durchgesetzt, da wollt ihr schon DX11 Karten kaufen?

Viele nutzen DX10 zwar, aber wirklich überflügelt wurde DX9 meiner Meinung nach nicht. Ich habe zwar selbst eine DX10 Karte, aber soviel besser sieht DX10 nicht aus...

Obwohl dieses DX11 Video, in dem man ein Meer sah ECHT beeindruckend war. Sehr sehr nah an der Realität.
 
y33H@ schrieb:
Ich hoffe, du meinst avg :rolleyes:

Ja gut, sagen wir mal, alles > minimum Frames. :p
Bei den max. gibt es sicher größere Aussreißer nach oben und unten, als das bei den durchschnittlichen Frames der Fall ist. ;)
 
Max. Fps sind in Praxis halt ziemlich witzlos ;)
 
MaxFPS sind wirklich für die Tonne. Wenn mein Game 1 Minute lang mit 30 FPs läuft und ich dann kurzzeitig eine Sekunde 85 FPs habe, dann sieht man hier deutlich, wie sinnlos dieser Wert ist. Die Minimum-FPS sind da schon wesentlich aussagekräftiger. Referenz bleibt natürlich AVG...
 
Zurück
Oben