Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Sinnvoll die xfx Geforce 7950 GX2 M570 XXX zu holen?
- Ersteller dietzi
- Erstellt am
-=BlackBoXX=-
Commander
- Registriert
- Sep. 2005
- Beiträge
- 2.293
Hallo,
Ich denke nicht das der X2 3800+ die Grafikkarte ausbremsen würde. Aber auf welchen Auflösungen spielst du um dir diese Graka zu holen?
Aber ich würde mir das nochmal gut überlegen sich jetzt noch eine teure High-End Karte zu holen, denn bald kommt DX10.
Ich weiß nicht wie weit du schon mit dem Thema DX10 vertraut bist, aber meiner Meinung nach zahlt sich so eine teure Karte jetzt nicht mehr aus.
Vielleicht eine 7900 GT oder X1800 XT. Diese reichen sicherlich aus bis DX10 und Vista da sind ...
Lg BlackBoXX
Ich denke nicht das der X2 3800+ die Grafikkarte ausbremsen würde. Aber auf welchen Auflösungen spielst du um dir diese Graka zu holen?
Aber ich würde mir das nochmal gut überlegen sich jetzt noch eine teure High-End Karte zu holen, denn bald kommt DX10.
Ich weiß nicht wie weit du schon mit dem Thema DX10 vertraut bist, aber meiner Meinung nach zahlt sich so eine teure Karte jetzt nicht mehr aus.
Vielleicht eine 7900 GT oder X1800 XT. Diese reichen sicherlich aus bis DX10 und Vista da sind ...
Lg BlackBoXX
S
Sven
Gast
Würde ich genauso sehen ^^
Ende des Jahres kommen neue Grakas mit DX10 und GDDR4-Speicher. Da lohnt es sich jetz nich eine Karte für fast 600 Euronen zu laufen. Nimm dir lieber jetz ne billigere als Übergang und kauf dir dann ne ordentliche mit DX10 & Co.
Ende des Jahres kommen neue Grakas mit DX10 und GDDR4-Speicher. Da lohnt es sich jetz nich eine Karte für fast 600 Euronen zu laufen. Nimm dir lieber jetz ne billigere als Übergang und kauf dir dann ne ordentliche mit DX10 & Co.
cyberlizzar
Newbie
- Registriert
- Aug. 2006
- Beiträge
- 7
llllllllllll
Zuletzt bearbeitet:
cyberlizzar
Newbie
- Registriert
- Aug. 2006
- Beiträge
- 7
Der Begriff WGF wurde abgeschaft und DirectX 10 wird es auch nicht geben. Der 3D-Teil wird Direct3D 10 heißen, der Rest der DirectX-Bibliotheken bleibt wohl gegenüber DirectX 9 unverändert.-=BlackBoXX=- schrieb:Hallo,
Ich denke nicht das der X2 3800+ die Grafikkarte ausbremsen würde. Aber auf welchen Auflösungen spielst du um dir diese Graka zu holen?
Aber ich würde mir das nochmal gut überlegen sich jetzt noch eine teure High-End Karte zu holen, denn bald kommt DX10.
Ich weiß nicht wie weit du schon mit dem Thema DX10 vertraut bist, aber meiner Meinung nach zahlt sich so eine teure Karte jetzt nicht mehr aus.
Vielleicht eine 7900 GT oder X1800 XT. Diese reichen sicherlich aus bis DX10 und Vista da sind ...
Lg BlackBoXX
Nach Direct3D 10 kommt Direct3D 10.1, welches unter anderem die Unterstützung von 4-fachem Multisampling-AntiAliasing zwingend voraussetzen wird (natürlich auch zusammen mit HDR).
Bei Direct3D 10 werden wohl die bedeutendsten Neuerung der deutlich geringere Overhead dank des neuen Treibermodells von Windows Vista und der Geometry Shader sein. Außerdem werden die drei Shadereinheitentypen (Geometry, Vertex, Pixel) dann "unified" behandelt, es wird also seitens Direct3D 10 nicht mehr dazwischen unterschieden. ATI wird das unified-Konzept auch in Hardware umsetzen, Nvidia dagegen bleibt hardwaremäßig noch beim bewährten Konzept (spart Kosten und braucht weniger Transistoren).
ATI strebt einen Release der Direct3D-10-Karten im Winter an, Nvidia wird darauf wohl auch zur gleichen Zeit reagieren.
Windows Vista scheint sich wohl ein wenig zu verspäten, weshalb die Features der neuen Grafikkarten vorerst ungenutzt bleiben.
Bei ATI gelten 64 Shadereinheiten für die nächste Generation als relativ sicher, was gegenüber den aktuell 48+8 Shadereinheiten (Pixel+Vertex) als relativ kleiner Schritt erscheint. Jedoch muss man bedenken, dass wegen des unified-Konzepts nun jede Shadereinheit alles können muss, also deutlich mehr Transistoren notwendig werden. Theoretisch stehen dafür dann auch 64 Vertex-Shader-Einheiten zur Verfügung.
Bei Nvidia wird man die GeForce-7-Reihe aufbohren, um D3D10-Features erweitern und zusätzliche 8 Pixelpipelines verbauen. D.h. bei Nvidia sind wohl 32 Pixelpipelines (= 32 vollwertige Pixelshadereinheiten bzw. 64 Pixelshadereinheiten bei gängigen Rechenoperationen) zu erwarten. Die Vertex-Shader-Anzahl wird wohl auch erhöht werden, hier reichen die Spekulationen von 10 bis 16 Einheiten. Wie Nvidia die Geometry-Shader in Hardware implementieren wird, ist mir noch nicht bekannt, aber ich könnte mir vorstellen, dass sie dafür die Vertex-Shader "missbrauchen".
Außerdem werden wohl beide Hersteller 1,2-1,6 GHz schnellen GDDR4-Speicher verbauen. Das Speicherinterface bleibt weiterhin 256 Bit breit. ATI wird übrigens bereits im August 1 GHz schnellen GDDR4 verbauen auf der Radeon X1950 XTX.( SPASSTIGER)
-=BlackBoXX=-
Commander
- Registriert
- Sep. 2005
- Beiträge
- 2.293
Irgendjemand hier im Forum hat mich bereits ausgebessert weil ich "DX10" geschrieben habe. Mir ist bereits bewusst, dass es Direct3D-10 heißen wird und die von dir genannten Features beinhalten wird ...cyberlizzar schrieb:Der Begriff WGF wurde abgeschaft und DirectX 10 wird es auch nicht geben. Der 3D-Teil wird Direct3D 10 heißen, der Rest der DirectX-Bibliotheken bleibt wohl gegenüber DirectX 9 unverändert.
Nach Direct3D 10 kommt Direct3D 10.1, welches unter anderem die Unterstützung von 4-fachem Multisampling-AntiAliasing zwingend voraussetzen wird (natürlich auch zusammen mit HDR).
Bei Direct3D 10 werden wohl die bedeutendsten Neuerung der deutlich geringere Overhead dank des neuen Treibermodells von Windows Vista und der Geometry Shader sein. Außerdem werden die drei Shadereinheitentypen (Geometry, Vertex, Pixel) dann "unified" behandelt, es wird also seitens Direct3D 10 nicht mehr dazwischen unterschieden. ATI wird das unified-Konzept auch in Hardware umsetzen, Nvidia dagegen bleibt hardwaremäßig noch beim bewährten Konzept (spart Kosten und braucht weniger Transistoren).
ATI strebt einen Release der Direct3D-10-Karten im Winter an, Nvidia wird darauf wohl auch zur gleichen Zeit reagieren.
Windows Vista scheint sich wohl ein wenig zu verspäten, weshalb die Features der neuen Grafikkarten vorerst ungenutzt bleiben.
Bei ATI gelten 64 Shadereinheiten für die nächste Generation als relativ sicher, was gegenüber den aktuell 48+8 Shadereinheiten (Pixel+Vertex) als relativ kleiner Schritt erscheint. Jedoch muss man bedenken, dass wegen des unified-Konzepts nun jede Shadereinheit alles können muss, also deutlich mehr Transistoren notwendig werden. Theoretisch stehen dafür dann auch 64 Vertex-Shader-Einheiten zur Verfügung.
Bei Nvidia wird man die GeForce-7-Reihe aufbohren, um D3D10-Features erweitern und zusätzliche 8 Pixelpipelines verbauen. D.h. bei Nvidia sind wohl 32 Pixelpipelines (= 32 vollwertige Pixelshadereinheiten bzw. 64 Pixelshadereinheiten bei gängigen Rechenoperationen) zu erwarten. Die Vertex-Shader-Anzahl wird wohl auch erhöht werden, hier reichen die Spekulationen von 10 bis 16 Einheiten. Wie Nvidia die Geometry-Shader in Hardware implementieren wird, ist mir noch nicht bekannt, aber ich könnte mir vorstellen, dass sie dafür die Vertex-Shader "missbrauchen".
Außerdem werden wohl beide Hersteller 1,2-1,6 GHz schnellen GDDR4-Speicher verbauen. Das Speicherinterface bleibt weiterhin 256 Bit breit. ATI wird übrigens bereits im August 1 GHz schnellen GDDR4 verbauen auf der Radeon X1950 XTX.( SPASSTIGER)
Trotzallem muss ich mich bei dir bedanken, da du das relativ simple erklärt hast und ich jetzt nochmal mehr den Durchblick habe.
@ dietzi
Wenn du dir den Post von cyberlizzar durchliest, dann sollte dir klar sein, wieso du auf "Direct3D-10" warten solltest ...
Wenn du dich hier im Forum ein bisschen umschaust wirst du einige Vergleichsbilder zwischen DX9 und "Direct3D-10" finden (ist echt erstaunlich der Unterschied) ...
Lg BlackBoXX
ich kann mir nicht vorstellen das man bei dieser Karte so große Unterschiede feststellen wird. wenn ich mir eine midrange karte auf direxct 10 basis hole glaube ich nicht das meine Augen den unterschied feststellen würde....
tAk
Vice Admiral
- Registriert
- Feb. 2005
- Beiträge
- 7.146
@ dietzi: Wie sieht denn der Rest deines Systems aus? Den X2 3800+ würde ich definitiv übertakten, wenn du die Karte kaufst.
Wie schon meine Vorredner geschrieben haben, lohnt sich aber aus Kostengründen eine "kleinere" Karte wesentlich mehr. Allein schon in Anbetracht von DX10.
mFg tAk
Wie schon meine Vorredner geschrieben haben, lohnt sich aber aus Kostengründen eine "kleinere" Karte wesentlich mehr. Allein schon in Anbetracht von DX10.
mFg tAk
wie gesagt der x2 3800+,asus a8m32 sli deluxe,vermutlich hole ich mir 2 gb gskill speicher und ich habe ein be quit! 600W netzteil.
ist es vielelicht denkbar das die karte durch einen patch auch direxct 10 fähig sein wird?
ist es vielelicht denkbar das die karte durch einen patch auch direxct 10 fähig sein wird?
Ähnliche Themen
- Antworten
- 8
- Aufrufe
- 923
- Geschlossen
- Antworten
- 8
- Aufrufe
- 452
- Antworten
- 29
- Aufrufe
- 1.986