News Sapphire R9 290X mit 8 GB wird ohne OC günstiger

john carmack schrieb:
erzähl keinen blödsinn!
die ersten NV DX10 Karten waren die aus der 8000er Reihe aus dem Jahr 2006...

Steht sogar auf der NV Homepage (oben direkt unter dem Bild):
"NVIDIA's GeForce 8 Grafikprozessoren mit Einheitlicher Shader-Architektur - Weltweit erste vollständige Unterstützung von Microsoft DirectX 10 Spielen und Anwendungen."

http://www.nvidia.de/page/geforce8.html

hä? was anderes hab ich doch auch gar nicht geschrieben..

Sorry Leute aber ich hab kein Grund irgendein quatsch zu erzählen, es ist nun mal fakt das ich damals die 5700 von nvidia eine dx version übersprungen habe für PES.

Die 9800 habe ich mir ja erst danach gekauft um die volle leistung zu bekommen für das game. Und diese hatte dann auch volle DX10 Unterstützung aber doch nicht die 5700.


/UPDATE
MIR IST GERADE EIN LICHT AUFGEGANGEN :D
Ich hab es doch tatsächlich verwechselt mit dem Shader Model(glaube war damals version 2.1>3.0), DAS hatte ich damals hoch gepatch, nicht DirectX :/


Tut mir leid für die Verwirrung, ich war mir sicher es war DX..... aber naja, jeder macht mal fehler.

Dann mal zum Thema zurück: selbst wenn Nvidia halt nur das alte DX hat, wann wird das schon gebraucht? frühestens mitte 2015 würde ich tippen, und aktiv benutzt wirds wohl erst 2016, bis dahin hab ich bestimmt meine 780ti ausgetauscht, wäre also auch nicht das problem.

Ich meine, ich kauf mir ja auch nicht gleich nen Haswell CPU nur weil ich die neuen Intel smoke-effekte haben will und so sehe ich das dann auch bei nem kleinen DX update, entweder ich habs oder ich hols beim nächsten upgrade.
 
Zuletzt bearbeitet:
nVVater schrieb:
460€?

die 780 kostet keine 400€ mehr

Ich denke, er meinte gegenüber einer Ti mit 6GB ;)

Mich machen diese aufgeblähten Karten einfach nicht an.
Lieber ein gutes Mittelklassemodell, dafür gleichzeitig: kühler, leiser, stromsparender, kostengünstigere Anschaffung + auch eines Netzteils...
Damit läuft idR alles auf very high + tw AA...

Dennoch ein guter Preis mit 8GB Vram. :daumen:
 
Ich sehe es so, dass jemand, der fragen muss, wofür man 6 oder 8GB VRAM braucht, es mit ziemlicher Sicherheit nicht braucht. ;)

Solche Karten sind etwas für Leute, die mit extrem gemodeten Spielen (inoffizielle 4K-Texture-Packs usw.) experimentieren oder ganz spezielle, auf eine bestimmte kleine Community ausgerichtete Nischenspiele spielen. Diese Leute kennen die VRAM-Problematik, die sich daraus ergibt, aus erster Hand und können gut abschätzen, wie viel sie wirklich brauchen.

Die üblichen Mainstream-Titel werden aus rein wirtschaftlichen Gründen niemals so ausgelegt werden, dass der VRAM-Bedarf das übersteigt, was >90% der potentiellen Kundschaft zur Verfügung hat. (Die meisten PC-Spieler haben laut Steam derzeit immer noch 2GB oder weniger.)
Bestenfalls gäbe es die optionale Möglichkeit, bestimmte Qualitätseinstellungen so hoch zu schrauben, das mehr VRAM benötigt wird und dann hat man mit etwas Glück vielleicht sogar einen gewissen optischen Mehrwert. Aber in der Regel werden sich die Entwickler diese Mühe nicht machen, wenn es eh kaum Spieler gibt, die das nutzen könnten.

Wenn ein Mainstream-Spiel tatsächlich ohne inoffizielle Mods oder besondere Einstellungen mit den "nur" 3-4GB VRAM aktueller High-End-Karten nicht sauber läuft, dann ist es schlicht und einfach verbugt und/oder extrem schlampig portiert. Kein Entwickler wird sowas mit Absicht machen. Das bedeutet, dass man auch keinerlei Qualitätsvorteile hat, durch diesen übertriebenen VRAM-Hunger. Da läuft einfach nur sinnlos Speicher mit irgendwelchem Müll voll.
Selbst wenn das nicht irgendwann gepacht wird, würde ich die Idee nicht toll finden, ein paar hundert Euro extra zu bezahlen, nur um solche Programmierfehler auszubügeln.

Was die neuen Konsolen angeht, wurde ja schon geschrieben, dass die auch keine 8GB VRAM haben. Nicht nur das Betriebssystem reserviert sich einen nicht unerheblichen Teil des Shared-Memory als Arbeitsspeicher, sondern auch das Spiel selbst braucht ja noch das eine oder andere GB für diesen Zweck.
Ich bin ziemlich sicher, dass es kaum ein XBox One- oder PS3-Spiel geben wird, dass tatsächlich mehr als 2GB VRAM nutzt. In der Regel braucht man für FullHD bzw. für diese Auflösung ausreichende Texturqualität auch nicht mehr. Es ergäbe keinen Sinn für ein Konsolenspiel, das eh nie mit höherer Auflösung laufen wird, jedem kleinen Objekt an der Grenze der Sichtweite eine 4K-Textur zu verpassen.
 
Ich denke auch, dass sich über 90% der Spieler Aufpreise für Vram Verdoppelung sparen können.
Damals @ Single Moni hatte ich immer Vram Standardkarten und kam prima über die Runden.

Für spezielle Anwendungen, Enthusiastensysteme oder Extremsettings kann ein Plus an Vram erforderlich sein, die Fälle beschränken sich aber wirklich auf einen kleinen Teil der Spielercommunity.

Ich selbst habe 2 780 3gb@ Sli am Start und befeuere 3 Monis @ 5760x1080 @ 3D Vision.

Vram Engpass hatte ich mit der nativen Auflösung bis dato nur bei Cod Ghosts, sonst kam ich mit allen anderen Games gut rum.
Viele Spiele begnügen sich immer noch mit 1-2 Gb Vram, selbst bei meinen settings.

Ausnahmen bestätigen die Regel und watchdogs habe ich zugegebenermaßen noch nicht getestet.

@toppic: Die Karte wird's in paar Wochen nach den neuen Releases zum Schleuderpreis geben. Haltet die Füße eine Zeit still und gebt ja keine 700,- dafür aus. Irrsinn für ne Single Gpu.
 
Zuletzt bearbeitet von einem Moderator:
Darkscream schrieb:
Watchdogs braucht in UHD fast 6GB und sonst auch schon fast 4GB - sollten sie vielleicht "Watchdogsedition" nennen.

In welcher Auflösung soll den Watch Dogs bitte 4GB brauchen? Full HD auf jeden Fall nicht, denn ich komm mit knappen 3 GB aus (mit der Worse Mod und SweetFx).
 
In 1440p auf jeden Fall und auch in 1080p kannst dann selbst mit den Mods ohne 4xAA spielen:

Das Problem mit dem Speicherhunger des Spiels kann auch die Worse-Mod nicht lösen, in Ultra-Settings mit vierfachem Multisampling bleibt Watch Dogs trotz Performance-Gewinnen mit nur drei Gigabyte Grafikkarten-Speicher praktisch unspielbar. Die vielen teils heftigen Hänger verhageln den Spielspaß selbst mit einer gegenüber dem Referenzmodell um 20 Prozent übertakteten Gainward GTX 780 Ti Phantom. Mit der mit vier GiByte ausgestatteten und rund 5 Prozent übertakteten MSI R9 290X Gaming läuft das Spiel deutlich fluffiger, auch wenn die Durchschnitts-Fps dabei wesentlich niedriger ausfallen. Nutzen wir die Pure-Mod, gerät aber auch die Radeon ins Stocken.

http://www.pcgameshardware.de/Watch-Dogs-PC-249220/Specials/Mods-PC-Worse-Pure-Benchmarks-1127961/

VRAM kann man eben nicht genug haben, alles eine Frage der Settings.
 
Zuletzt bearbeitet:
Hier steht aber mehr VRam bei weniger Leistung und dazu noch teuer.
Wenn ich die 8GB VRam nicht nutze, dann habe ich weniger Leistung und umsonst mehr bezahlt.
Das muss man abwägen, ob man die 8GB VRam wirklich braucht, weil sonst geht der Schuss nach hinten los.
 
Naja Dai6oros Beispiel zeigt doch eine Situation wo mehr VRam mehr Leistung bedeutet.

Zugegebenermassen:

Wenn man sich die reinen Zahlen ansieht ist die 780Ti wohl der eindeutige Sieger (GameWorks sei "Dank"). Dennoch ist das Spiel in diesen Settings dank den 3GB-VRam nicht spielbar, denn es kommt zu dauernden Nachladerucklern, die man natürlich an den schönen bunten Benchmarkbalken nicht bemerkt.

Die 290x produziert objektiv weniger Frames, diese sind dafür spielbar. Deshalb hat die 290x mMn "mehr Leistung".


Allein Simulatoren wie XPlane beanspruchen gerne viel VRam und solange die 8GB-Version in solchen Extremsituationen ihre spielbaren FPS liefert bietet sie dann halt mehr Leistung und ist halt teurer. Derjenige, der sich für so eine Karte interessiert kennt sich mit der Thematik aus und kann abwägen.

Die Alternative zu der 290x 8GB wäre immerhin eine Titan Black die noch teurer aber nicht wirklich schneller ist?
 
Das muss man abwägen, ob man die 8GB VRam wirklich braucht, weil sonst geht der Schuss nach hinten los.

Das sollte man ja grundsätzlich tun. Ich wollte damit nur der generellen Aussage entgegen treten Watch Dogs würde auf 1080p nie mehr als 3GB benötigen. Letztendlich kommt es immer auf die eigenen Vorlieben an. Die Diskussion zeigt aber auch, dass schon jetzt VRAM der limitierende Faktor sein kann, obwohl die Rechenleistung noch mehr als ausreichend ist.

6GB hätten der TI gut gestanden dann hätte sich Nvidia aber das eigene Wasser abgegraben. So bleiben die 6GB eben denen vorbehalten, die bereit sind den Preis einer Titan Black zu zahlen.

PS: Den Preis der für die 8GB Versionen der R9 290x veranschlagt wird halte ich ebenso für maßlos überzogen.
 
Zuletzt bearbeitet:
Zurück
Oben