News AMD R9 290X: Mehr „Hawaii“-Grafikkarten mit 8 GB im November

Kilians schrieb:
Also meine 2GB reichen mir vollkommen aus. :D
Habe auch 2GB Vram aber die sind je nach Game schon Grenzwertig (z.b. BF4, Watch Dogs, Thief, Assetto Corsa usw). Noch reichen 2GB aus aber das wird sich sehr schnell ändern. Meine nächste Grafikkarte wird mit mind 4GB ausgestattet sein. Am besten 6/8GB. So gehe ich auch sicher für genügend Reserven
 
Dan Kirpan schrieb:
Warum holen sich so viele Leute zurzeit die GTX 970? Die R9 290X ist in den Benchmarks schneller und vorallem in höheren Auflösungen deutlich.
weil die 970 einfach überall gut wegkommt und zum Start deutlich billiger als die 290X war. Edit: und ich finde auch sehr geil, dass sich die Lüfter im idle abschalten.

Ich weiß auch nicht, was ich machen soll. Eine 970 für ~350 oder eine 290(X), wobei ich da die Preise der interessanten Modelle noch nicht im Kopf habe. Sehr cool wäre eine 290 ohne X mit 8GB zum 970 Preis ...
 
Zuletzt bearbeitet:
Wenn das Spiel für maximal 1080p Texturen hat wird sich bei UHD nix groß ändern. Für Skyrim soll es ja ein paar richtig fette Mods geben wo das Spiel alles in den Schatten stellt und wohl auch 6GB Vram ein weng knapp werden könnten. Wir kennen doch den Spruch "Was ist besser als viel Hubraum? Noch mehr Hubraum!" Also lasst uns ganz schauen was das Ding drauf hat. Und hoffen das das nicht die letzte oder einzige dieser Art ist.
 
Ich weiß auch nicht, was ich machen soll. Eine 970 für ~350 oder eine 290(X), wobei ich da die Preise der interessanten Modelle noch nicht im Kopf habe. Sehr cool wäre eine 290 ohne X mit 8GB zum 970 Preis ...

Bei Mindfactory gibts gerade ein Referenzdesign der 290x für 250 Euro ;)
+ Kühler hast du eine Silentkarte für ca 290 Euro, die der GTX 970 in nichts nach steht und bei hohen Settings wohl schneller ist.
 
@smilefaker: wo denn? Hab eben geguckt, aber nix gefunden.

edit, gefunden: Nicht mehr lieferbar.
edit2: nö, das auf mydealz war eine "X-Edition" :)
 
Zuletzt bearbeitet:
@JarmenC es ist vollkommen egal auf was es ausgelegt ist, ich habe in Mass Effect 1 auch einnige 4k Texturen und die laufen auch wenn man nicht in 4k spielt.
Es spielt ne Rolle in welcher Auflösung die Texturen in den Vram geladen werden und das hängt von der gewählten Texturqualität ab, nicht von der gewählten Auflösung.

Und ja 4k Texturen machen auch auf nem 1080p Monitor Sinn, Wenn man an irgendwas nah ran geht und nur noch ein Teil der Textur auf dem ganzen Bildschirm sieht würden diese, sofern jede Textur wirklich exakt die Renderauflösung hätte, ziemlich matschig aussehen.

Von wo kommt das eigentlich, dass hier Leute meinen Texturen skalieren 1:1 mit der Auflösung? Das widerspricht doch schon allein jeder Logik, wenn Entwickler sich extra Arbeit machen, damit dann 99,9% der Spieler die unter 4K spielen nur schlechte-mittelmäßige Texturen bekommen.
 
Nicht die höhere Monitorauflösung allein benötigt mehr VRAM, sondern die in den Spielen eingebauten Bildverbesserungen verursachen höheren VRAM Verbrauch in höheren Auflösungen.
Und vor allen Dingen Anti Aliasing braucht nahezu doppelt so viel VRAM bei unveränderten Qualitätseinstellungen, umso höher man die Auflösung dreht.

Das wurde hier im Forum auch schon von diversen Leuten nachgewiesen in Tests.

Und genau deswegen braucht man für 2.5K, UHD und noch höhere Auflösungen leistungsstarke Grafikkarten mit viel VRAM.
Gerade bei Multi GPU Systemen braucht man erst recht viel VRAM und velängert so die Lebensdauer seines Multi GPU Systems extrem, weil es dann ohne Limitierungen dauerhaft auf viele Jahre seine volle Leistung entfalten kann.
 
Träumst wohl zu viel.
 
Lahatiel schrieb:
@keldana
Blabla. Das passt. Meist wird der viele Speicher eh nur für Texturen und co. genutzt.
Hier mal am Beispiel Lords of Fallen. Greift sich 6GB und absolut spielbar.

Brauchst gar nicht so unfreundlich zu sein, immerhin habe ich nur erklärt, wie es gemeint war. Und obendrein hat ja niemand gesagt "es ist ein Problem" ... nur, das es ein Problem sein "könnte".
 
:confused_alt:
Das war gar nicht unfreundlich gemeint. Klingt "Papperlapapp" freundlicher?! Bisschen mehr Fell auf dem Rücken wäre fein.
 
Pilstrinker schrieb:
Hattest du dir nicht erst kürzlich eine 2 GB GTX 770 gekauft?
Vor einem Jahr habe ich die gekauft und da ich nur WOT spiele reicht die mir bis heute Super aus. Habe max. 1,2GB VRam belegt. War ein guter Kauf.
 
trkiller schrieb:
ich habe mir erst heute eine neue Karte gekauft.
Kann doch echt nicht sein, naja dann wird die Karte halt weiterverkauft

Und wo zur Hölle, hast du deine "neue" Karte gekauft? Wenn es keine Gebrauchte ist und du sie, da du dich hier in einem Computerforum bewegst, hoffentlich online gekauft hast, nutze doch dein gesetzliches 14 Tage Rückgaberecht.
 
Gerade bei Multi GPU Systemen braucht man erst recht viel VRAM und velängert so die Lebensdauer seines Multi GPU Systems extrem, weil es dann ohne Limitierungen dauerhaft auf viele Jahre seine volle Leistung entfalten kann.
Genau so schauts aus, da spricht jemand aus Erfahrung. Die 8GB Karten werden die perfekte Basis für CF Systeme, die nicht in ein Vram Limit rennen wollen.
 
mit den Current Gen Konsolen 8 GB RAM an die Hand gegeben hat gehen diese nicht mehr gerade sparsam damit um.

Entwickler können nur 4,5 GB auf der PS4 nutzen; der Rest ist für das System reserviert.
Und diese 4,5 GB muss sich die APU - CPU/GPU Einheit teilen.

Warum glaubst du läuft Mordors Schatten auf der PS4 nicht mit Ultra Texturen?

1) Die PS4 APU ist zu langsam
2) Die PS4 hat zu wenig Speicher
 
seh ich mal genauso,

wenn ich hier schon lese das eine PS4 / Xone mit Reinen 8 GB Grafikkarten verglichen wird kommt mir ehrlichgesagt die Galle.

In der letzten Konsolen Gen hat jeder rumgeheult, das die Konsolen den PC Spiele / HW Markt ausbremsen würden weil sie halt dafür sorgen das die Games nicht auf High End PCs abgestimmt sind.

Schau ich jetzt mal rein sind dank(!) PS4 und Xone Spiele am Markt die anfangen die HW Speccs und auch sehr große Teile der Qualität der Games zu pushen.

Der Vergleicht hinkt hier an allen Enden: Ihr vergleicht Konsolen die die Spiele in Standard Einstellungen zocken sollen in einer konstanten Bildrate bei nicht veränderbaren Settings mit 500 Euro Grafikkarten, die Primär dafür gedacht sind UHD+ Material darzustellen in Qualitätseinstellungen Jenseits von dem was noch vor 1 oder 2 Jahren überhaupt Denkbar gewesen wäre.

Ja ne Current Gen Console hat nich den Bums eines High End PCs, dafür sorgt diese aber dafür das ihr auf euren PCs die Games in entsprechenden Texturauflösungen zocken könnt.
 
Immer wieder schoen zu sehen wie die leute nicht verstehen wie auslastungen des speichers nahe der max grenze ihrer karte zustande kommen...
 
naja im CF ok, aber was nutzt mir der gr Speicher wenn die Leistung fehlt, wenn wir uns mal anschauen was die neuen Games/Features Leistung/Speicher fressen...
 
Zurück
Oben