News AMD R9 290X: Mehr „Hawaii“-Grafikkarten mit 8 GB im November

CD schrieb:
Die Auflösung hat zwar einen gewissen Einfluss, aber nicht so viel wie man vielleicht meint. Kantenglättung (richtiges AA, nicht FXAA) und Texturen fressen viel VRAM, und seit man den Entwicklern mit den Current Gen Konsolen 8 GB RAM an die Hand gegeben hat gehen diese nicht mehr gerade sparsam damit um. ....

Dir ist aber schon klar das sich bei dem Konsolen die CPU und die Grafikkarte den Speicher teilen? Du wirst da nie die vollen 8 GB für die Grafik haben, da man sowohl den Speicher den die Prozessoren nutzen als auch den der vom OS belegt wird abziehen muss.

Es wird hier von einigen immer so darestellt, als ob bei PS4 und Xbox one die Grafikkarte die vollen 8 GB zur verfügung hätte, was schlicht weg nicht sein kann.

Wäre natürlich mal interessant zu wissen wie viel vom Speicher wirklich für die Grafikkarte übrig bleibt.
 
angeblich 6GB und 2GB fürs OS
 
Meines Wissens war außer bei extrem Speicherhungrigen Titeln kein Vorteil gegenüber 4GB zu verzeichnen...
 
Kilians schrieb:
Also meine 2GB reichen mir vollkommen aus. :D

Sehe ich auch noch so, oder sollten wir uns schämen? Kommt mir nämlich immer so vor :D
Letztens mit der 670 Crysis 3 auf 4K gezockt.Die 32 FPS kamen eher nicht von dem vollen VRAM sondern von der GPU die dauernd auf 99% load war. Bei CS:GO @4K ist mir der VRAM erst mit >2x MSAA geplatzt. Da sehe ich auch einen Riesen Verbraucher für Speicher.

Aber das stimmt schon, AMD kam recht spät auf den Trichter da mal eine 8GB 290x Referenz hinzulegen, um was gegen NV in der Hand zu haben.
 
Zuletzt bearbeitet:
Galaxytourist schrieb:
Dir ist aber schon klar das sich bei dem Konsolen die CPU und die Grafikkarte den Speicher teilen? Du wirst da nie die vollen 8 GB für die Grafik haben, da man sowohl den Speicher den die Prozessoren nutzen als auch den der vom OS belegt wird abziehen muss.

Jup das weiß ich - deswegen ist es umso verwunderlicher, dass wir plötzlich so eine Explosion beim VRAM-Bedarf der aktuellen Konsolenports sehen. Und auf der XBOX ist es ja nichtmal GDDR5 sondern nur DDR3 Speicher mit dem die Grafikeinheit arbeiten muss. Daher überrascht es mich umso mehr, dass plötzlich überall 3 oder 4 GB VRAM als Mindestanforderung bzw. Empfehlung gelistet werden.
 
Also wer jetzt eine 4GB Karte hat sollte erst wieder bei 16GB - am besten noch ein vielfaches mehr - aufrüsten. Wenn die Last Gen erstmal 100% von der Bildfläche verschwunden ist gibt es nochmals einen Sprung der Anforderungen.

Wieviel hatte die Ps3 (2007) an Vram, ich glaube 256MB. 2009 mussten Rechner schon 2-3x haben um max Settings zu stemmen.
Ihr glaubt doch nicht das sich in dieser Gen irgendwas ändert (egal was für ein Grund).
 
Ich denke das ist alles nur Verkaufsstrategie , meine ati 5870 kann ich in vielen Spielen bei 2560x1080 immernoch mit hohen Details spielen , ohne das es Jetzt abartig ruckelt , kommt vor keine Frage aber im Grunde reicht der Speicher , leider ist es so das desto höher die Auflösung hier z.b 4k ergo 4x so hoch auch viermal soviel speicher für die Texturen etc gebraucht wird. Aber 8 GB finde ich für otto übertrieben , schließlich kommt man zu dem Punkt wo die GPU Leistung so stark einbricht das man quasi gezwungen ist die Details runterzufahren was wiederrum den Speicher entlastet , es sei den jemand spielt 4k mit 15 Frames...

Deshalb finde ich ist die GPU Leistung für diesen Speicher nicht ausreichend - für Grafiker usw. wahrscheinlich sinnvoll für mich nicht wirklich.
 
8GB ohje ... und ich hab mir vor zwei Jahren noch eine 1GB Karte geholt... :/
In GTA V werde ich damit wahrscheinlich schon nicht mehr glücklich werden.
 
8GB für ne Graffikkarte............. :Freak

langsam frage ich mich für was das alles sinnvoll sein soll....für gamer bestimmt nicht....
 
@eVolutionplayer Vram-Nutzung skaliert doch nicht mit der Auflösung.
In Starcraft 2 liegt bei mir die Vram-Nutzung in 5k etwa gleich wie in 1440p.
In Mass Effect 1 liegt die Vram-Nutzung in 8k etwa gleich wie in 1440p.
Die Texturen werden abhängig von der gewählten Texturenqualität gewählt, Auflösung spielt dabei keine Rolle. Wäre ja auch sinnlos dann müsste man die Texturen in 16k den Spielern geben und dann kriegen nur die 16k die optimale Texturenqualität während die HD Spieler nur so lala Texturen bekommen und trotzdem gerade ein +-8x so großes Spiel installiert haben.
 
Morpheus79 schrieb:
Ich habe eine R9 290X mit 4GB und habe Schatten von Mordor in 2560x1600 gespielt... kein ruckeln gemerkt. War immer flüssig.

Dito in 3440x1440. Gut, nach dem Spawn auf nem Turm ruckelt es im ersten 360 schon bis er die Texturen geladen hat.
 
Das hat AMD sauber verschlafen! Erst einmal abwarten bis sich die Leute mir GTX 970/980 eingedeckt haben und dann so ganz langsam reagieren.
Finde eine R9 290X 8GB schon Blödsinn, weil in ein paar Monaten kommen eh neue GPU's raus und dann hat man viel Geld bezahlt und sitzt man auf was altem.
Wer jetzt glaubt, dass es eine R9 290X 8Gb für ein paar Euro mehr gibt, der wird sicher enttäuscht. So kurz vor Weihnachten wird die richtig Geld kosten und im Januar wird Sie einem hinterher geschmissen.
 
Spiele gerade mal wieder Skyrim. ENB, 30 Texturmods und noch diverse andere Grafikmods- und Tweaks führen bei mir durchgehend zu 4GB VRam Auslastung. Wenn ich 8GB hätte, wären 6GB mindestens voll.
 
MikelMolto schrieb:
Finde eine R9 290X 8GB schon Blödsinn, weil in ein paar Monaten kommen eh neue GPU's raus und dann hat man viel Geld bezahlt und sitzt man auf was altem.

Hattest du dir nicht erst kürzlich eine 2 GB GTX 770 gekauft?
 
eVolutionplayer schrieb:
@ TheDarkness

du hast natürlich vollkommen recht , danke für die Aufklärung .

http://www.pugetsystems.com/labs/articles/4K-Monitor-Requirements-and-Usage-492/

Hab jetzt ein wenig gegoogelt und finde keinen Beweis, dass ne höhere Auflösung mehr Vram für die Texturen braucht.
Siehe zbs. Hierhttp://media.bestofmicro.com/J/A/412822/original/TESV_VRAM.png
Die Vram Nutzung steigt nur wirklich mit AA an, ohne AA ist der Anstieg nur gering (was ich auch in Mass Effect und Star Craft beobachtet habe, da diese praktisch fast kein AA unterstützen)

Also nichts von 4x Auflösung gleich 4x Texturauflösung = 4x Vram Nutzung.
 
Sehr gut, dann wird die Sapphire Vapor-X R9 290X mit 8 GB wohl meine neue Grafikkarte werden, sobald diese wieder verfügbar ist und unter 500,00 Euro auch in Deutschland zu bekommen ist.

Overclockers UK bietet Sie ja schon jetzt an für 380,00 Pfund, was knapp unter 500,00 Euro ist, aber ich möchte sie für den Preis doch lieber bei einem deutschen Händler meines Vertrauens kaufen zwecks Garantiegründen.

Bin schon die ganze Zeit seit dem Beginn des Preisverfalls am überlegen, ob ich mir die Nvidia GTX 780 Ti oder die Sapphire Vapor-X AMD R9 290X OC 4Gb kaufen soll.

Da aber immer mehr neue Next Generation PC Spiele inzwischen mehr als 3Gb VRAM haben wollen und selbst auf einer Nvidia GTX 780 Ti mit 3Gb ruckeln wegen VRAM Mangel oder zumindest leichte Nachladeruckler und aufploppende Texturen zeigen, was sich in Auflösungen höher als 1080P noch verschlimmert, wäre es wohl doch besser gleich eine sehr flotte Sapphire Vapor-X R9 290X OC mit 8GB VRAM zu kaufen.

Da ich auch gerne Battlefield 3-4 spiele, würde es sich sogar wegen der Mantle API noch mehr lohnen dieses mal zu AMD zu greifen, obwohl ich seit 8 Jahren bis jetzt nur NVidia Grafikkarten verbaut hatte.
 
Ich erinnere mich hier an die GTX 580 Phantom die teilweise wesentlich langsamer war dank der Speicherverwaltung... Sehe das Ganze noch recht kritisch.
 
MikelMolto schrieb:
Das hat AMD sauber verschlafen!

Wie soll AMD mit lediglich mehr V-ram kontern? Die Karten werden doch deswegen nicht schneller, sondern werden ihrer Rolle als High End Karten eher gerecht.
Ob AMD jetzt zu Nvidia release 8GB Karten bringt oder jetzt ist völlig egal, verschlafen hat man da nichts, eher hat man erstmal abgewartet, ob es sinnvoll ist 8GB Karten zu bringen.


Erst einmal abwarten bis sich die Leute mir GTX 970/980 eingedeckt haben und dann so ganz langsam reagieren.

Wie kommst du darauf dass die 8GB Karten eine Reaktion auf Nvidias Karten sind?!

Finde eine R9 290X 8GB schon Blödsinn, weil in ein paar Monaten kommen eh neue GPU's raus und dann hat man viel Geld bezahlt und sitzt man auf was altem.

Es kommen immer in ein paar Monaten irgendwelche neue GPU´s raus, das macht einen Kauf am Ende oder am Anfang einer Generation nicht wirklich besser.
Am Anfang zahlst du viel, dafür am Ende weniger. Who cares?

Wer jetzt glaubt, dass es eine R9 290X 8Gb für ein paar Euro mehr gibt, der wird sicher enttäuscht.

Wie kannst du dir da sicher sein, wenn selbst in der News von 10% die Rede ist?

So kurz vor Weihnachten wird die richtig Geld kosten und im Januar wird Sie einem hinterher geschmissen.

Ja genau, immer alles schlecht reden was von AMD kommt.:freak:
 
Zurück
Oben