Leserartikel VRAM-Usage aktueller Titel

Kasmopaya schrieb:
Aber die GTX 580 oder 8800 Ultra sind Enthusiasten Karten.
Das stimmt natürlich. Wenn die Karten eh schon Mondpreise haben, machen ein paar Taler mehr für den Speicher den Kohl auch nicht mehr fett.
Laut Steam haben sehr viele Leute alte Grafikkarten, bzw. fahren ihre Karte bis nix mehr geht, teilweise sogar über 5. Bei mir sind es auch so 4-5 Jahre im Schnitt.
Diejenigen haben dann aber meist keine Highend-Karte gekauft. Macht ja auch keinen Sinn. Ich berappe doch nicht 500€ um im vollen Genuss maximaler Qualität zu kommen und zocke dann in 3 Jahren alles auf mid/low.
Da stimmt doch das Verhältnis nicht. Wenn ich schon Lowcost-Karten bekomme die deutlich schneller als meine alte Highend sind behalte ich doch nicht den alten Krempel.


Kasmopaya schrieb:
Ne lieber nicht. Zu ineffizient. Lieber 256bit und GDDR6 oder massiv hoch gezüchteter GDDR5.
Ich denke es wird wohl bei 384bit bleiben. Von GDDR6 oder mehr als 6Gbps beim GDDR5 hab ich noch keine Ankündigungen vernommen. 256bit wären also schon etwas wenig.
 
zocke dann in 3 Jahren alles auf mid/low.
Da stimmt doch das Verhältnis nicht. Wenn ich schon Lowcost-Karten bekomme die deutlich schneller als meine alte Highend sind behalte ich doch nicht den alten Krempel.
Das ist eben der springende Punkt. Die Mid Range der nächsten Generation ist entweder langsamer(GF9 Vram Krüppel) oder nur unwesentlich schneller als die Original Architektur. (GT200) Mal von GF8 ausgehend. Also wie gesagt. Bei der GTX 680/780 erwarte ich nun keinen Sprung mehr, weil sie eben auf der gleichen Architektur basieren. Und ich wüsste nicht wo man mit einer 8800GTX die Details runter drehen musste und eine GTX 280 dann voll aufdrehen konnte. Crysis war für beide heftig, und Empire hat auch die GTX 280 nicht richtig gepackt. Wenn man Pech hat ist die nächste Generation dann in irgend einer Weise schlechter, vor allem sollte man darauf achten nicht die letzte DX Generation direkt vor einer neuen DX API zu kaufen. ZB GF7. Solche Karte sind dann besonders schnell veraltet weil neue DX Generationen meist nützliche Features mitbringen. Spätestens bei DA II/Civ V mit DX 11 hätte ich mir auch mit einer GT200 eine neue kaufen müssen! Also hätte es das mal überhaupt nicht gebracht erst 8800GTS und dann GTX 260.


Vor allem kenne ich viele die 3-4Karten für 150€-200 kaufen in der Zeit in der ich eine für ca. 500-600€ kaufe. Also von teurer Strategie kann auch keine Rede sein. Also ich seh fast nur Vorteile kombiniert mit minimalen Risiko, wie jedes mal mit Spulenfiepen, Vram Krüppel, AF Quali oder sonst was das einem vom Kauf abhalten könnte. Ich sehs ja jetzt wieder, was das für eine Mammutaufgabe ist eine perfekte Grafikkarte zu finden, die jeden Bereich perfekt abdeckt und gleichzeitig flüster leise agiert. Jedes Jahr mit nur 150€ hätte ich da keine Chance. Noch dazu kommen ja bald eine ganze Wagenladung von potenziellen Blockbustern raus. Vorher hatte ich bis auf ein paar Ausreißer keinen Grund aufzurüsten. Jetzt wird die Leistung benötigt und nicht 1-2 Jahren wenn die Mid Range das ganze für 150€ bereit stellt.

Noch dazu ist das ganze bei weitem umweltschonender als sich jede Jahr eine neue Grafikkarte zu kaufen. Stromverbrauch hin oder her. Das was in der Herstellung verpulvert wird holt eine neue Grafikkarte nie wieder rein. Also für mich ist das die perfekte Strategie. Mir ist aber klar das nicht jeder so viel Geld auf einmal ausgeben will/kann. Von dem her ist das auch nicht auf jeden umlegbar. Aber nur mal so als Tipp, geht bis jetzt perfekt auf.

256bit wären also schon etwas wenig.
Echt, ich sehe da kein Bandbreitenlimit bei Cayman/GF104... Das einzige was ich immer sehe sind Vram Limits.
GTX 560 ist ja auch ein Stück effizienter dadurch, auch mit 2GB. Das ist schon mal sicher. Wenn man nun noch mehr Rohleistung dazu packen würde, hätte man den direkten Cayman Konkurrenten.
 
Zuletzt bearbeitet:
Und das bei 28nm(Kepler) schon die Effizienzrevolution kommt glaube ich nicht. NV sagt selber das erst mit Maxwell 2013/2014 die neue Architektur raus kommt die dann wieder richtige Sprünge zeigt. Dh. genau die 4 Jahre die ich mit meiner GTX 580 einplane. Geht hoffentlich wieder auf, das "Architektur Hüpfen": http://www.pcgameshardware.de/aid,77...fikkarte/News/

Und wenn ihr mich fragt sind nicht Shrinks das erstrebenswerte Ziel beim Grafikkarten kauf, sondern neue Architekturen die die Leistung ordentlich hochschrauben und zig neue Features einführen.

Zu Absatz a) In 28nm wird das Leistungsvolumen einer GTX 580 3GB sicherlich mit unter 200 Watt darstellbar sein. Das lehrt uns einfach die Erfahrung aus vergangenen shrink's in Verbindung mit der durchschnittlichen Architektur Verbesserung.

In spätestens 3 Jahren kommt der 20nm shrink (oder sowas in der Art) und dann ist die Leistung einer GTX 580 3GB sicherlich mit gut 100 Watt zu bewerkstelligen. In diesem Moment müsste man mir zusätzlich Geld Zahlen das ich so eine Dauerheizung ohne Ausstellknopf nutze !

Schnittstellenverbesserungen sind wohl in der Tat nicht zu erwarten, die nächsten Konsolen werden wohl auf DX11 setzen.

Zu Absatz b) Shrinks sind eine verlässliche Performance Steigerung, wenn's über die Architektur was dazu gibt ist's schön, aber doch eher das Sahnehäubchen.

Das stimmt natürlich. Wenn die Karten eh schon Mondpreise haben, machen ein paar Taler mehr für den Speicher den Kohl auch nicht mehr fett.

Wenn man den Kühler mal mit 50€ Wert berechnet dann kommen wir für 1,5 GB auf einen Preis von ca. 100€.

Beim dreistelligen Bereich fange ich zumindest noch einmal das Rechnen an ;)

Zumal unter Dual SLI bei mir nichts mehr läuft. Aber das ist ne andere Geschichte :)
 
Ne lieber nicht. Zu ineffizient. Lieber 256bit und GDDR6 oder massiv hoch gezüchteter GDDR5.

Und was ist daran zu ineffizient? Erschließt sich mir nicht. Wenn es um die reine SpeicherBandbreite geht, kann man entweder über den Speichertakt oder aber über die SI-Größe gehen, das Ergebnis ist das selbe, egal, o nun GDDR5 oder GDDR6.

Einzig die Produktionskosten unterscheiden sich, aber die Leistung bliebe, egal, wie du sie realisierst, gleich.


https://www.computerbase.de/2010-11/beratung-geforce-gtx-460/5/#abschnitt_sonstige_messungen

Also 22 Watt an Mehrverbrauch bei der 2GB-Version der GTX460 schauen für mich verdächtig zweistellig aus. :D
 
Ein großes SI, sollte aber recht teuer werden.
 
Sag ich ja, Kostenunterschied wäre da, aber die Effizienz sollte die gleiche sein. Mir ging es nur um das, dass das Ganze aus ökonomischer Sicht kaum Sinn macht, habe ich deshalb ausgeblendet.
 
In diesem Moment müsste man mir zusätzlich Geld Zahlen das ich so eine Dauerheizung ohne Ausstellknopf nutze !
Effizienz ist in der Tat ein Nachteil an der Strategie, wird aber komplett aufgewogen durch den Fakt das ich heute bereits Settings fahren kann die die Mittelklasse Fraktion erst in 1-2 Jahren so zu Gesicht bekommt. Und bei mir lohnt es sich grad mal wieder richtig zuzuschlagen um ordentlich aufdrehen zu können. 2 weitere Jahre werde ich Empire definitiv nicht links liegen lassen nur weil die FPS nicht stimmen.

Schnittstellenverbesserungen sind wohl in der Tat nicht zu erwarten, die nächsten Konsolen werden wohl auf DX11 setzen.
2014 zu Maxwell Zeiten und der nächsten Architektur erwarte ich schon DX 12, dazwischen bereits PCIe 3.0. Um sowas muss ich mir auch keine Gedanken machen, ich hab PCIe 2.0 mit meiner GTX 580 und da ich nicht aufrüsten muss ist zwar ein PCIe 3.0 Sockel geplant bei nächsten CPU Upgrade, aber unbedingt notwendig ist der nicht. Wieder ein Vorteil mehr. Ich bin einfach komplett risikofrei was die Entwicklung der nächsten Grafikkarten betrifft. Das allein ist mir viel wert.

Zu Absatz b) Shrinks sind eine verlässliche Performance Steigerung,
Sicher? HD 2900->3870
GF8 -> GF9
GTX 280 -> 285

Mit viel Glück gibts ordentlich Performance, ist aber eher die Ausnahme. Ohne Änderungen der Architektur kann das eben nur über den Takt/Kerne erfolgen. Und den kann man mit den alten Modellen auch einfach nur OC fast erreichen.

Wenn man den Kühler mal mit 50€ Wert berechnet
Knapp kalkuliert. 50€ kostet der mindestens wenn man den einzeln kaufen würde.

Und was ist daran zu ineffizient?
Das SI vergrößert immer auch den Chip mit, also mehr DIE Fläche, was wiederum zu höheren Produktionskosten und noch schlimmer mehr Leckstörmen führt. Fermi besonders schlimm, mit der Temp kann man ja da wahnwitzige Einsparungen in Sachen Stromverbrauch erreichen. Das Problem hätte man nicht so extrem mit 256bit -> 460/560
Und zu guter letzt braucht man bei einem 512SI auch noch mehr Layer im PCB, schon wieder höhere Produktionskosten eventuell mehr Stromverbrauch.

Also mit ineffizient meine ich die Performance per Watt. Ein großes SI kann man nur sehr schwer effizient umsetzten.

Nachteile beim GDDR Ram sind der Speed und die Datendichte. Die fahren quasi seit GDDR5 am Limit was die Hersteller raushauen können. Quasi das beste ist gerade gut genug bzw. schnell genug um ein 256SI auszugleichen. Klappt aber ganz gut bis jetzt. Bis auf HD 4000 die dadurch keinen Idle Mode hatte.

Also 22 Watt an Mehrverbrauch bei der 2GB-Version der GTX460 schauen für mich verdächtig zweistellig aus.
Kein Ram braucht so viel Spannung das da gleich 22Watt draus werden. Da wurde von Gainward irgend was anderes "gepimped"(VRMs, GPU). Am Vram liegt das sicher nicht. Die neuen 4GB DDR3 Riegel verbrauchen ja auch keinen Watt mehr, im Gegenteil man kann immer weniger Volt fahren und Ram wird immer sparsamer über Zeit. Vor allem Datendichte braucht nicht mehr Volt, Takt schon. Die Bedenken das mit 12GB Vram Grafikkarten dann der Verbrauch explodiert sind also unbegründet. GDDR6 müsste weniger brauchen, oder auch mehr, da können wir dann wieder anfangen zu diskutieren.
 
Zuletzt bearbeitet:
Kommt unter anderem darauf an, in welcher Strukturgröße er gefertigt wird, würde ich jetzt einmal sagen.^^

Wenn das "ineffizient" auf die Kosten bezogen ist, so stimme ich dir zu, dem ist, im Gegensatz zur reinen Leistung, so.
 
Ineffizient ist vor allem auf Performance per Watt bezogen.

Und die Strukturgröße spielt eigentlich keine Rolle, weil man nicht zaubern kann und einfach die nächst kleineren Shrink wählen kann mit einem dicken Chip + 512er SI. Im Gegenteil einen kleinen Chip kann man viel schneller/einfacher shrinken. Das trägt auch dazu bei das ein kleineres SI und Chip effizienter arbeiten könne. Recht eindrucksvoll von ATI/AMD seit HD 5 vorgeführt.
 
Wir sind hier mittlerweile ziemlich off-topic. ;)

Zur Not kann man sowas auch im Spekulationsthread weiter besprechen.
 
Kasmopaya schrieb:
Und genau sowas ist die GTX 580 3GB. Bin ich mir ganz sicher. Fazit gibts in 4 Jahren.

Mal ehrlich, da kaufe ich mir für die 600€ lieber alle 2 Jahre für 200€ eine neue Karte, da habe ich mehr davon und kann die alte immer noch für 50-100€ verkaufen.



Warum wird eigentlich seitens ATI nicht mal was daran gemacht, dass man den VRAM ablesen kann unter W7?
 
Fehlender Druck von der Kundenseite her wahrscheinlich.
 
Wenn HisN wirklich sein Panel noch erweitert, kommt er garnicht drum rum ;)

Oder man verbringt halt ein paar AA lose Jahre :)
 
@Kasmopaya
Ich hatte zwei Tage lang 2 Stück. Aber ich bin prompt in die üblichen SLI-Probleme gerannt und hab sie gleich weiter verkauft^^. Und ganz sicher werde ich mir kein CF mehr anschaffen. Produziert bei meiner Software nur Bildfehler. http://www.youtube.com/my_videos?feature=mhum
 
So, wie Hisn seine 480 übertaktet hat, hält diese bestimmt mit der 580 mit. Da müsste die 580 bis zur Gesichtslähmung getaktet werden, plus Kastrationsscheiße raus. Oder gleich besser die 680 mit mindestens 2GB reinhauen.
 
30" saugt hald so extrem viel Rohleistung, eigentlich braucht man dafür wirklich SLI. Werd mit meinem HD Monitor sogar noch mehr Vram Settings schalten können als ein 30" User, weil einfach mehr Rohleistung übrig ist für flüssigen Spielfluss. Von dem her brauch ich den Vram dringender als HisN, er braucht am besten eine Version mit doppelter Rohleistung und 3GB Vram... :rolleyes: ergo GTX 680.
 
Jupp, werd die 580 auslassen und auf die nächste Generation warten. Wird bestimmt kein VRAM-Rückschritt sein :-)
 
Zurück
Oben