News Grafikspeicher: Auch Samsung wird GDDR6 mit 16 Gbit/s zur CES 2018 zeigen

@Limit: Darum habe ich dgschrei ihm seine Aussage, die Teslas wären keine 'Effizienzwunder' ja auch angezweifelt.

Habe nur auf die Schnelle keine Benchmarks gefunden, die die These untermauern würden.
 
So ne Titan Volta mit 24GB und 768GB/s wär schon was feines. Erstaunlich wie schnell man doch den Zukunftsträger HBM wieder eingeholt/überholt hat.

Den Vorteil eines kleineren PCB wie bei Fiji sehe ich bei Vega hingegen nirgends.
 
@r4yn3:

Wo braucht man so viel VRAM?
Wo reichen heute zB 8-11GB nicht aus?

Rein aus Interesse - In allen meinen Games Ultra @ 1440p zB werden meist ~4gb belegt.
Gutaussehende Games wie BF1 schlucken da kaum etwas.
 
Limit schrieb:
Und auch AMD dürfte im Jahr 2018 auf GDDR6 setzen. In Frage käme als erstes der bisher nicht offiziell angekündigte Vega 11, der als Nachfolger von Polaris 10 gehandelt wird.

Fragt sich nur wann.

Wird nicht AMD für Q2 und Nvidia für Q3/Q4 mit neuen GPUs gehandelt?

r4yn3 schrieb:
So ne Titan Volta mit 24GB und 768GB/s wär schon was feines. Erstaunlich wie schnell man doch den Zukunftsträger HBM wieder eingeholt/überholt hat.

Das liegt v.a. daran, dass HBM2 überhaupt nicht die Prognosen erfüllen konnte.
 
Zuletzt bearbeitet:
Caramelito schrieb:
@r4yn3:

Wo braucht man so viel VRAM?
Wo reichen heute zB 8-11GB nicht aus?

Rein aus Interesse - In allen meinen Games Ultra @ 1440p zB werden meist ~4gb belegt.
Gutaussehende Games wie BF1 schlucken da kaum etwas.
Ich glaub auch nicht das die Steigerung der Vram Menge weiterhin so inflationär voranschreitet. Von 1 auf 2 oder von 2 auf 4GB stellten zwar auch eine Verdopplung dar, allerdings war die absolute Menge der Steigerung noch recht gering, aber bei aktuellen Preisen werden weitere Verdoppelungen massive Preisauswüchse bedingen die wohl so nicht tragbar sind was schon die Titan Reihe zeigt wo trotz Generationswechsel kein Zuwachs an Vram stattfand
. Noch dazu ist klar das die Ansprüche der Software steigen und auch hier war die Logik von 1 auf 2Gb zu steigern sinnvoll, da eben der Zuwachs prozentual sehr hoch gesamtbetrachtet jedoch recht niedrig war, aber von 8 auf 16 oder 12 auf 24gb zuzulegen, bedeutet schon extrem hohe Zuwächse, wo man sich fragen muß, für welche Art Texturen das dienen soll
 
Zuletzt bearbeitet:
Mir total egal was für ein VRAM Typ verbaut wird, aber ich votiere dafür das in dem Speicher ein Anti-Mining-Feature integriert ist.
 
@Andreegee: Jap, das denke ich eben auch.

Auch von 4 auf 8gb fand eine Verdopplung statt, zB GTX 980 zu 1080; aber unbedingt notwendig, bis auf in unoptimierten Spielen, war das nicht.

Da stelle ich mir die Frage, ob dann 16gb VRAM Sinn machen, oder einfach nur den Preis unnötig in die Höhe treiben.

In den letzten Game-Tests hier auf CB, haben eigentlich immer 4gb VRAM gereicht.

AC: Origins: 4k - 4gb
SW: BF2: 4k - 4gb ausreichend - mehr ist gut laut pcgh.
Forza 7: 4k - 6gb

Da ist eine 1080ti mehr als gerüstet für die kommenden Games.
Glaube kaum, dass man nächstes Jahr auf einmal die doppelte Menge braucht bzw. sogar mehr.

Und das oben sind alles "4k-Werte".
Der Großteil spielt immer noch auf FHD bzw. dann eine Stufe höher auf WQHD.
Wer dann 4k nativ + alle möglichen Details anmacht braucht auch keine 16gb VRAM ^^
 
Die Xbox One X hat 9GB GDDR5 RAM für die GPU. Hier werden sich die meisten Spieleschmieden orientieren, sofern sie den überhaupt auslasten können.
 
Naja die Xbox One (S) hatte auch mehr als eine GTX 980 z.B. und immer noch @4k, siehe oben, neue Games mit 4-6gb VRAM-Nutzen..?

Ich will da nichts "schlechtreden", werde wahrscheinlich auf Volta oder den Vega-Nachfolger umsteigen, aber stelle mir halt dennoch die Frage.

Man baut ja auch nicht in jeden Gaming-Rechner 64GB Ram ein, nur weils geht ^^
 
@nebula

Dir one x hat 12gb davon 9 für gpu
 
Caramelito schrieb:
@r4yn3:

Wo braucht man so viel VRAM?
Wo reichen heute zB 8-11GB nicht aus?
Ganz ehrlich? Nirgends. Dem großteil der Spiele reichen 8GB. Ein paar haben Ausreißer auf vllt 9GB, und da kann man aber nicht nachweisen ob man merkliche Framedrops hätte. (Gut, HisN hatte da mal so einen RotTR Screenshot wo er mal bei 0 FPS stand weil der Vram voll war)

Ein paar Exoten gibt es, wie ein CoD, welches einfach unverschämt viel Vram belegt. Aber auch hier sind die Spiele meist auf 11-12GB begrenzt, eben weil vermutlich eine Titan X das Maß der Dinge darstellt. Quake Champions kam in der Alpha (oder Beta) auf 13-14GB Vram, aktuell hat sich aber auch hier der Verbrauch mehr als halbiert. Bei der Star Wars BF2 Beta konnte ich wohl durch einen Bug auf 20GB Vram kommen.

Der Vram Verbrauch wird auch meiner Meinung nach in Zukunft stagnieren. Bei Spielen wie Mordors Schatten oder Fallout 4 sieht man ja bereits, dass die Qualität der Texturen nur minimal zunimmt, obwohl man hier rießige HD Texturen anbietet. Ab einen gewissen Punkt sind die Texturen wohl auseichend scharf, für die durchschnittliche Pixeldichte der Monitore.
 
Steini1990 schrieb:
Bin gespannt ob das HBM2 irrelevant macht. Ich denke mal das wird eher der Massenspeicher für den Großteil der Karten in Zukunft werden.

Nein, weil Bandbreite nur ein "Nebeneffekt" von HBM ist.
HBM auf heutigen Karten spart je nach Speichermenge locker 40-60W Strom, die 16GB Variante der Vega (wird im prof Segment und in iMacPros angeboten) dürfte im Vergleich zu einer "herkömmlichen" Karte mit GDDR5X eher 100W sparen.

Der Leistungsvorteil von HBM ist auch nicht die Bandbreite, sonder die Latenz. Und DAS ist ein riesiges Thema.
Z-NAND, 3DxPoint und Co zeigen dass Latenz derzeit ein enormer Flaschenhals sein kann.

Dass das auch für GPUs gilt sieht man beim mining: die 1070 ist besser im mining als die 1080 weil GDDR5X zu hohe Latenzen hat.
AMDs Fiji-GPUs sind deswegen beim mining so gut und effizient, weil HBM niedrige Latenzen hat.

Und wenn die DRAM-Preise weiter so steigen, wird der Kostennachteil bei HBM kaum noch relevant sein.
 
v_ossi schrieb:
In erster Linie würde ich hier darauf 'vertrauen', dass eine Heerschar von Ingenieuren bei NVidia und AMD/RTG mit Zugang zu den genauen Daten von den Speicherherstellern und den Simulationstools für die eigenen GPUs keinen so gravierenden Fehler macht und 'den falschen' Speicher verbaut.

Und vlt. sind die Teslas ja ein 'Wunderwerk an Effizienz'. Gibt es Benchmarks, in denen die HBM Teslas gegen eine Consumer 1080Ti antreten? (Keine Spiele Benchmarks, darauf sind sie schließlich nicht ausgelegt)
Vlt. haben die Teslas ja auf der GPU Seite mehr Spielraum, weil der Speicher weniger Strom verbraucht? Also vlt. kein 80/20 Verhältnis beim Verbrauch von GPU zu Speicher, sonder 90/10.

ne benchmark die nich auf games abzielt sondern auf gpu rendering.
wies da mitm Strom aussieht kann ich dir leider nicht sagen

https://render.otoy.com/octanebench/results.php?v=3.06.2&sort_by=avg&filter=&singleGPU=1
 
r4yn3 schrieb:
für die durchschnittliche Pixeldichte der Monitore.

Welche in naher Zukunft steigen wird. 4k/5k ist erst der Anfang. Deutlich höhere Pixeldichten sind technisch verfügbar.

Zudem ist Graphikspeicher für deutlich mehr zu gebrauchen als nur framebuffer + Texturen. Derzeit lagern die GPUs nur etliches davon in den RAM aus respektive laden es nicht aus dem RAM um es lokal vorzuhalten. Professionelle Graphikkarten haben gern auch mal 24GB oder direkt eine SSD neben der GPU um nicht durch PCIe gebremst zu werden.
Es gibt so vieles was die GPU noch effizienter berechnen kann als die CPU und dieser Wandel ist derzeit im Ablauf.

Ja, die meisten Spieler werden, gerade wenn sie nur in FHD spielen, mit 8GB die nächsten Jahre glücklich. Aber zu glauben dass irgendwann ein finaler Punkt erreicht ist wäre utopisch. Das Vorhandensein von Ressourcen löst die Entwicklung von Software aus um diese zu nutzen, sobald 8GB in der breiten Masse am Markt vorhanden sind und die Entwickler nicht mehr daran gebunden sind für Systeme mit deutlich weniger Speicher zu entwickeln, wird das auch so kommen. Der nächste große Sprung dürfte in etwa drei Jahren erfolgen wenn die dann aktuellen Konsolen diese Limitierung nicht mehr aufweisen.
Ergänzung ()

Ticketz schrieb:
@nebula

Dir one x hat 12gb davon 9 für gpu

Nein, die Zuweisung kann vom Spiel frei festgelegt werden. Von den 12GB sind drei allerdings für das OS reserviert damit die Services im Hintergrund wie z.B. der social network Kram und übliche OS Sachen flüssig laufen. Die restlichen 9GB kann das Spiel frei verwalten.
 
Achso ich dachte es geht um Speicher der nächstes Jahr kommt, für Grafikkarten die nächstes Jahr erscheinen. Nicht um was wäre wenn in 5+ Jahren. Von einem finalen Punkt der Vram Auslastung war sowieso nie die Rede.

Was HBM an Verbrauch einspart interessiert mich am Ende wenig, wenn man einer Pascal Karte P/W technisch nicht ansatzweise nahe kommt, und zudem meine FE Air maßgeblich von der HBM Temperaturobergrenze limitiert ist. @Stock kotzt sie bei Volllast immer an 95°. Auch kann ich mir von super duper Latenzen nichts kaufen.
 
Caramelito schrieb:
In den letzten Game-Tests hier auf CB, haben eigentlich immer 4gb VRAM gereicht.

Die entsprechenden Spiele gabs schon früher... Doom und Deus Ex MD brauchen mehr als 4GB für Max Detail und das unabhängig von der Auflösung. Aber warscheinlich kommt jetzt wider der "Killer-Joker: schlechte Optimierung"... jo, genau deshlab sehen die Texturen von Deus Ex auch deutlich besser als der Pixelbrei bei Witcher 3 aus ;-) klar, die Botanik beim Witcher ist top (wegen der Poligondetails), aber das passt nicht zum Setting vom Deus Ex.
 
Zurück
Oben