News Grafikspeicher: GDDR5X jetzt mit 16 Gbps, GDDR6 Anfang 2018 serienreif

Volker

Ost 1
Teammitglied
Registriert
Juni 2001
Beiträge
18.361
Micron treibt GDDR5 weiter ans Limit: Eine Forschungsgruppe des Konzerns hat in München die stabile Marke von 16 Gbps erreicht, deren Serieneinsatz nun im Fokus stehe. Nach der Einführung von erst 10 Gbps im letzten Jahr hat der eigentlich alte Standard noch einmal deutlich Fahrt aufgenommen.

Zur News: Grafikspeicher: GDDR5X jetzt mit 16 Gbps, GDDR6 Anfang 2018 serienreif
 
Klasse.

Hätt ich gerne - aber ich brauchs adhock - so wie´s aussieht verreckt mein MB - zumindest mal der Anschluss für den Sound - gibt teilweise nur noch auf einer Box Laut.

Bin mal auf die Leistungswerte gespannt.
 
nächstes Jahr kommt Ryzen 2 mit einer GTX 2080ti rein. Nach 10 Jahren mid end PC will ich endlich ne stufe höher :D
 
@El_Chapo
Bringt dir alles nix wenn du es nicht effektiv softwareseitig nutzen kannst. Das Spiel ständig neue Features rauszubringen die man im Endeffekt nicht so richtig ausreizen kann, kenne ich jedenfalls schon lange. Oder aber im gleichen Zeitraum steigt der Bedarf bzw. die Anforderungen in gleichem Maße, dass man trotz neuer Software, auf dem gleichen Level ist weil die Monitore genaus so steigen. Sieht man ja daran das man für höher auflösende Monitore dennoch mehr als eine Karte braucht, wenn es maximale Details sein sollen.
 
Was mir nicht ganz einleuchtet ist, warum man an GDDRX5 mit 16Gb/s forscht, der vermutlich erst zum Jahresende serienreif wird, wenn zeitgleich GDDR6 mit den selben Specs produziert werden soll. Zumal, welche Grafikkarten will man damit bestücken? Ich meine, für Volta (GV102-104) tippt man ja bereits auf GDDR6, wo kommt dann GDDRX5 14GBps oder gar 16GBps zum Einsatz? Vega11? Oder doch GV104 und GV102 bekommt später GDDR6?

Ausm Bauch heraus würde ich vermuten dass GDDRX5 16Gbps teurer wird als GDDR6, da das eine exklusiv ist, das andere "offen".

Ich hab mich da in die Materie von GDDR6 nocht nicht wirklich eingelesen, aber wenn wie es derzeit ist, sowieso ein Memory Controller mehrere Speicherchips anspricht, wo liegt dann der Vorteil wenn man nun die Speicher mit Dual Channel anbindet?

Und bzgl.:
Volker schrieb:
Dafür wird unter anderem ein neues Package benötigt: Nur 180 Kontaktpunkte hat dieses in Zukunft auf etwas größerer Fläche von 14 × 12 mm. Bislang werden 190 Kontakte auf 14 × 10 mm genutzt. Hier geht Micron erstmals entgegen den Trend zur permanenten Verkleinerung – Interferenzen bei hohen Datenraten wird nun mit einem 0,75 mm Pitch statt zuvor nur 0,65 mm Pitch begegnet.

Gibt sowas nicht der JEDEC Standard vor? Zumal, wenn hier ein Hersteller anfängt andere Kontaktabstände zu nehmen, wird das für die AIB doch total dämlich zum Layout designen?
 
Mich wundert, dass GPU Computing beim PC so gar keine Rolle spielt.

Supercomputing oder KI sind ja mittlerweile gar nicht mehr denkbar ohne GPUs aber warum taugen die superschnellen Grafikkarten nur für das Aufhübschen von Spielen?
 
Wattwanderer schrieb:
Mich wundert, dass GPU Computing beim PC so gar keine Rolle spielt.

Supercomputing oder KI sind ja mittlerweile gar nicht mehr denkbar ohne GPUs aber warum taugen die superschnellen Grafikkarten nur für das Aufhübschen von Spielen?
Vermutlich, weil sich typische private Anwendungsfälle kaum für massive parallelisierung eignen?
Soweit ich weiß gibts im Videoschnitt und der Bildbearbeitung Filter und Funktionen, die die GPU nutzen. Mal ehrlich: Für Word, Excel, PowerPoint und Browser braucht kein Mensch solch eine parallele Rechenleistung.
 
Wattwanderer schrieb:
Mich wundert, dass GPU Computing beim PC so gar keine Rolle spielt.

Supercomputing oder KI sind ja mittlerweile gar nicht mehr denkbar ohne GPUs aber warum taugen die superschnellen Grafikkarten nur für das Aufhübschen von Spielen?

Tesla P100? Tesla V100? Radeon Instinct MI25? Für GPU-Computing wird doch genauso entwickelt.
 
Na, das ist doch mal ein ordentlicher Sprung bei GDDR5X auf 16 Gbps. Ich bin gespannt, welche Grafikkarten noch darauf setzen werden - wird wohl vornehmlich bei Nvidia passieren.

Wattwanderer schrieb:
Mich wundert, dass GPU Computing beim PC so gar keine Rolle spielt.

GPU Computing im Sinne von Deep Learning kannst Du doch bereits haben, z. B. ein Gesichtserkennungsplugin für Irfanview. Das Plugin nutzt die GPU.
 
Bis mein 980ti hopps geht, sind hoffentlich Produkte mit HBM sowohl von Rot als auch von Grün verfügbar :)

greetz
hroessler
 
Ist eigentlich schon bekannt was GDDR6 groß anders macht als GDDR5?

Und wie die Performance / Watt / Preis im Vergleich zu HBM2 liegen wird?
 
@hroessler & @Rickmer: Es muss gar nicht unbedingt HBM-Speicher sein für Spielergrafikkarten. Jüngst hat selbst Nvidia gesagt, dass HBM auf der Karte mit dem GP100 Chip drauf ist, weil hier im GPU-Computing und DeepLearning-Bereich vor allem geringe Latenzen des Speichers benötigt werden. Generell sind die Vorteile von HBM: 1) Geringerer Platzbedarf, 2) Weniger Energieverbrauch, 3) Geringere Latenzen, 4) Längere Refresh-Zeiten (alles im Vergleich zum bisherigen GDDR-Speicher).
 
Interessant, dass sich GDDR5 (2008!) ewig lange fast nicht merkbare Verbesserungen gemacht hat, aber kaum kam HBM auf den Tisch, gibt es auch hier endlich mal wieder interessanteren Fortschritt.
 
Großartig das es spürbar voran geht, die GTX2080 wird sicher darauf setzen, das wird sich Nvidia nicht nehmen lassen :)
Lieber GDDR5X mit 16Bbps als HBM der nur wenig verfügbar sein wird, obwohl Samsung hier massiv ausbauen will Anfang des nächsten Jahres sodass die Verfügbarkeit steigen wird.
 
Ap2000 schrieb:
Interessant, dass sich GDDR5 (2008!) ewig lange fast nicht merkbare Verbesserungen gemacht hat, aber kaum kam HBM auf den Tisch, gibt es auch hier endlich mal wieder interessanteren Fortschritt.
DDR4 geht auch erst seit letztem Jahr richtig los, da verwundert es mit GDDR6 nicht ganz so, aber ja 2 Jahre früher hätte man wohl eher gerechnet.

Man muss aber sagen, GDDR5 hat eine enorme Entwicklung gehabt, wenn man sich die damaligen Taktraten ansieht.:)
 
r4yn3 schrieb:
Was mir nicht ganz einleuchtet ist, warum man an GDDRX5 mit 16Gb/s forscht, der vermutlich erst zum Jahresende serienreif wird, wenn zeitgleich GDDR6 mit den selben Specs produziert werden soll.

Weil bei dem einen = GDDR5X man experimentieren kann was wie in der Spezifizierung noch optimiert/verbesssert werden kann. Während bei dem anderen = GDDR6 nach einer festen Spezifizierung nur noch produziert werden kann! Dadurch das diese Spezifizierung neu ist dauert es aber bis mann die Produktion soweit optimiert hat das sie reibungslos abläuft. Reibungslos bedeutet bei Elektronischen Komponenten das genug Stückzahlen produziert werden ohne das man zuviel wegen Fehlproduktion wieder einstampfen muss.

Deswegen heißt es in der News auch das Micron sich durch die Erfahrungen die man bei der Verbesserung von GDDR5X sammeln konnte gleichzeitig bei der Produktion von GDDR6 nutzen kann. Denn für jede Verbesserung die GDDR5X erhalten hat mussten ja auch jeweils einige Testspeicherchips produziert werden. Und eben die Fehler die dabei aufgetreten sind kann man nun vermeiden. Es ist wie bei allem im Leben das mann macht. Gesammelte Erfahrung = "das Wissen in der Praxis effektiv umzusetzen" ist durch nichts zu ersetzen!

r4yn3 schrieb:
Gibt sowas nicht der JEDEC Standard vor?
Der Standard ist nur dafür da um etwas "zwischen" den Herstellern zu Standardisieren. Das bedeutet aber nicht das es etwas außerhalb des Standards gibt oder geben kann. Im Gegenteil alles das entwickelt wird ist zuerst neu und wird von nur einem verwendet. Aber sobald es sich bewährt hat wird es eben als Standard spezifiziert an den sich dann alle orientieren.
 
Zuletzt bearbeitet:
Dann kann der nächste Refresh mit ein bisschen schnellerem RAM ja kommen. :D
 
Reicht doch sicher fuer ne kleine Titan Volta als Snack für Zwischendurch
 
Zurück
Oben