News GDDR6: Micron startet Massenproduktion mit 14 Gb/s

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.986
Micron hat den Start der Massenfertigung von GDDR6-Speicherchips mit einer Kapazität von 8 Gigabit (1 GB) bekannt gegeben. Im Produktkatalog sind Varianten mit Durchsatzraten von 10 bis 14 Gb/s für die Bereiche Graphics/AI, Network und Automotive aufgelistet. Die Durchsatzrate steigt gegenüber GDDR5X um bis zu 17 Prozent.

Zur News: GDDR6: Micron startet Massenproduktion mit 14 Gb/s
 
Heißt, man kann schon ungefähr erahnen was der Nachfolger einer 1080 ti an Speicherbandbreite mitbringen wird, sofern Nvidia wie bei der 1080 ti auf ein 352 bit Speicherinterface setzt.
 
Bei GDDR5X-Speicher war Micron noch alleiniger Anbieter. Jetzt beim Nachfolger fällt man plötzlich weit hinter die Konkurrenz zurück - das hinterlässt Fragezeichen.
 
Irrelevant für Consumer grafikkarten^^ Es kommt drauf an, was die Grafikkarte an Leistung bringt, und was sie an strom verbraucht als ganzes (nicht NUR der speicher, auch mit chip und allem).

HBM (2) wird ja nachgesagt, dass es sehr stromeffizient sein soll. Aber wayne?! Sehe Vega 64. Ballert knapp 50w mehr weg als ne 1080 ti / Titan Xp, bietet aber nur die Leistung einer GTX 1080 (180w), alle mit GDDR5X Speicher, bzw 1080 ti / titan Xp mit einer schnellen Anbindung.

Da also kein wirklicher Nachteil erkennbar für den Kunden. Wenn es dafür besser verfügbar ist, günstiger, mit hohem Takt + Anbindung mit HBM 2 komplett mithalten kann was Bandbreite angeht, für Gamer die sinnvollere Wahl.
 
  • Gefällt mir
Reaktionen: Daniel D., Pure Existenz und LasseSamenström
-sovjet- schrieb:
Bei GDDR5X-Speicher war Micron noch alleiniger Anbieter. Jetzt beim Nachfolger fällt man plötzlich weit hinter die Konkurrenz zurück - das hinterlässt Fragezeichen.
Stimmt und Nvidia schließt Verträge mit skHynix was die Lieferung von GDDR6 angeht, vermutlich für Turing.
 
@Darkseth88
Da ist so einiges falsch an deinem Beitrag.

Bereits die GTX 1070/80 und alles was darüber kommt profitiert durchaus von Speicherübertaktung woraus man schließen kann, dass da nicht die Kotzgrenze erreicht ist aber das da definitiv mehr ginge. Ergo sind die 256bit @8/9GHz Anbindungen ab diesem Bereich schon grenzwertig. Wenn man die Anbindung nicht breiter (ergo teurer) machen will gibt es nur diesen einen Weg.

Die Vega64 bringt enorm viel im Anwendungsbereich und ist im Gamingbereich ganz passabel. In Anbetracht der Anwendungsleistung verbraucht sie keinesfalls zuviel, erst Recht nicht mit Optimierung, und steckt auch mal eine 1080ti locker in die Tasche. Im Gamingbereich sieht sie hingegen fast nie Land gegen eine 1080ti. Kommt also ganz auf das Verwendungsgebiet an. Mir ging es einfach nur um dein Statement, dass sie zuviel verbraucht und nicht welche nun besser sei.

Anonsten ist es natürlich auch wichtig was die Speicherchips verbrauchen, sie machen durchaus mal 20-25% des Verbrauchs aus wenn die Konstellation passt. Gannz unerheblich ist es also nicht.

@Topic: Das freut mich sehr, da sollte mal langsam was vorangehen um die Entwicklung in vielen Bereichen zu pushen. Ich hoffe aber, dass die Miner nicht alle aufspringen werden weil 5X doch zu große Latenzen hatte als das sie sich darauf hätten festsetzen können. Das wird dann hoffentlich nicht bei 6 nachgeholt.
 
  • Gefällt mir
Reaktionen: Obvision und gesperrter_User
konkretor schrieb:
384 großes Speicherinterface ist ein Thema des Stromverbrauchs
Für Cuda erscheint ein größeres Interface günstig.

Beyazid schrieb:
Anonsten ist es natürlich auch wichtig was die Speicherchips verbrauchen, sie machen durchaus mal 20-25% des Verbrauchs aus wenn die Konstellation passt. Gannz unerheblich ist es also nicht.
Die Anbindung kostet auch (32bit Datenleitungen/Platinenlayout).
 
Zuletzt bearbeitet von einem Moderator:
Beyazid schrieb:
@Darkseth88
Da ist so einiges falsch an deinem Beitrag.

Bereits die GTX 1070/80 und alles was darüber kommt profitiert durchaus von Speicherübertaktung woraus man schließen kann, dass da nicht die Kotzgrenze erreicht ist aber das da definitiv mehr ginge. Ergo sind die 256bit @8/9GHz Anbindungen ab diesem Bereich schon grenzwertig. Wenn man die Anbindung nicht breiter (ergo teurer) machen will gibt es nur diesen einen Weg.
Und welcher teil war in meinem Beitrag jetzt falsch, dass du diesen Beitrag schreibst? Das, was du hier schreibst, widerlegt ja nichts von mir, da ich rein gar nichts dagegen gesagt habe?
Habe nichts von einer Kotzgrenze erwähnt, oder was wo wie grenzwertig ist, und ich hab nie erwähnt, dass mehr Speicherbandbreite nichts bringt?!
Daher keine Ahnung worauf du dich da beziehen willst.

Ich habe einfach nur gesagt, dass obwohl HBM2 ja so "effizient" und "stromsparend" sein soll verglichen zu GDDR5(X), die nvidia Karten trotzdem DEUTLICH weniger Strom verbrauchen bei gleicher Leistung, bzw ein nahezu 80-100% besseres Leistungs / Watt verhältnis haben als gesamtprodukt.

Ergo, dass GDDR6 genutzt wird (was ja "nachteile im stromverbrauch" haben soll, bzw hat), hat für den Kunden ja wenig relevant, wenn die karte trotzdem deutlich stromsparender/effizienter ist, als ne Vega mit HBM2.

Beyazid schrieb:
Die Vega64 bringt enorm viel im Anwendungsbereich und ist im Gamingbereich ganz passabel. In Anbetracht der Anwendungsleistung verbraucht sie keinesfalls zuviel, erst Recht nicht mit Optimierung, und steckt auch mal eine 1080ti locker in die Tasche. Im Gamingbereich sieht sie hingegen fast nie Land gegen eine 1080ti. Kommt also ganz auf das Verwendungsgebiet an. Mir ging es einfach nur um dein Statement, dass sie zuviel verbraucht und nicht welche nun besser sei.
Klar findet man diese nischen-anwendungen wo vega perfekt drauf zugeschnitten ist, und die Leistung auch bringt.
Das hat aber keine Relevanz für den Consumer^^ Nichtmal ein Bruchteiles eines Prozents aller typischen "Gamer" (von Casual bis hardcore) wird damit solch spezielle Anwendungen nutzen. Und wer das hauptsächlich macht, kauft sich keine Gamer-vega.
Ergo, es geht hier um Gaming, bzw hab ich nur von Gaming gesprochen (auch weil die mit Abstand meisten, die hier mitlesen, eben Gamer sind), und da bringt der ach so effiziente HBM2 nichts - bzw will ich nicht wissen, wie viel Watt die mit GDDR5X schlucken würde ^^

Beyazid schrieb:
Anonsten ist es natürlich auch wichtig was die Speicherchips verbrauchen, sie machen durchaus mal 20-25% des Verbrauchs aus wenn die Konstellation passt. Gannz unerheblich ist es also nicht.
Sag ich auch nix dagegen. Aber wie gesagt, Pascal hat eine um 80% bessere Leistung pro Watt, obwohl es 15 Monate früher released wurde, trotz GDDR5X.
Mir als Gamer ist es daher völlig schnuppe, ob da GDDR6 drauf kommt, oder HBM2. Wenn Leistung, Stromverbrauch (gesamte karte), Speicherbandbreite auf entsprechendem Niveau sind, alles in Ordnung. Erst Recht, wenn sich dadurch eine nennenswerte Preisersparnis gibt (Grafikkarten sind aktuell eh schon mehr als teuer genug) ^^
Ob ich die 500 gb/s mit GDDR6 hab, oder HBM2 macht für die Praxis keinen Unterschied.
z.B. Nvidia eben. Mag sein, dass Pascal mit HBM2 eingie Watt weniger verbrauchen würde, als jetzt mit GDDR5X. Aber der Stromverbrauch ist jetzt schon DEUTLICh geringer als bei der konkurrenz, bzw aktuell das beste Leistungs/Watt verhältnis auf dem Markt.
Besser wird es IMMER gehen.

Und es dauert wohl noch ne Weile, bis HBM2 so weit ist (bzw sogar als HBM3?!), dass es in einem solchen ausmaß massentauglich ist, dass die Fertigungskosten + Stückzahl/ausbeute sich mit GDDRxx messen können, da finde ich den (zwischen)Schritt mit GDDR6 recht sinnvoll, gerade mit der höheren möglichen Bandbreite. Klassisches 256 bit Interface mit 14 gbit/s modulen wären 448 gb/s. Kleine Übertaktung um einige %, und man erreicht 480 gb/s, und ist damit auf HBM2 Niveau. Die 15-16 gbit/s chips + etwas OC könnten dann easy die 500-550 gb/s knacken, das kommt der Oberklasse dann ziemlich zu gute (wo es aktuell 256 gb/s sind mit der 1070(ti), bzw 320 gb/s mit der 1080)
 
  • Gefällt mir
Reaktionen: Holzinternet und Daniel D.
Darkseth88 schrieb:
Ich habe einfach nur gesagt, dass obwohl HBM2 ja so "effizient" und "stromsparend" sein soll verglichen zu GDDR5(X), die nvidia Karten trotzdem DEUTLICH weniger Strom verbrauchen bei gleicher Leistung, bzw ein nahezu 80-100% besseres Leistungs / Watt verhältnis haben als gesamtprodukt.

Ergo, dass GDDR6 genutzt wird (was ja "nachteile im stromverbrauch" haben soll, bzw hat), hat für den Kunden ja wenig relevant, wenn die karte trotzdem deutlich stromsparender/effizienter ist, als ne Vega mit HBM2.


Klar findet man diese nischen-anwendungen wo vega perfekt drauf zugeschnitten ist, und die Leistung auch bringt.
Das hat aber keine Relevanz für den Consumer^^ Nichtmal ein Bruchteiles eines Prozents aller typischen "Gamer" (von Casual bis hardcore) wird damit solch spezielle Anwendungen nutzen. Und wer das hauptsächlich macht, kauft sich keine Gamer-vega.
Vega stand nicht im Fokus
Der Aderlass während der finalen Entwicklungsphase für Vega soll aber nicht nur in Richtung einer zukünftigen GPU-Architektur verlaufen sein, sondern auch in andere Unternehmensbereiche. Fudzilla berichtet, dass gerade die eher geringe Effizienz darauf zurückzuführen sei, dass Spezialisten in diesem Bereich von der Entwicklung an der Vega-Produkte abgezogen wurden und stattdessen an Naples arbeiten sollten. Aus Naples wurde dann später der EPYC-Serverprozessor...

Auch hinter dieser Entscheidung sollen langfristige Interessen gestanden haben. So soll AMD im Servergeschäft ein größeres Potenzial gesehen haben.
https://www.hardwareluxx.de/index.p...enz-experten-von-vega-zu-epyc-verschoben.html
 
Würde mich mal interessieren ob ne 1080 nur mit GDDR6 direkt 17% schneller wäre ... sollte das der Fall sein würde sich ne neue Mittelklasse ja nichtmal lohnen
 
Darkseth88 schrieb:
Und welcher teil war in meinem Beitrag jetzt falsch, dass du diesen Beitrag schreibst? Das, was du hier schreibst, widerlegt ja nichts von mir, da ich rein gar nichts dagegen gesagt habe?
Habe nichts von einer Kotzgrenze erwähnt, oder was wo wie grenzwertig ist, und ich hab nie erwähnt, dass mehr Speicherbandbreite nichts bringt?!
Daher keine Ahnung worauf du dich da beziehen willst.
Auf deine Behauptung, dass es gar nichts bringt im Consumer-Bereich. Wenn bereits eine 1070 davon profitiert, wird es bei allem was stärker ist ebenfalls der Fall sein solange es keine Lösung gibt die Daten zu komprimieren. Ich bin davon ausgegangen, dass sich das von selber erklären würde, dass habe ich dann wohl damit nachgeholt.

Darkseth88 schrieb:
Ich habe einfach nur gesagt, dass obwohl HBM2 ja so "effizient" und "stromsparend" sein soll verglichen zu GDDR5(X), die nvidia Karten trotzdem DEUTLICH weniger Strom verbrauchen bei gleicher Leistung, bzw ein nahezu 80-100% besseres Leistungs / Watt verhältnis haben als gesamtprodukt.

Ergo, dass GDDR6 genutzt wird (was ja "nachteile im stromverbrauch" haben soll, bzw hat), hat für den Kunden ja wenig relevant, wenn die karte trotzdem deutlich stromsparender/effizienter ist, als ne Vega mit HBM2.
Wieso? Das setzt doch mehr Spielraum frei, damit die Karte diese frei gewordenen Watt verbrauchen kann. Der Gesamtverbrauch bleibt gleich, die Karte wird aber dennoch schneller. Ich wüsste nicht, wieso sie da überflüssig wäre. Der Gesamtverbrauch bleibt ja schließlich erhalten

Darkseth88 schrieb:
Klar findet man diese nischen-anwendungen wo vega perfekt drauf zugeschnitten ist, und die Leistung auch bringt.
Das hat aber keine Relevanz für den Consumer^^ Nichtmal ein Bruchteiles eines Prozents aller typischen "Gamer" (von Casual bis hardcore) wird damit solch spezielle Anwendungen nutzen. Und wer das hauptsächlich macht, kauft sich keine Gamer-vega.
Ergo, es geht hier um Gaming, bzw hab ich nur von Gaming gesprochen (auch weil die mit Abstand meisten, die hier mitlesen, eben Gamer sind), und da bringt der ach so effiziente HBM2 nichts - bzw will ich nicht wissen, wie viel Watt die mit GDDR5X schlucken würde ^^

Wenn es danach ginge hätte auch kein Titan oder Quadro was auf dieser Seite zu suchen, weil sie ebenfalls Nische sind. Da aber vieles ineinander übergeht, kann man das nicht einfach so unter den Teppich kehren. GPUs sind keine exklusiven Produkte für Gamer sondern haben viele Einsatzzwecke was die Flut an Minern eindrucksvoll bestätigt. Du sagtest schließlich auch der Verbrauch der gesamten Grafikkarte zählt und nicht die einzelnen Teile. In diesem Fall gehört die GPGPU-Leistung mit zur Gesamtleistung der Karte.

Darkseth88 schrieb:
Sag ich auch nix dagegen. Aber wie gesagt, Pascal hat eine um 80% bessere Leistung pro Watt, obwohl es 15 Monate früher released wurde, trotz GDDR5X.
Mir als Gamer ist es daher völlig schnuppe, ob da GDDR6 drauf kommt, oder HBM2. Wenn Leistung, Stromverbrauch (gesamte karte), Speicherbandbreite auf entsprechendem Niveau sind, alles in Ordnung. Erst Recht, wenn sich dadurch eine nennenswerte Preisersparnis gibt (Grafikkarten sind aktuell eh schon mehr als teuer genug) ^^
Ob ich die 500 gb/s mit GDDR6 hab, oder HBM2 macht für die Praxis keinen Unterschied.
z.B. Nvidia eben. Mag sein, dass Pascal mit HBM2 eingie Watt weniger verbrauchen würde, als jetzt mit GDDR5X. Aber der Stromverbrauch ist jetzt schon DEUTLICh geringer als bei der konkurrenz, bzw aktuell das beste Leistungs/Watt verhältnis auf dem Markt.
Besser wird es IMMER gehen.
Wie bereits über mir verlinkt wurde, gab es bereits Artikel zu den Hintergründen dazu. Vega wurde auf den Zielgeraden in den Hungertod geschickt weil es finanziell zu eng wurde als das man CPU- UND GPU-Sparte mit genügend Geld versorgen konnte. Und eine Preisersparnis auufgrund von neuem Speicher wird nichts, das kann ich dir jetzt schon mal sagen. Die Technologie wird noch neu sind und die Ausgaben müssen wieder reinkommen.
Und wenn dir Schnuppe ist woher die Leistung kommt, wie der Verbrauch zustande kommt und so weiter, brauchst du dich nicht zu wundern wenn Nvidia sich das gleiche denkt. Wenn ihnen dann Schnuppe ist woher du dein Geld nimmst um die Karten zu kaufen. Manchmal ist es halt klüger strategisch klug zu kaufen und nicht weil man im Moment 3% mehr Leistung in manchen Szenarien braucht. Das fiel den meisten bereits bei Intel auf die Füße, bei Grafikkarten wird das nicht viel anders werden.

Darkseth88 schrieb:
Und es dauert wohl noch ne Weile, bis HBM2 so weit ist (bzw sogar als HBM3?!), dass es in einem solchen ausmaß massentauglich ist, dass die Fertigungskosten + Stückzahl/ausbeute sich mit GDDRxx messen können, da finde ich den (zwischen)Schritt mit GDDR6 recht sinnvoll, gerade mit der höheren möglichen Bandbreite. Klassisches 256 bit Interface mit 14 gbit/s modulen wären 448 gb/s. Kleine Übertaktung um einige %, und man erreicht 480 gb/s, und ist damit auf HBM2 Niveau. Die 15-16 gbit/s chips + etwas OC könnten dann easy die 500-550 gb/s knacken, das kommt der Oberklasse dann ziemlich zu gute (wo es aktuell 256 gb/s sind mit der 1070(ti), bzw 320 gb/s mit der 1080)
Ja, das ist ein wirklich großes Problem für AMD geworden. Da hätte man klug genug sein sollen um auf zuverlässigere Technologien zurückzugreifen. Das hat schon ziemlich böse geendet und die fehlenden Finanzen haben der Vega-Gen fast das Genick gebrochen. Sonst wäre es ein kompletter Papiertiger geworden
 
  • Gefällt mir
Reaktionen: Obvision
@Beyazid Ich glaube du schießt hier etwas über das Ziel hinaus. Aus technischer Sicht freuen sich hier sicher die Meisten (@Darkseth88 und mich eingeschlossen) über innovative und 'bessere' Ansätze oder Umsetzungen, wie sie HBM bietet.

Wenn aber
Produkt A (hier Vega) mit HBM 100% Leistung bei 100% Verbrauch liefert und
Produkt B (Pascal) mit GDDR5(X) 130% Leistung bei 90% Verbrauch liefert,
dann finde ich zwar die technischen Details beider Lösungen interessant, aber Produkt B ist die naheliegendere Wahl für einen Kauf.

Und wenn dann noch Produkt C (Turing) irgendwann auf den Markt kommt und (rein hypothetisch) 180% Leistung bei 100% Verbrauch liefert, dann ist der verwendete Speicher letztendlich nur eine Randnotiz. Die Tatsache, dass mit HBM evtl. noch mehr drin gewesen wäre ist zwar spannend, aber das auch nur von Standpunkt eines Ingenieurs aus.
 
  • Gefällt mir
Reaktionen: Daniel D.
@ CB Redaktion mit Bitte um Stellungnahme:

Wie sieht es eigentlich mit dem neuen "schicken" NDA von nVidia aus, wird/wurde das - ohne mit der Wimper zu zucken - von CB unterschrieben oder ist eine ähnliche konsequente Ablehnung/Haltung wie bei Heise.de vorgesehen?

Das nächste Fettnäpfchen von nVidia nach GPP, dieses Mal wohl um eine journalistische Bevormundung und wieder einen Wettbwerbsvorteil durch zu setzen (von Erdogan und anderen Autokraten gelernt?) .... unfassbar der Laden/die NDA-autorisierende "Lederjacke" :freak::rolleyes::kotz:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ruthi91, Ozmog, Daniel D. und 6 andere
Beyazid schrieb:
Wie bereits über mir verlinkt wurde, gab es bereits Artikel zu den Hintergründen dazu. Vega wurde auf den Zielgeraden in den Hungertod geschickt weil es finanziell zu eng wurde als das man CPU- UND GPU-Sparte mit genügend Geld versorgen konnte.

Das ist doch völlig egal, die RX Vega wurde und wird als Gamingkarte beworben und muss sich halt auch darin zuallererst bewerten lassen, eine Gamingkarte kaufen bestimmt 90% der Leute, die die Karte dann auch zu diesem Zweck benutzen. Ich verstehe immer nicht dieses schön reden der offensichtlichen Tatsachen, die Gaming Vega out of the Box ist im Gegensatz zu Pascal einfach das schlechtere Produkt.
 
Zuletzt bearbeitet von einem Moderator:
Gegen ne RX 680 mit 8 GB GDDR6 die ansonsten baugleich zur RX 580 ist hätte ich nichts einzuwenden. Geringerer Stromverbrauch bei mehr Speichergeschwindigkeit.
 
D0m1n4t0r schrieb:
Die stinkt doch bereits effizienztechnisch gegen jede Pascal ab, wie soll es dann bei Turing sein? Nicht falsch verstehen, aber dann sehe ich lieber Vega auf GDDR6.
 
Hannibal Smith schrieb:
Würde mich mal interessieren ob ne 1080 nur mit GDDR6 direkt 17% schneller wäre ... sollte das der Fall sein würde sich ne neue Mittelklasse ja nichtmal lohnen
Nein wäre sie nicht da der Speicher alleine kein 17% Gesamtleistungsplus sondern nur 17% höheren Speicherdurchsatz ermöglichen könnte. Nicht ohne parallel relevant gesteigerte GPU Leistung evtl. sogar auch Busbreite ist ein signifikantes Gesamtleistungsplus zu erreichen. Natürlich würde die 17% höhere Speicherleistung auch jetzt schon etwas die Gesamtleistung verbessern aber sicher nicht deine erhofften 17%.
 
Keine Ahnung ob das bei ner Vega so einfach möglich ist die auf GDDR6 umzubauen. Ist ja schliesslich eine ganz andere Technologie als die "normalen" Karten mit Standardspeicherinterface an das im Prinzip jeder beliebige GDDR Speicher dran passt.
Ausserdem bringt bei ner Vega GDDR6 nicht sonderlich viel, da die ja genug Speicherbandbreite hat.

Könnte höchstens kostentechnisch interessant sein, falls GDDR6 deutlich günstiger als HBM2 wäre.

Der beste Einsatzort wo es am meisten bringt für GDDR6 wäre derzeit in Karten bei denen die Speicherbandbreite der limitierende Faktor ist. RX 580 und RX 570 fallen mir da spontan ein. Und natürlich bei den Highend Karten.
 
Zurück
Oben