News GDDR6: Samsung stellt den Speicher der Nvidia Quadro RTX vor

m.Kobold

Lt. Commander
Dabei seit
Feb. 2002
Beiträge
1.468
#2
Im umkehrschluss, kein GDDR6 auf den Geforce Grafikkarten? Oder wieso nur Quadro?
 

SaschaHa

Lt. Commander
Dabei seit
Nov. 2007
Beiträge
1.985
#5
Schade, dass man sich mit HBM2 aktuell noch so schwer tut. Meiner Meinung nach hat dieser Speicher weitaus mehr Potential als GDDR6. Aber so oder so zählt, was am Ende dabei rauskommt. Auch GDDR6 dürfte ja "schnell genug" für die kommenden Grafikkarten sein.
 
Dabei seit
Apr. 2007
Beiträge
2.715
#6
HBM3 wird es 2020 über günstigere Preise richten. Ich bin aber gespannt, ob HBM2 bis dahin tatsächlich noch auf neu angekündigten Grafikkarten zum Einsatz kommen wird. Bisher scheint Vega 7nm da recht allein auf weiter Flur zu stehen.
 
Dabei seit
Jan. 2011
Beiträge
9.732
#7
Im umkehrschluss, kein GDDR6 auf den Geforce Grafikkarten? Oder wieso nur Quadro?
Man sprach doch hier auch nur von der 2 GByte Version. Die Desktop Varianten werden wohl eher zu der 1 GByte Variante zurückgreifen, die vermutlich günstiger ist und wichtiger, eine bessere Verfügbarkeit. Der kleinere Chip mit 3.072 Shader hat als Quadro RTX 5000 16 GB. Sprich könnte man wieder mit der Gaming Variante wieder mit 8GB rechnen. Die Ti und die Titan somit wie beim Vorgänger. Bei der Ti wären mehrere Kombis möglich. Wieder (352bit)11GB oder eben 12GB. 18 GB auch wobei das SI dann nicht wesentlich schneller wäre, als das vom kleineren chip. Alles andere würde das SI schon sehr beschneiden.
 
Zuletzt bearbeitet:
Dabei seit
Okt. 2017
Beiträge
2.115
#8
Im umkehrschluss, kein GDDR6 auf den Geforce Grafikkarten? Oder wieso nur Quadro?
Da gibt es bestimmt von jeder Geforce-Karte (Edit: bzw. vielleicht heißen die ja jetzt auch Rayforce :D) je eine Version mit GDDR6, GDDR5X, GDDR5 und vielleicht sogar noch GDDR4. Also mach dir mal keine Sorgen... nVidia will ja eine möglichst große Vielfalt anbieten... alles im Interesse des Kunden... *hust*
 
Zuletzt bearbeitet: (Typo)

SaschaHa

Lt. Commander
Dabei seit
Nov. 2007
Beiträge
1.985
#9
Die Titan-Serie sollte meiner Meinung nach eingestampft werden, da sie sich bisher zu wenig von der Ti abgesetzt hat und somit Konkurrenz im eigenen Lager fand.
Falls dem so sein sollte, halte ich eine Ti auch mit 12 GB für plausibel, sonst könnten es durchaus wieder 11 werden.
 
Dabei seit
Okt. 2017
Beiträge
2.115
#10
Dabei seit
Okt. 2017
Beiträge
2.115
#12
GT 104 (Mittelklasse, RTX 2080?) Wird 8/16 GB an 256 bit Speicherinterface haben.
Wurde das schon irgendwo geleaked?

Edit: Es wurde mal gemunkelt, dass es wohl zwei Versionen der 2080 geben soll, ähnlich wie jetzt bei der 1060... würde mich nicht wundern. So kann man ebenfalls leicht GPU-Preise in die Höhe treiben, indem die kleinere so viel kostet wie eine 1080 zum Release und die größere halt mehr als eine 1080Ti zum Release. Später setzt man dann noch eine 2080Ti oben drauf. VRAM wird jetzt schon ähnlich wie Speicher beim iPhone gehandelt. Der Kunde zahlt einfach unverhältnismäßig viel für das größere Modell...
 
Zuletzt bearbeitet:
Dabei seit
März 2013
Beiträge
2.864
#13
@Aphelon

Ja wurde es, die Frage ist, was davon zu halten ist. AdoredTV hat das bei YouTube, du findest das auch auf anderen Seiten im Internet.

Die GT(TU?)102 mit 12/24/48 GB kommt von Can selbst, siehe Quadro.

Wenn du auf 3dcenter guckst findest du aber noch viel anderen Kram zu einer GV104 und GV102.
 

SaschaHa

Lt. Commander
Dabei seit
Nov. 2007
Beiträge
1.985
#14
@Aphelon
Wünschen würde ich es mir auch, jedoch würde das für 12 GB eine Erhöhung von 256 auf 384 Bit bedeuten, was ich (leider) aktuell eher bezweifle, zumal man bei der Ti dann sogar auf 512 erhöhen müsste (weil die Käufer eine Reduzierung auf 256 Bit dort kaum hinnehmen würden).

Ich gehe daher eher davon aus, dass man bei der 2080 zunächst bei 8 GB bleibt oder diese bereits auf 16 GB verdoppelt (letzteres zweifle ich aber auch eher an).

Ich denke, dass 16 GB dann erst nächstes Jahr mit den 7 mm kommen werden und man bis dahin mit 8 GB klarkommen muss. Aber ich hoffe, dass ich mich irre :) Möglich ist alles.
 
Dabei seit
Okt. 2017
Beiträge
2.115
#15

SaschaHa

Lt. Commander
Dabei seit
Nov. 2007
Beiträge
1.985
#16
@Aphelon
Das traurige daran ist ja, dass man bereits vor über 10 Jahren Grafikkarten mit bis zu 512 Bit hatte. Auch die legendäre 8800 GTX hatte schon 384 Bit.
Leider ist man damals aufgrund des Stromverbrauchs und anderer Änderungen wieder auf kleinere Anbindungen zurückgerudert.

Ich hoffe auch auf 12 GB mit 384 Bit, allerdings warte ich persönlich noch auf die 7 nm Karten. Und bei denen rechne ich fest mit 12 oder 16 GB :)
 
Dabei seit
Juli 2012
Beiträge
2.046
#17
Hab grad mal geschaut, ~10 Jahre hatten wir jetzt GDDR5 kam gegen 2008, mal sehen wie lange GDDR6 aufn Markt bleibt.
Ich bin ja mal gespannt was am ende von GDDR6 so an geschwindigkeit/Bandbreite drin ist, die 16Gbit sind denk ich mal noch nicht das ende der Fahnenstange.

@Aphelon
Das traurige daran ist ja, dass man bereits vor über 10 Jahren Grafikkarten mit bis zu 512 Bit hatte. Auch die legendäre 8800 GTX hatte schon 384 Bit...
Den Stromverbauch kann man denk ich mal bei Vram vernachlässigen, das dürfte denk ich mal nicht ausschlaggebend sein dafür. Aber stimmt schon die heutigen Karten sind zumindest was das Speicherinterface angeht total verkrüppelt, voralledem wie du bereits sagtest vor 10 Jahren gabs ja schon 512Bit
 
Dabei seit
Mai 2018
Beiträge
1.142
#18
Dabei seit
März 2013
Beiträge
2.864
#19

SaschaHa

Lt. Commander
Dabei seit
Nov. 2007
Beiträge
1.985
#20
@usb2_2
Aktuell sind wir aber zu einem großen Teil bei 256 Bit, so auch bei der 1080, die sich in der gleichen Preisklasse befindet, wie damals die 8800 GTX mit 384 Bit, und gewissermaßen ja ein entfernter Nachfolger ist ;)
Das gilt auch für viele andere Karten.

@Hill Ridge
Weil HBM3 vermutlich in höheren Stückzahlen gefertigt wird und vermutlich auch durch Verbesserungen an den Maschinen günstiger gefertigt werden kann als dessen Vorgänger ;)

Und zur 2. Aussage: Weil der Speicher nur einen sehr geringen Teil des Stromverbrauchs ausmacht. Dürfte doch eigentlich klar sein, dass der meiste Strom vom Chip selbst gefressen wird.
 
Top