News GDDR6: Samsung stellt den Speicher der Nvidia Quadro RTX vor

Hill Ridge schrieb:
NVIDIA "Fans" wollen das sehr oft nicht wahr haben, kA warum das so ist:\
Vll weil "Nvidia Fans" auch ohne HBM Speicher Karten bekommen, die weniger Saft ziehen als die von AMD. :p
 
Mustis schrieb:
die weniger Saft ziehen als die von AMD
Kommt ganz drauf an, wie man das Messen will. Hier Mal ein Beispiel pro AMD. Wenn du jetzt deins belegt haben willst gibt es natürlich auch dafür viele gute Beispiele (Vega und GP 104)

Eine Nvidia Karte, sagen wir eine 980, die die Leistung einer AMD Karte bringen muss, sagen wir eine R9 Nano, musst du übertakten. Dadurch verliert die 980 an Effizienz und die Nvidia Karte zieht mehr Saft.

Die Zahlen kannst du ja überprüfen, wenn du magst. Alles aus dem Test zur R9 Nano von CB. Also bekommen sie ohne HBM offensichtlich keine effizienteren Karten.
 
Natürlich bezieht sich die Aussage auf die aktuelle Generation und Stock gegen Stock oder OC gegen OC, wer vergleicht OC gegen Stock? . Was interessiert mich ne 980 zu ner R9 Nano? :rolleyes: Vll sollten wir auch gleich ma gucken wie es zur Zeiten der 8800er Reihe war oder so.

Zudem war das ganze mit nem Augenzwinkern...
 
  • Gefällt mir
Reaktionen: bensen
Was die kommenden Gaming-Grafikkarten von nVidia angeht (mit GT/GA 104 Chips), so gehe ich da schon noch fuer die RTX GPUs mit GDDR6 Bestueckung aus, aber voraussichtlich nur mit 1-GB-Speicherchips (eine GTX2080+ koennte allerdings eine Ausnahme sein, so es solch eine denn geben sollte).

Falls es also kein "krummes Speicherinterface" geben sollte oder eine unterschiedliche Speichergeschwindigkeitsanbindung (das gab es bei nVidia ja alles schon, wie waere es mit 10 GB stattdessen?), spricht es fuer eine Bestueckung mit laeppischen 8GB (falls es nicht wahlweise eine 16GB/2-GB-Speicherchip-Version geben sollte, bspw. als gemunkelte RTX2080+, wobei man sich wie noch zu Kepler Zeiten die Speicherverdoppelung fuerstlich entlohnen lassen duerfte) und 8GB in der Oberklasse waere - zumindest aus meiner Sicht als jemand der langlebigen GPUs den Vorrang einraeumt - ein massiver Grund, der gegen den Kauf einer solchen GPU sprechen wuerde.

Wenn dann AMD/RTG im kommenden Jahr mit 12 (oder gar 16) GB die Navi-Mittelklasse-Karten bestuecken sollte (die Speicherpreise das dann zulassen werden), dann wird man mit 8GB Oberklasse-GPUs schon sehr bald ziemlich alt aussehen (eigentlich taete man dieses schon zum Marktstart), ganz zu schweigen davon, dass ein neues GTX 2080 Flaggschiff weniger Speicher bieten wuerde als die dann im Gaming-Bereich hoechstwahrscheinlich enthronte GTX1080Ti ... das wuerde irgendwie schon seltsam anmuten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan
Mustis schrieb:
wer vergleicht OC gegen Stock?
Wenn ich die gleiche Leistung will muss ich das nunmal. Sonst habe ich eine Karte mit 20 FPS die sehr effizient ist und eine mit 30 die sehr ineffizient ist. Da brauche ich keine Effizienz vergleichen. Ich kaufe die schnellere.

@Chismon

Was die 8GB angeht hast du Recht. Das wäre schlecht für jeden. Aber was meinst du, wie sich Nvidia freuen würde die Karten 2070, 2070ti, 2075, 2080 oder wie auch immer von 2 GPUs wie bei pascal mit 1070 und 1080 auf 4 zu erhöhen. Dann eben 2 Ausbaustufen an Shadern mit jeweils 8/16GB. Das wäre eine Goldgrube, die dort wohl sehr gerne gesehen wäre.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
Locuza schrieb:
Es war eine ernst zu nehmende Folie, dessen simple Aussage aber weder du, noch viele andere verstehen.
Nein, war sie eben nicht!

Sie haben HBM mit GDDR verglichen und es so hin gebogen, das HBM mehr Energie braucht.
Blöderweise hatte der HBM in dem Vergleich einen viel viel höheren Datendurchsatz, man hätte mit einem Viertel der Stacks den Durchsatz von GDDR5 erreicht.
Das war reine Progaganda, aber mehr ist von NVIDIA auch nicht zu erwarten...

Du meinst doch diesen Witz?
NV-HB.jpg


usb2_2 schrieb:
Kurz: Polaris 36 CUs bei 232mm^2
Vega 64 CUs bei 484mm^2 (wobei Manche noch immer meinen, dass sie größer ist) .
Mir doch egal wie groß diese GPUs sind, um die geht es doch nicht!

AMD könnte auch eine Vega GPU mit 36 CUs entwerfen, oder eine andere Anzahl.
Vega braucht etwas mehr Transistoren, weil Vega höher taktet, zumindest sagte das AMD.
 
Sie taktet dafür auch höher, ist das so schwer zu verstehen?

Da braucht man für die Selbe Leistung dann halt etwas weniger CUs.

Leistung/mm² ist sie aber wohl kaum teurer, bietet aber mehr Hardwarefeatures, wie zb. DX12.1 statt 12.0!
 
Hill Ridge schrieb:
Nein, war sie eben nicht!

Sie haben HBM mit GDDR verglichen und es so hin gebogen, das HBM mehr Energie braucht.
Blöderweise hatte der HBM in dem Vergleich einen viel viel höheren Datendurchsatz, man hätte mit einem Viertel der Stacks den Durchsatz von GDDR5 erreicht.
Das war reine Progaganda, aber mehr ist von NVIDIA auch nicht zu erwarten...

Du meinst doch diesen Witz?
Anhang anzeigen 701256


Mir doch egal wie groß diese GPUs sind, um die geht es doch nicht!

AMD könnte auch eine Vega GPU mit 36 CUs entwerfen, oder eine andere Anzahl.
Vega braucht etwas mehr Transistoren, weil Vega höher taktet, zumindest sagte das AMD.
Interessant wie du die Folie scheinbar verstehst, aber dennoch als Propaganda auswertest.
Die Aussage der Folie ist schließlich nichts anderes, als das in Zukunft schon wieder die Power-Wall droht, weil das Speichersystem prozentual wieder zu viel Energie aufnimmt.
Die Folie stellt offensichtlich klar, dass HBM deutlich effizienter als GDDR skaliert, nur wenn wir dann zukünftige GPU-Lösungen mit 2-4TB/s ausstatten wollen, müssen wir selbst mit HBM-Speicher 120-160W dafür bezahlen und was bleibt dann für den GPU-Chip selber übrig?

Nichts anderes soll die Folie verdeutlichen, dass wir die Rohbandbreite nicht problemlos weiter skalieren können und es weitere Innovationen beim Speicherstandard geben muss und sicherlich bei den GPU-Chips selber, um die Bandbreiteneffizienz zu erhöhen.

Die Folie stellt keine Propganda für oder gegen irgendeinen Speicherstandard dar, auf den Quatsch kommt man wie auch immer.
 
Zuletzt bearbeitet:
Der in den Nvidia Quadro RTX eingesetzte GDDR6-Speicher von Samsung bietet eine Datenrate von 14 Gbit/s pro Pin, was 56 Prozent mehr als beim schnellsten GDDR5-Speicher (9 Gbit/s) sind. Gegenüber den schnellsten GDDR5X-Chips mit 12 Gbit/s fällt der Vorsprung mit 17 Prozent allerdings deutlich geringer aus. Erst mit späteren Generationen soll GDDR6 Datenraten von bis zu 20 Gbit/s erreichen.

grundkursrechnung

1 byte = 8 bit

in fast jedem artikel wird immer von gbit geschrieben..transferrates von 20 Gbit/s ~ 2 Gbyte/s, oder 8 Gbit ~ 0.8 Gbyte oder 800 Mbyte speicher kann ja wohl nicht sein.. da wäre jede platte im raid oder ssd schneller
 
@Hill Ridge

Sie haben auch HBM2 beispielhaft auch mit einer 50% höheren Energieeffizienz hochgerechnet.
Und ist schon abzusehen das HBM3 50% effizienter sein wird, als HBM2 bzw. gar mehr?
Denn der Speicher muss deutlich effizienter werden, um nicht genauso an der vorgestellten Power-Wall zu landen.
Aktuell haben wir keinen Speicherstandard der bis zu dem Punkt ausreichend gut skaliert und das ist einfach die Aussage von der Folie und ein Fakt.

Welches Problem hast du denn genau mit der Folie und dessen Aussageabsicht?
 
SaschaHa schrieb:
Die Titan-Serie sollte meiner Meinung nach eingestampft werden, da sie sich bisher zu wenig von der Ti abgesetzt hat und somit Konkurrenz im eigenen Lager fand.
Falls dem so sein sollte, halte ich eine Ti auch mit 12 GB für plausibel, sonst könnten es durchaus wieder 11 werden.

Wenn Nvidia den Boardpartnern erlauben würde das Modell mit eigenen Kühllösungen zu vermarkten, dann wäre alles wieder in Ordnung und die Leistungsabstände so, wie es die Preise darstellen. Gut extrem teuer ist die Titan dann nach wie vor... ;)

Ich hoffe nach wie vor das die GTX 2080 mindestens 20-30% mehr Leistung wie die GTX 1080ti hat. Die eine Seite hat ja was von 8% geschrieben (dafür dann die Chiperweiterung für Raytraycing) - das würde jedoch nicht das Problem 4k Gaming / 60 fps lösen :-|
 
xenoshin schrieb:
grundkursrechnung

1 byte = 8 bit

in fast jedem artikel wird immer von gbit geschrieben..transferrates von 20 Gbit/s ~ 2 Gbyte/s, oder 8 Gbit ~ 0.8 Gbyte oder 800 Mbyte speicher kann ja wohl nicht sein.. da wäre jede platte im raid oder ssd schneller
Also wenn du CB schon "Grundkursrechnung" unterstellst, solltest du das, was du zu widerlegen versuchst, wenigstens verstanden haben, und deine eigene Rechnung dieser Kindergarten-Aufgabe zumindest fehlerfrei sein :rolleyes:

Dass 8 Äpfel verteilt auf 8 Personen nun ~0,8 Äpfel für jeden bedeutet, ist schon ziemlich spektakulär, das muss ich zugeben :rolleyes: Dabei hat mir mein 3-jähriger Nachbar gerade noch weiß machen wollen, dass jeder dann einen ganzen bekommt.. So ein Schlingel :D

Dass du dann aber auch noch die beiden Wörter "pro Pin" (Zitat: "Datenrate von 14 Gbit/s pro Pin") ignorierst und dann auf die niedrige Geschwindigkeit im Vergleich mit RAID-Systemen und SSDs hinweist, zeugt auch nicht gerade von Kompetenz :rolleyes:

Der Unterhaltungswert war hingegen echt gewaltig, danke dafür :D
Ergänzung ()

Palatas schrieb:
Ich hoffe nach wie vor das die GTX 2080 mindestens 20-30% mehr Leistung wie die GTX 1080ti hat.
Kann ich mir leider kaum vorstellen. Die 2080 wird ja voraussichtlich auf den "kleinen" Chip mit seinen 3072 Shadern setzen, und müsste sich damit gegen die 1080 Ti mit ihren 3584 Shadern behaupten. Das dürfte auch über den Takt sehr schwierig werden, erst Recht, wenn sie tatsächlich mit einer TDP von ca. 180 Watt daherkommt, wohingegen die Ti ja bereits 250 Watt benötigt.

Es sollte ja auch nicht außer Acht gelassen werden, dass das "neue" 12 nm-Verfahren auf dem 16 nm-Verfahren basiert (daher auch die extreme Chip-Größe), das lediglich etwas verbessert wurde und als 12 nm vermarktet wird. Eigentlich ist es eher sowas wie 16 nm+ oder ähnliches.

Ich denke, dass sie etwa 25 bis 30 % schneller sein wird als die GTX 1080 und damit nur knapp an die Ti heranreicht.

Aber es wäre schön, wenn du Recht hast und sie tatsächlich (deutlich) schneller wird als die Ti :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480
usb2_2 schrieb:
... was meinst du, wie sich Nvidia freuen würde die Karten 2070, 2070ti, 2075, 2080 oder wie auch immer von 2 GPUs wie bei pascal mit 1070 und 1080 auf 4 zu erhöhen. Dann eben 2 Ausbaustufen an Shadern mit jeweils 8/16GB. Das wäre eine Goldgrube, die dort wohl sehr gerne gesehen wäre.

Keine Frage, goldene Zeiten fuer nVidia, denn wie weit man mit 8GB in den kommenden Jahren noch kommen wird (bzw. ob man das mit den eigenen Anspruechen vereinbaren kann) ist nicht abzusehen und 16 GB ist aktuell schon noch extrem viel Speicher fuer den Gaming-Bereich, aber falls dann doch Raytracing und die oftmals schlampige Programmierung erst Einzug halten werden/sollten, dann ist das auch kein fernes Szenario mehr, dass bis an die 16 GB ausgereizt/genutzt werden, selbst wenn 11 oder 12 GB noch eine ganze Weile ausreichend sein sollten.

Was ist dann guenstiger, jetzt weniger teuer eine 8GB CPU zu kaufen und in 2 Jahren wieder eine neue GPU kaufen zu muessen - was mit Aufwand verbunden ist, die GPU-Preise weiter treibt und schlechter fuer die Umwelt ist - oder wieder 4-6+ Jahre auszuharren (wenn das nicht mit zu grossen Einschnitten dann verbunden ist und wenn man evt. auf anfaengliche Minimal-Raytracing Effekte in Spielen pfeifen kann)?

Oder ist es besser gleich eine 16GB CPU zu kaufen und fuer lange Zeit Ruhe zu haben (sofern man bereit ist die Ansprueche im Laufe der Zeit anzupassen bzw. bis auf Full-HD Medium-Einstellungen (oder gar niedriger?) herunter zu schrauben?

Das muss wohl jeder selber versuchen einzuschaetzen, aber gluecklicherweise ist man aktuell (schon) ja in der Lage eine zum Marktstart fuer WQHD nativ/Downsampling (sehr) gut bis uneingeschraenkt nutzbare GPUs zu kaufen und das wird mit Turing/Ampere dieses und vermutlich auch Navi im kommenden Jahr wohl noch eher der Fall sein.

Palatas schrieb:
... das würde jedoch nicht das Problem 4k Gaming / 60 fps lösen :-|

Das 4K/UHD Problem wirst Du noch eine ganze Weile nicht geloest, gechweige denn die Aufloesung breit etabliert, bekommen, weil nVidia jetzt erst einmal auf Raytracing Vermarktung setzt und man da hofft einen Vorsprung vor AMD/RTG etablieren zu koennen, der (neben evt. noch in Zukunft hoeherer Rohleistung) als weiterer Kaufgrund idealer Weise herhalten soll.

Dann stellt sich die Frage wie schnell/gut/ob die Kundschaft darauf anspringt und wenn ja/schnell, man das vermutlich mit propriertaerem Ansatz und der Marktmacht zum eigenen (weiteren) Vorteil gegenueber AMD/RTG (und evt. irgendwann auch Intel) ausspielen kann.

Zurueck zu 4K/UHD, was somit der Raytracing-Initiative entgegen stehen duerfte, da letztere Ressourcen binden wird und das Hauptaugenmerk darauf gerichtet sein duerfte (es sei den es floppt und verschwindet sang- und klanglos in der Senke, wie PhysX leider seinerzeit) und somit wird es bestimmt noch 2-3 weitere Generationen/Noden-Shrinks dauern, bis man in die Region von 60+fps 4K/UHD-Gaming in Ultraeinstellungen durch die Bank in aktuellen Spielen (die Anforderungen/schludrigen Umsetzungen seitens der Entwickler werden zukuenftig wohl nicht abnehmen, sondern eher noch zulegen, trotz/auch wegen der Low Level APIs) kommen wird.

Wird dadurch (nVidias Ansatz/Neuausrichtung) die Entwicklung ausgebremst, das ist schwer anzunehmen, und dass das geht, sieht man ja auch gut an den Low-Level-APIs DX12 und Vulkan APIs (da nVidia ja noch immer OpenGL und DX11 supportet, weil man dort besser optimiert ist als die Konkurrenz und so meist vorne liegt und das ist wichtiger als dass diese High-Level APIs altbacken sind).

So gesehen erwarte ich da erst einmal nicht zu viel und der Ansatz ist auch lukrativ fuer nVidia, da man die Kepler-/Maxwell-Architektur durch kommende Shrinks noch Jahre weiter fahren wird koennen (der Leistungszuwachs wohl reichen wird und dann eben mehr auf Raytracing-Optimierung und -implementierung in Spielen gesetzt werden wird, wo man sich auch erhofft durch die eigens etablierte (propriertaere) Loesung einen Leistungsvorteil zu schaffen ... zumindest wuerde ich das so machen ... mit moeglichst wenig Aufwand/Kosten den groessten Reibach machen und die Marktmacht nutzen um mit proprietaeren Loesungen die Konkurrenz auszumanoevrieren bzw. zu benachteiligen ;).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Palatas
Hill Ridge schrieb:
Nicht alles ist dumm, aber manches halt schon und ich bezeichne es dann halt auch so!
Es ist nunmal definitiv dumm, bei einer neuen GPU auf eine alte ISA zurück zu greifen...

Dann müssen wir in Zukunft wohl alle deine Beiträge markieren, denn nichts anderes sind sie...
Eine GPU zu shrinken und ihr einen aderen schnelleren Speicher zu verpassen ist viel, aber ganz gewiss nicht dumm.
So hätte man beispielsweise den OEMs eine RX 590 für das Weihnachtsgeschäft zur Verfügungstellen können. Aber da weder ich noch du die Kapazitäten und auch Kosten für 7nm kennen, sind alles nur Spekulationen und Ideen...
Und jemand anzugehen, weil er eine Idee hat, nur weil sie nicht der eigenen entspricht, darüber brauch man wohl nichts mehr sagen.


Hill Ridge schrieb:
Darum geht es nicht!
Nicht worum denn dann? Ein wenig mehr Informationsgehalt gehört schon in einen Post, auch wenn es die Mods hier offenkundig nicht stört, wenn Regeln missachtet werden.
Aber diese ganzen Einzeiler sind einfach eine Unart!

Hill Ridge schrieb:
Wie kommst du bitte darauf?
Glaubst du echt, TSMC/GF/... verlangen pro Wafer unterschiedliche Preise für GCN4 und GCN5?

Wenn du das glaubst ist das ja schön und gut, darfst du auch gerne, aber dann brauchst du dich nicht wundern, wenn man deinen Post als entsprechenden abstempelt.
Was du hier behauptest habe ich nie gesagt, jedoch ist ein Polaris DIE kleiner als ein Vega DIE und daher günstiger zu fertigen, da mehr aus dem Wafer purzeln...
Aber ich habe leider keine Preise um berechnen zu können ob sich das lohnt oder nicht. Vermutlich wird es sich wirtschaftlich nicht rechnen und man setzt deswegen auf ein komplettes LineUp in 7nm @2019.
 
Zurück
Oben