News GDDR6: Samsung stellt den Speicher der Nvidia Quadro RTX vor

Laut AMD sparte man bei Fiji durch den HBM ca. 30W ein.
Verglichen wurde mit einer R9 290X mit 4GB GDDR5

Fiji hätte mit 512bit GDDR5 also 30W mehr benötigt.

Also so wenig finde ich das jetzt nicht!
 
Hill Ridge schrieb:
Fiji hätte mit 512bit GDDR5 also 30W mehr benötigt
Und von dem Platz wollen wir gar nicht reden. Die R9 Nano mit GDDR wäre nie möglich gewesen.

Es ist doch eigentlich schon länger klar, dass HBM Strom spart.

Edit: AMD gibt dazu folgendes an: adeon™ R9 290X (10,66 GB/s Bandbreite pro Watt) und HBM-basiertes Gerät (über 35 GB/s Bandbreite pro Watt)

Das ist mit der 290x und der Fury (390 und Vega) übrigens messbar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Transistor 22 und Manfred_89
Würde mich interessieren ob die 2060 6gb Vram bekommt oder 8gb und vor allem ob es GDDR6 oder 5er wird.
 
usb2_2 schrieb:
Es ist doch eigentlich schon länger klar, dass HBM Strom spart.
Das war ja auch der Grund, warum man bei AMD auf HBM gesetzt hat, denn man wollte ja auch gegenüber Nvidia, was die Effizienz betrifft, aufschließen. Aber statt das die Grafikkarten bei AMD mit HBM an Effizienz zugelegt haben, hat man deutlich mehr Strom verbraucht.

Also entweder die Ingenieure bei AMD taugen nix, weil sie es irgendwie nicht schaffen, die Grafikkarten deutlich effizienter zu gestalten, oder die Vega Chips müssen richtige Stromfresser sein, welche nicht nur die den eingesparten Strom der HBM Speicher auffressen, sondern darüber hinaus auch noch an Ineffizienz zulegen.

Anders ist doch das Ganze sonst nicht zu erklären? Also irgendwie scheint die Symbiose zwischen den AMD Grafikchips und HBM nicht zu funktionieren, da bin ich mal gespannt, ob man das bei der nächsten AMD Grafikkarte, was glaube ich Navi ist, dort besser hinbekommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
Zotac2012 schrieb:
Aber statt das die Grafikkarten bei AMD mit HBM an Effizienz zugelegt haben, hat man deutlich mehr Strom verbraucht.
Meine R9 Nano ist bei bei -72 mV deutlich schneller, als die MSI 970 und verbraucht weniger, da das Powelimit niedriger liegt. Also sehe ich da jetzt kein Argument. AMD hat bei Vega halt die Brechstange angelegt.

Erinnerst du dich an die Star Wars Demo von AMD zur RX 460? Die Karten sind sehr effizient, wenn man denn die Brechstange weglässt und sie im sweetspot betreibt.
 
Aphelon schrieb:
Ich bin jetzt nicht so die Rechtschreibpolizei, aber was sollte das sein? :D

Edit: wohl typo s statt a... trotzdem lol
Bin per Smartphone online, das mag meine Wurstfinger meist nicht so :D
 
usb2_2 schrieb:
Es ist doch eigentlich schon länger klar, dass HBM Strom spart.
Du vermischt hier zu viel. HBM1 ist langsam, daher wenig Verbrauch. HBM3 hat schnellere Zyklen, der wird soweit ich das noch in Erinnerung habe, mehr Strom verbrauchen, als GDDR. Daher allzu logisch, dass er nur für die besten Chips benutzt wird, in dem der höhere Preis weniger eine Rolle spielt.
 
Hill Ridge schrieb:
Warum sollte AMD bitte noch neue GPUs mit GCN4 entwickeln?

Könnte man doch theoretisch in 7nm shrinken und mit höheren Taktraten und GDDR 6 als Zwischenlösung herausbringen bis Navi auf den Markt kommt. Ich denke da könnte man gut nochmal 20% rauskitzeln.
Wahrscheinlich halte ich es nicht, aber wann Navi denn genau auf den Markt kommt und wie viel er zu leisten mag, darüber ist ja auch noch nichts bekannt. :(
 
Und warum sollte AMD etwas so dummes machen?
Da können sie auch Vega mit einem GDDR6-PHY kombinieren.

Würde von den kosten wohl aufs Selbe hinaus laufen, weil das mit einem Polaris10/20-Shrink eh nicht funktioniert, die müßten da den PHY austauschen.
 
17 % mehr Speicherdurchsatz bringt es wohl auf dem Punkt. Holt wohl auf den Herstellern auf den Boden der Tatsachen zurück, so das vorerst wohl doch kein Weg an HBM vorbei führt.Auch wenn Nvidia erstmal auf GDDR6 umschwenkt, scheinbar günstiger.

Ich habe irgendwie das Gefühl die Speicherhersteller rennen nur noch hinterher, früher gab es mal Bandbreite in Masse. Nun muss man es mit der Lupe suchen. Dazu werden die Margen für die Speicherchips immer fetter. Irgendwas stimmt da nicht, das sind nur Speicherchips, wie kann es da sein das man damit mehr verdient wie mit einer CPU.
 
SaschaHa schrieb:
@Aphelon
Das traurige daran ist ja, dass man bereits vor über 10 Jahren Grafikkarten mit bis zu 512 Bit hatte. Auch die legendäre 8800 GTX hatte schon 384 Bit.
Leider ist man damals aufgrund des Stromverbrauchs und anderer Änderungen wieder auf kleinere Anbindungen zurückgerudert.

Ich hoffe auch auf 12 GB mit 384 Bit, allerdings warte ich persönlich noch auf die 7 nm Karten. Und bei denen rechne ich fest mit 12 oder 16 GB :)


Man hatte da auch Kontakt zu amerikanischen Diensten die sich wünschten das das SI nicht weiter verbreitert wird (was in der Kryptographie von Belang ist). Falls man mir nicht glaubt man möge es ergooglen, entsprechende Meldungen gab es damals. In Folge dessen hat Nvidia die, das muss man ihnen lassen, sehr gut funktionierende Komprimierung entwickelt und so das SI entlastet. AMD hat darauf hin Interesse an HBM entwickelt was durchwachsenen Erfolg mit sich brachte da HBM durchgehend zu spät erschien, zu teuer war und dann noch schlecht verfügbar. Ich vermute AMD bereut den Schritt schon seit einiger Zeit. Zur GeForce 2080, man kann nur hoffen sie nehmen den 18 GBS an einem 256 Bit SI, sonst sieht es für die 2060 verdammt nach Bandbreitenlimitierung aus.
 
  • Gefällt mir
Reaktionen: SaschaHa
Hill Ridge schrieb:
Und warum sollte AMD etwas so dummes machen?
Da können sie auch Vega mit einem GDDR6-PHY kombinieren.

Warum sollte immer alles dumm sein, was nicht deiner Vorstellung entspricht?
Wenn man sich in der Mittelklasse positionieren möchte wäre das mit Polaris deutlich günstiger wie mit Vega, von daher wäre es nicht unbedingt ein schlechter Zwischenschritt gewesen um vor dem Weihnachtsgeschäft nochmal abzuräumen. So haben sie aktuell gar nichts...
 
  • Gefällt mir
Reaktionen: fox40phil
Warum sollte immer alles dumm sein
Nicht alles ist dumm, aber manches halt schon und ich bezeichne es dann halt auch so!
Es ist nunmal definitiv dumm, bei einer neuen GPU auf eine alte ISA zurück zu greifen...

was nicht deiner Vorstellung entspricht?
Darum geht es nicht!

Wenn man sich in der Mittelklasse positionieren möchte wäre das mit Polaris deutlich günstiger wie mit Vega
Wie kommst du bitte darauf?

Glaubst du echt, TSMC/GF/... verlangen pro Wafer unterschiedliche Preise für GCN4 und GCN5?
 
m.Kobold schrieb:
Ist das so?

https://www.computerbase.de/2018-08/nvidia-geforce-rtx-teaser/

Edit: Okay ist zwar nur Teaser... aber wenn schon so ne news kurz nach der Quadro vorstellung kommt und direkt nach dem Teaser, wundert es mich schon wieso da nix in der Meldung zu den normalen Grakas zu finden ist.
NDA? Das eine GeForce kommt ist bekannt, dafür braucht es keinen teaser. Nur stehen die noch unter NDA und vielleicht sind nicht mal Details bekannt. Was soll man dann in die News schreiben? Das die GeForce ähnlich wie die Quadro aussehen werden sollte klar sein.
 
Hill Ridge schrieb:
Glaubst du echt, TSMC/GF/... verlangen pro Wafer unterschiedliche Preise für GCN4 und GCN5?
Vega ist für einen anderen Markt bestimmt. Die Architektur beinhaltet viele Features, die man für gaming nicht braucht und dadurch ist sie größer, als eine Polaris in der Leistungsklasse.

Kurz: Polaris 36 CUs bei 232mm^2
Vega 64 CUs bei 484mm^2 (wobei Manche noch immer meinen, dass sie größer ist)

Shaderdichte:
Polaris has almost 10 shaders/mm²
[Vega] just has ~8.2 shaders/mm²
https://www.reddit.com/r/Amd/comments/6ki84r/can_anyone_explain_why_vegas_die_size_is_so_large/

Fazit: Sie nehmen effektiv mehr für Vega, weil die Architektur mehr Platz braucht. Sie hat nahezu 18% weniger Shader auf dem selben Platz. Die anderen Features haben bisher keinen sichtbaren Einfluss auf die Spiele-Performance.
 
Hill Ridge schrieb:
Ja, das war eine nicht ernst zu nehmende Folie von NVIDIA!
Es war eine ernst zu nehmende Folie, dessen simple Aussage aber weder du, noch viele andere verstehen.

usb2_2 schrieb:
Vega ist für einen anderen Markt bestimmt. Die Architektur beinhaltet viele Features, die man für gaming nicht braucht und dadurch ist sie größer, als eine Polaris in der Leistungsklasse.

Kurz: Polaris 36 CUs bei 232mm^2
Vega 64 CUs bei 484mm^2 (wobei Manche noch immer meinen, dass sie größer ist)

Shaderdichte:
Polaris has almost 10 shaders/mm²
[Vega] just has ~8.2 shaders/mm²
https://www.reddit.com/r/Amd/comments/6ki84r/can_anyone_explain_why_vegas_die_size_is_so_large/

Fazit: Sie nehmen effektiv mehr für Vega, weil die Architektur mehr Platz braucht. Sie hat nahezu 18% weniger Shader auf dem selben Platz. Die anderen Features haben bisher keinen sichtbaren Einfluss auf die Spiele-Performance.
Fast alle Features die bei Vega neu hinzugekommen sind, sind für Gaming nützlich, sogar die meisten für Gaming und nicht für andere Bereiche.
Der DSBR, Rapid Packed Math, HBCC, ROPs die nun kohärent zum L2$ angebunden sind und die Primitive Shader, die bis Heute nicht verwendet werden können und zusätzliche Rendering-Features.
Laut AMD gewinnt Vega10 ~5-10% bessere Performance und Perf/Watt dank dem DSBR (Seite 17):
https://www.hotchips.org/wp-content...b/HC29.21.120-Radeon-Vega10-Mantor-AMD-f1.pdf

Das neue ROP-Design führt dazu, dass die GPU seltener ihren L2$ leeren muss, dass erhöht die Effizienz und Performance, in Claybook gibt es laut einem Entwickler bei Vega 1/3 weniger L2$ flushes im Vergleich zu Polaris.

Ein größerer L2$ trägt natürlich auch allgemein zur Performance bei und ist auch notwendig, um ausreichend Platz für die DSBR-Tiles zu haben.
Auch den Vertex Parameter Cache hat AMD im Vergleich zu Polaris verdoppelt, für eine bessere Performance.
AMD hat auch mehr Transistoren investiert um etliche DX12 Features umzusetzen, wie Conservative Rasterization, Tiled Resources Tier 3 und ROVs.

Aber die meisten Transistoren bei Vega sind laut AMD für das höhere Taktdesign draufgegangen.
Also bezogen auf Gaming "verschwendet" Vega relativ wenig zusätzliche Fläche.
 
Zurück
Oben