News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

Der Nachbar schrieb:
Wenn nvidia auf den Zusatz von RT und Tensor auf seinen komplexeren Karten verzichten und rein für Spielekarten nur Shader und Cache über alles an diesen Platz verbauen würde, würde AMD im Gaming überhaupt kein Land mehr sehen. Wobei sich nvidia sicher bewusst ist, das man nicht beliebig Shadermonster mit guter Leistungsskalierung bauen kann.

Daher bietet nvidia mit DLSS über die zusätzlichen Tensorkerne etwas, wo AMD hinterher hinkt.
Ich kann Dir nur sagen, daß genau die Tensorcores das Feature ist, wo alle Data Analysten und Scientisten in vielen Bereichen abfahren. Das ist in meinen Augen das Keyfeature, worauf viele, die im DL/ML/KI-Bereich arbeiten, gewartet hatten. In meinen Augen auch ein Grund, warum sich hier die Turing-GPUs wie geschnitten Brot verkaufte.

Wie Du richtig sagtes, man darf die GPUs nicht mehr nur als reine Gaming Plattform sehen, sie ist heute viel mehr, eben den angesprochenen Video- und Bildbearbeitungsbereich. Und das wird noch mehr werden. Wenn man sich mal anschaut, was heute in diesen Bereichen mit DL/ML möglich ist, beispielsweise Bildrestauration
https://windowsunited.de/microsoft-research-entwickelt-beeindruckende-ki-fotorestauration/. Überlegen wir mal, was heute schon sehen, wenn in Echtzeit mit DLSS oder anderen Verfahren in MediaPlayern für das Hochskalieren von Video passiert, ist der Schritt nicht mehr weit, daß in Echtzeit alte Filme und Aufnahmen mal so nebenbei verbessert werden können. Da hat Nvidia sehr wohl einen mutigen und guten Schritt getan, und der Erfolg damit gibt ihnen wiederum recht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra und Der Nachbar
Wadenbeisser schrieb:
Die Entwicklung und Produktion so komplexer Chips ist teuer und gerade bei der 290x hat sich offenbar gezeigt das es egal ist was man rausbringt...

Die 780Ti hat die 290x in Full HD um 14% und in WQHD um 12% bei gleicher Leistungsaufnahme geschlagen, ohne 94Grad heiß zu werden, sondern nur 82 Grad, bei gleicher Lautstärke.

Das Launchreview war nicht besonders komfortabel für AMD, auch wenn man fast gleichauf mit der Titan war.
Dennoch hielt AMD rund 35% Marktanteil, was nicht für einen Fail steht.
Der Marktanteil sank dann erst mit Erscheinen der Maxwell-Generation, die doppelt so effizient war.

Wadenbeisser schrieb:
Die Karten waren mit einer GTX780(Ti) mehr als konkurrenzfähig, erheblich billiger als eine Titan (die kaum schneller oder gar langsamer als eine 780(Ti) war) und verkaufte sich dennoch deutlich schlechter.

Hoher Verbrauch im Idle und Multimonitorvertrieb, deutlich weniger Leistung im Launchtests und ein schlechter Kühler bei der 290 verhageln eben das Ergebnis. Mangelnde Features wie G-sync kommen dazu.

Wadenbeisser schrieb:
Natürlich fängt an der Stelle gleich wieder das Gejammer um die Lautstärke an aber es wäre mir neu wenn es nur die Referenz Modelle mit aufgehobenen Limits gegeben hätte.

Ja, die Temperatur bei 94 Grad, die Lautstärke der 290 11 Dezibel über der einer gleichschnellen GTX 780, die nur 79 Grad warm wird. Die Referenzkarten werden getestet und darauf wird sich erst einmal eine Meinung gebildet.

Wadenbeisser schrieb:
Warum sollte man also diesen Bereich der Grafikkarten bei der Entwicklung priorisieren wenn der Großteil der Kundschaft offenschtlich nicht an entsprechenden Produkten interessiert ist?

Natürlich sind die Kunden interessiert, du bist lediglich der Meinung sie wären es nicht, unabhängig der Fakten.
Du suchst dir das so zusammen, damit dann deine Sicht der Dinge herauskommt, auch wenn sie absurd ist.

Wenn ich meine Produkte nicht abgesetzt bekomme, dann ist das Produkt, die Präsentation oder das Standing eben zu schlecht, was man bei 35% Marktanteil, aber auch irgendwie nicht sehen kann.

Den Rest deines Beitrags kann ich unterschreiben, außer den letzten Absatz.

Wadenbeisser schrieb:
...denn man hat genau das bekommen was man will, keine Produkte von der Konkurrenz.

Niemand möchte das.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: pietcux
@KlaraElfer

Netter Troll Versuch aber das jeweilige Gegenstück in der gleichen Preisklasse war nur allso oft langsamer, hatte weniger Speicher und war dennoch teurer. Die 780Ti war fast 200€ teurer als die X und die normale 780er fast 100€ teurer als die normale 290er. Die OC Modelle waren nicht nur teurer und schneller sondern es ging dabei auch die Effizienz den Bach runter.

Die 94 °C Chip Temperatur hatte einen ganz einfachen Grund.
Der Takt wurde nur anhand der Chip Temperatur gedrosselt. Begrenzt man die Kühlung begrenzt man indirekt den Verbrauch und drosselt damit auch den Takt.
Ach ja, beim damaligen Test der 780Ti hatte das Testsystem mit der ach so laute und Strom fressende Referenz 290x in idle gerade mal 9W mehr Strom gezogen, war unter Last 5W sparsamer und 1dB leiser.
Wer so auf den % Werten rumreitet sollte dann ncht von gleiche Werten reden.

Ach und noch fix zum letzten Zitat.
Niemand möchte das.
Aber natürlich, jeder der der AMD nur als Preisdrücker sieht und bei denen deren Produkten bei der Produktsuche von vorn herein nicht zur Debatte stehen und das waren bein den Diskussionen hier mehr als genug.
Ergänzung ()

Ach noch als kleinen Zusatz für den ach so hohen Verbrauch im multi Display Betrieb, dagegen gibt es ein recht einfaches Mittel. (sofern man den richtigen Anschluss wählt)
Wenn man den zweiten Monitor nicht benötigt schaltet man ihn aus denn auch dieser frißt Strom. Wenn ich mich richtig erinnere wurde der dann bei HDMI und DisplayPort vom Desktop abgemeldet und die Karte taktete wieder runter.
Ab dem dritten Monitor war das ohnehin egal denn spätestens dann taktete die Geforce ebenfalls rauf.
 
Zuletzt bearbeitet von einem Moderator:
Der Nachbar schrieb:
Daher bietet nvidia mit DLSS über die zusätzlichen Tensorkerne etwas, wo AMD hinterher hinkt. AMD müsste alternativ bei den Shadern klotzen, wenn Auflösung und Qualität vergleichbar sein sollen. nvidia bietet psychovisuelles MP3 auf Grafikebene in Qualität an ohne noch den Stromverbrauch hoch zu drehen. Die RTX3000 Serie wird mit der neuen Fertigung viel spannender. Die letzten Nachrichten von Sony und Microsoft zu den nächsten Konsolen und Titeln nehmen AMD sogar wieder die Luft raus.
AMD hat dafür Fidelity FX.
Einfach die Shader-Anzahl erhöhen bringt zwar mehr Rechenpower-Rohleistung, aber nicht unbedingt entsprechend mehr Gaming-Leistung. Die Recheneinheiten müssen auch ausgelastet werden, siehe Vega 64. Die hat 4096 Shadereinheiten.
Ergänzung ()

Der Nachbar schrieb:
Die nvidia Karten bieten weit mehr zusätzliche Funktionen neben Gaming, was die Preise wieder rechtfertigt. Die Teile rennen in Produktivanwendungen AMD auf und davon, was die RTX Serie dann doch im Laufe ihrer Verfügbarkeit gezeigt hat.
Soweit ich das gesehen habe, ist AMD bei OpenCL-Anwendungen deutlich schneller als NVIDA.
 
Zuletzt bearbeitet:
@tom1111

Nicht wenn mitn der Verallgemeinerung CUDA Programme gemeint waren. In dem Sektor haben die sich damit ziemlich breit gemachtund damit natürlich auch die Konkurrenz ausgekegelt.
 
tom1111 schrieb:
Soweit ich das gesehen habe, ist AMD bei OpenCL-Anwendungen deutlich schneller als NVIDA.

Solange kein Cuda genutzt wird mag das vielleicht so sein.
 
Zuletzt bearbeitet: (Tippo)
@tom1111
AMD wird nur noch auf einer Fidel spielen. :D
Ich komme ja von einer Maxwell auf eine VEGA 56 und werde nächstes Jahr garantiert wieder zurück zu nvidia wechseln.
Wenn sich der Spielemarkt nicht zu sehr zum Streamen entwickelt, wobei das bei hoher Spielevielfalt für ältere Titel hilfreich wäre, wird DLSS den AMD Opensource deutlich den Rang ablaufen. Nvidia wird solche Deep Learning Prozesse sicher weiter verbessern und für eine bessere Kompatiblität vereinfachen.
Bei OpenCL waren ja meine Hoffnungen schon bei der ATi HD4000 Serie und nvidia hat mit Cuda den Markt übernommen. Der Zug ist da für AMD ohne hohe Investitionen bei Software und Hardware einfach abgefahren.

AMD hat durchaus seine Stärken in manch Anwendungen in diesem Test und sicher hoch spezialiserter Nischensoftware, die nicht mit getestet wurde, aber die Leistungsfähigkeit von nvidia ist über viele Anwendungen hinweg einfach verfügbar.

Ich habe ja damals mit der RTX2060 geliebäugelt und hätte da tatsächlich kaufen sollen, als sie breit bei um 300€ lag. Für die nächste Karte gebe ich dann doch etwas mehr aus.
 
tom1111 schrieb:
AMD bei OpenCL-Anwendungen deutlich schneller als NVIDA.

Nein, das gilt so allgemein nicht und kommt auf die Programmierung des OpenCL-Kernels an. Fakt ist lediglich, dass Nvidia sehr lange offiziell nur OpenCL 1.2 unterstützte und neue Features von OpenCL 2.0 nur halbherzig implementierte, weil man lieber CUDA weiterentwickelte. Bei gegebenem OpenCL-Kernel ist in der Regel die Karte mit der höchsten Rohleistung (FP32-Durchsatz) am schnellsten.
 
KuestenNebel schrieb:
Nein, das gilt so allgemein nicht und kommt auf die Programmierung des OpenCL-Kernels an. Fakt ist lediglich, dass Nvidia sehr lange offiziell nur OpenCL 1.2 unterstützte und neue Features von OpenCL 2.0 nur halbherzig implementierte, weil man lieber CUDA weiterentwickelte. Bei gegebenem OpenCL-Kernel ist in der Regel die Karte mit der höchsten Rohleistung (FP32-Durchsatz) am schnellsten.
Ähm, aber AMD hat doch die höchste FP32 Rohleistung. NVIDIA Karten sind bei der Gaming-Leistung effizienter. Das ist vielen nicht ganz klar. Aber NAVI holt auch dabei auf.
 
tom1111 schrieb:
Ähm, aber AMD hat doch die höchste FP32 Rohleistung

Welche Karte meinst du konkret? Die Tatsache, dass der oder die beste SchülerIn der Schule in deiner Klasse sitzt, wertet deine Leistung doch auch nicht auf.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: .Sentinel.
tom1111 schrieb:
Ähm, aber AMD hat doch die höchste FP32 Rohleistung. NVIDIA Karten sind bei der Gaming-Leistung effizienter. Das ist vielen nicht ganz klar. Aber NAVI holt auch dabei auf.
Rohleistung ist eben nicht alles
http://blog.gpueater.com/en/post/00006_tech_flops_benchmark_2/
However, Flops benchmarks are not really relevant for DeepLearning, and it is difficult to achieve differences of over five times in the same way as for simple Flops benchmarks. NVIDIA itself measured benchmarks for ResNet-50 using P100 and V100 (TensorCore), and from what I can see of the materials, they only achieved a difference of 3.7 times, so expectations need to be kept in check.
Wenn die Rohleistung mit entsprechender Software abgebildet werden kann, dann erst wird ein Schuh draus,siehe Beispiel mit aktuellen ROCm libraries.

Comparing benchmarks between ROCm and NVIDIA(Inference)

Aber wie man hier sehen kann, es hängt auch immer stark vom verwendeten Modell ab. Und da sind aktuell die Nvidia Turing GPUs einfach etwas "flexibler".
Siehe auch
AMD CDNA: Radeon Instinct MI100 soll bei FP32-Leistung triumphieren.
Von AdoredTV sind jetzt auch erste Leistungsdetails geleakt worden, auch wenn diese nur die grobe Ausrichtung der Grafikkarte erahnen lassen: Laut angeblich offiziellen AMD-Folien soll die MI100 mit 300W TDP bei der FP32-Leistung um 140 Prozent vor Nvidias A100-GPU liegen. Gleichzeitig soll die Radeon-Grafikkarte 30 Prozent weniger kosten. In den übrigen Anwendungsgebieten FP64, FP16 sowie FP16+FP32 ("Mixed Precision") lässt AMD Nvidia aber den Vorrang: Hier soll die A100 um etwa den Faktor 2 vorne liegen.
Das AMD sich aktuell einseitig auf gute FP32-Werte einschießt, halte ich eben für fragwürdig.

Was ich hier aus der Praxis sagen kann, daß unsere Data Science Analysten immer mehrere verschiedende ML/DL Modelle verwenden, um ein bestimmtes Szenario von Massendaten zu analysieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra
KuestenNebel schrieb:
Welche Karte meinst du konkret? Die Tatsache, dass der oder die beste SchülerIn der Schule in deiner Klasse sitzt, wertet deine Leistung doch auch nicht auf.
Ich habe die Radeon 64 Liquid Cooling. Laut Techpowerup hat die FP32 (float) performance: 13.74 TFLOPS
Die NVIDIA RTX 2080Ti hat nur: FP32 (float) performance 13.45 TFLOPS.
Was verstehst du jetzt nicht?
Und da ich macOS nutze, ist für mich die OpenCL-Leistung ausschlaggebend, nix Cuda.
 
tom1111 schrieb:
Laut Techpowerup hat die FP32 (float) performance: 13.74 TFLOPS
Die NVIDIA RTX 2080Ti hat nur: FP32 (float) performance 13.45 TFLOPS.

Erstens hat deine wassergekühlte Vega nur marginal mehr Leistung, das Standardmodell liegt unterhalb der RTX 2080 Ti:

https://www.techpowerup.com/gpu-specs/radeon-rx-vega-64.c2871

Was passiert wohl, wenn man die Nvidia-Karte wasserkühlt?

Zweitens erreichst du die Leistung nur, wenn du deine Daten korrekt vektorisierst und FP128-Instruktionen nutzt. Einer der Gründe, warum die Vegas ihre Rohleistung selten wirklich ausfahren konnten.

Drittens ignorierst du komplett die Titan-Serie. Selbst die Titan V - das 2017 erschienene Vorgängermodell der noch stärkeren Titan RTX - kommt bereits auf 14,90 TFLOPS FP32 (bei nur 250 W TDP). Diese kannst du sowohl in CUDA, als auch in OpenCL erreichen. CUDA macht einem das Leben lediglich in vielerlei Hinsicht leichter.

Viertens ist CUDA keine Frage des Betriebssystems, sondern der Hardware. Ich programmiere OpenCL-Kernels unter Windows ebenso wie CUDA-Kernels unter Linux. Vielleicht wirfst du auch mal einen Blick in die wunderbare Welt des GPU-Computings? Hier geht's los, wenn du die Kombination macOS plus CUDA testen willst:

https://docs.nvidia.com/cuda/cuda-installation-guide-mac-os-x/index.html
 
Zuletzt bearbeitet von einem Moderator:
KuestenNebel schrieb:
Vollzitat entfernt.
Die NVIDIA Karte gibt es serienmäßig nicht wassergekühlt.
Ich habe die originale AMD Radeon 64 Liquid Cooling 21275-00-radeon-rx-vega64-8g-hbm2-lc
Die Titan ist etwas schneller.
CUDA ist eine Frage des Betriebssystems, da die neueren NVIDIA-Karten von macOS nicht unterstützt werden und die ganze macOS Software OpenCL oder Metal nutzt. Mich interessieren nur Gaming taugliche Grafikkarten.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Es ging hier um ein Referenz Design. Nix custom Kühlblock.
 
Warum streitet ihr über alte Hardware? Big Navi kommt, Ampere kommt. Auch für Vega 64 LC whatever Besitzer wird endlich ein Grund zum Upgrade dabei sein. Mögen die Spiele beginnen!
 
  • Gefällt mir
Reaktionen: PS828
tom1111 schrieb:
Die NVIDIA Karte gibt es serienmäßig nicht wassergekühlt

War ja auch nur als Option genannt. Besagte Titans sind auch luftgekühlt flotter als die Vega 64 LC.

tom1111 schrieb:
da die neueren NVIDIA-Karten von macOS nicht unterstützt werden

Auch wenn es mich selbst mangels Apple-Hardware gar nicht betrifft: Welche Karten betrifft das?

tom1111 schrieb:
und die ganze macOS Software OpenCL oder Metal nutzt

Wie oft denn noch: OpenCL-Kernels laufen auf Nvidia- wie auf AMD-Karten wie auf Intel-iGPUs ...

tom1111 schrieb:
Mich interessieren nur Gaming taugliche Grafikkarten.

Die Titan RTX ist die bei weitem beste Gaming-Karte überhaupt, die Titan V schlägt sich - trotz Compute-Fokus - auch ganz wacker.

pietcux schrieb:
Warum streitet ihr über alte Hardware

"Someone's wrong on the internet"
 
Nachfolger 2080 Ti - 384 bit mit 24GB VRAM (man siehe sich mal die Preise für TITAN RTX an)
Nachfolger 2080S - 320 bit mit 10GB oder wahlweise 20GB VRAM
Nachfolger 2070S - 256t bit mit 8GB oder wahlweise 16GB VRAM
Nachfolger für 2060S - 256bit mit 8GB VRAM
 
@SKu kann ich mir fast nicht vorstellen, auch wenn die Quelle (Igor) sehr oft richtig liegt. Wir werden sehen. Wäre ein Traum, aber wohl ein Albtraum im Preis.
 
Zurück
Oben