News Radeon Pro W6800 und W6600: AMDs Next-Gen für Profis steht in den Startlöchern

tackleberry schrieb:
Wieso sind die Vollausbau Profikarten eigentlich (immer) langsamer in Games als die Varianten für Consumer?
Weil sie für einen anderen Use Case (also das Arbeiten) ausgelegt sind.
 
SV3N schrieb:
Weil sie für einen anderen Use Case (also das Arbeiten) ausgelegt sind.
Aber warum? Leistung müssten die ja mehr haben. Geht es darum Dauereinsatz zu ermöglichen? Ich verstehe nicht warum man von mir aus nicht im Treiber zwei Profile hinterlegen kann. Workstation bei Einsatz mit Software A,B,C, Gaming mit Software Y,X,Z. Weil von der Hardware und der theoretischen Leistung sind die doch immer potenter als die Consumerkarten, oder?

Könnte man die theoretisch mit Gamingkarten Bios flashen? :daumen:

Warum frage ich überhaupt? Weil Geforce 3090 und Co. einfach schwer zu bekommen sind. Ansonsten würde ich garnicht auf solche Ideen kommen.
 
Weil eine Profi-Grafikkarte vom gesamten Konzept her in erster Linie auf Stabilität und nicht auf Spieleleistung ausgelegt ist. Da gehen dann ein paar Prozent zur Gaming-Grafikkarte verloren.
 
  • Gefällt mir
Reaktionen: tackleberry


Rockhound schrieb:
Wie nah stehen sich AMD und
  • Blender
  • After Effects
  • Premiere
  • DaVinci Resolve?

Ernstgemeinte Frage, bin derzeit auf keinem aktuellen Stand.
https://www.pugetsystems.com/all_articles.php
Ergänzung ()

SV3N schrieb:
Weil eine Profi-Grafikkarte vom gesamten Konzept her in erster Linie auf Stabilität und nicht auf Spieleleistung ausgelegt ist. Da gehen dann ein paar Prozent zur Gaming-Grafikkarte verloren.
Sind das in der Vergangenheit dann aber tatsächlich immer nur ein paar Prozent gewesen?
 
Marc53844 schrieb:
Ich glaube wir sprechen aneinander vorbei.
Nein nicht wirklich, denn AMD hatte lange Jahre auch Profikarten im Markt und denoch hat sich mit der Zeit in professioneller Software der CUDA-Support durch gesetzt, obwohl es OpenCL gab.
Marc53844 schrieb:
Ist erstmal ein gewisser Marktanteil vorhanden so wird der Druck nach Alternativen oder Anpassungen größer.
Das hat bei AMD nichts mit dem Marktanteil im professionellen Bereich zutun, sondern viel eher mit der Tatsache, dass AMD über Jahrzehnte es verschlafen hat auch an die Entwickler von entsprechender Software heran zu gehen um sicher zu stellen, dass die Software auf ihre Hardware läuft und die Möglichkeiten nutzt.

Wie ich bereits geschriebe habe: AMD/ATi war sogar vor NVIDIA in dem Bereich Compute aktiv, um genau zu sein sogar ein ganzes Jahr vorher!

NVIDIA ist erst 2007 mit CUDA nachgezogen und mit de CUDA SDK, nur genau hier liegt das Problem: AMD hat ATi übernommen und plötzlich fehlte das Geld, gut ATi vorher hat auch nicht so viel Wert auf Support für Entwickler gelegt, nur mit der Übernahme ist das ganz weggebrochen, während NVIDIA seit 2007 ständig am CUDA SDK gearbeitet hat und nicht nur das, sie haben Workshops, Seminare und Co abgehalten und halten die heute noch ab, dazu kommt, dass sie aktiv auf Firmen zugegangen sind und dort anfingen die Entwickler beim CUDA-Support unterstützten.

Die Martkmacht von CUDA kommt heute nicht daher, dass NVIDIA ab ca. 2015 quasi alleine auf dem Markt aggierte, die Marktmacht von CUDA hat sich schon davor zementiert, weil NVIDIA mit den Entwicklern zusammen gearbeitet hat, während AMD das hat schleifen lassen.
Marc53844 schrieb:
Das muss natürlich erstmal geschafft werden aber AMD hat sowas nicht zum ersten Mal bewiesen.
Wenn AMD weiterhin nur "Hardware" auf den Markt wirft und die Entwickler von entsprechenden Programmen nicht unterstützt, dann wird AMD im professionellen Bereich der ContentCreator - zumindest was die GPU angeht - weiterhin keine Rolle spielen.

Denn solange CUDA als API für viele Programme die hauptsächlich verwendete API ist, kann AMD und Intel einpacken. Intel hat das Dilemma erkannt, wie geschrieben, die arbeiten nicht umsonst an oneAPI als offenen Standard und Intel geht mit oneAPI sogar aktiv an die Firmen heran und bietet Entwicklungsunterstützung, eben weil man sonst die Bastion CUDA nicht knackt!
ErichH. schrieb:
Aber ohne größeren Extraufwand (neues System / Boot unter Linux etc.) geht das aktuell nicht.
Du machst deinen Master in diesen Bereich und es scheitert dann daran ein Linux mit ROCm aufzusetzen? Echt jetzt? ;)

Klar, es ist mit NVIDIA einfacher, weil man einfach für die gängisten Frameworks die CUDA-Treiber installiert und es laufen lässt, gerade unter Windows, aber selbst ich bekomme es hin, dass ich meine ganzen Dev-Tools unter Linux installiere und da programmieren kann und das, was ich aus Windows brauch in ner VM laufen lasse oder umgekehrt. Ist zwar etwas Konfiguration und Hirnschmalz, aber es lohnt sich.
SV3N schrieb:
Hinsichtlich der Leistung in OpenCL platziert sich die Profi-Grafikkarte leicht oberhalb einer GeForce RTX 3070 (Test), die auf rund 136.000 Punkte kommt.
Was durchaus gut ist, wenn man bedenkt, wie viele ALUs die 3070 hat und die RX6800. Bei solchen Tests sind halt ALUs nur durch mehr ALUs zu ersetzen, den Rest kann man einfach abfangen.
 
  • Gefällt mir
Reaktionen: LukS, cirrussc, konkretor und 2 andere
@tackleberry die Treiber Adrenalin und pro Software unterscheiden sich mehr als nur in der Farbe :D auch sind die Garantiezeiträume besser, der VRAM ist meist EEC VRAM (und doppelt so groß), die Dinger haben eine offizielle 24/7 Zertifizierung (ändert in der Realität aber nicht viel)

sie besitzen meist die volle FP64 Freischaltung was Nvidia meist überhaupt nicht kann oder will aber wer das braucht ist damit halt Super schnell unterwegs (FP32:FP64 Verhältnis 2:1)
 
tackleberry schrieb:
Sind das in der Vergangenheit dann aber tatsächlich immer nur ein paar Prozent gewesen?
Wenn man den Profi-Beschleuniger mit dem Treiber der Gaming-Grafikkarte betreibt bzw. betreiben kann durchaus. Wenn man zusätzlich den bis ins Letzte auf Spiele optimierten Treiber gegen einen stabilen und für das Arbeiten ausgelegten Treiber ersetzt, wird der Abstand noch einmal etwas größer.

Sowohl Hardware als auch Software sind im Profi- und Enterprise-Segment halt null auf Spiele hin optimiert.
 
PS828 schrieb:
sie besitzen meist die volle FP64 Freischaltung was Nvidia meist überhaupt nicht kann oder will aber wer das braucht ist damit halt Super schnell unterwegs (FP32:FP64 Verhältnis 2:1)
Wobei das bei NVIDIA auch praktische Gründe hat, während es bei AMD eher Software-Hintergründe hat, denn die Vec-ALUs sind quasi die gleichen. XD
 
  • Gefällt mir
Reaktionen: PS828
Dennoch traue ich es AMD zu, aus Fehlern gelernt zu haben.

Mal abwarten.
 
  • Gefällt mir
Reaktionen: ViridisVis
Sehr interessant. Double Precision ist schon ne feine Sache für bestimmte Anwendungen.

Mal ne noobige Frage: wäre DP auch für Miner vorteilhaft...? Dann kaufen die die Profikarten ja auch wieder weg
 
Marc53844 schrieb:
Dennoch traue ich es AMD zu, aus Fehlern gelernt zu haben.
Da sind sie ja dran, wenn man sich ansieht, was sie bei ROCm machen, aber das wird halt auch Zeit brauchen.
Ergänzung ()

Barren Militia schrieb:
Mal ne noobige Frage: wäre DP auch für Miner vorteilhaft...? Dann kaufen die die Profikarten ja auch wieder weg
Nein, DP ist für Miner absolut irrelevant, praktisch gesehen ist für die meisten Miner selbst die SP-FLOPs vollkommen irrelevant, könnte man die nicht quasi mit INT32 gleichsetzen, denn auf die INT32-Leistung kommt es für die Miner an, da sie ja einen Hash erstellen, da ist Float quasi raus.
 
  • Gefällt mir
Reaktionen: Barren Militia
Ah ok danke euch. Ich dachte AMD macht da einen kompletten Cut. Aber gut wenn das für das Segment reicht und es nicht spezieller sein muss dann passt das ja.
 
Teralios schrieb:
Du machst deinen Master in diesen Bereich und es scheitert dann daran ein Linux mit ROCm aufzusetzen? Echt jetzt? ;)

Klar, es ist mit NVIDIA einfacher, weil man einfach für die gängisten Frameworks die CUDA-Treiber installiert und es laufen lässt, gerade unter Windows, aber selbst ich bekomme es hin, dass ich meine ganzen Dev-Tools unter Linux installiere und da programmieren kann und das, was ich aus Windows brauch in ner VM laufen lasse oder umgekehrt. Ist zwar etwas Konfiguration und Hirnschmalz, aber es lohnt sich.
Hi Teralios,

das scheitert nicht zwangsläufig am Können, sondern schlicht an der Zeit (berufsbegleitender Master) und am Scope der Arbeit. Die hat nicht Deep Learning unter Linux als wesentlichen Inhalt, sondern die Anwendung von Algorithmen. Und ich denke wir sind uns einig, wenn wir festhalten, dass der IT-Bereich inzwischen etwas zu groß ist, um auf allen Gebieten fachlich so sattelfest zu sein, dass man ohne nennenswerten Extraufwand so etwas aus dem Ärmel schüttelt. Und warum sollte es mit AMD nicht so einfach sein wie mit NVIDIA / Cuda? Das ist aus meiner Sicht eben bedauerlich und das bringe ich hier zum Ausdruck.

Viele Grüße
ErichH.
 
SV3N schrieb:
Weil eine Profi-Grafikkarte vom gesamten Konzept her in erster Linie auf Stabilität und nicht auf Spieleleistung ausgelegt ist. Da gehen dann ein paar Prozent zur Gaming-Grafikkarte verloren.
Die Zahl der echten Ausgänge ist auch ein wesentliches Kriterium.

Ebenso das (mögliche?) Single-Slot Design im Pro Einstiegssegment bzw. die reduzierten Power-Targets - Modelle ohne extra GPU Stromversorgung. (ehem. Fire Pro / Radeon Pro : W / WX 2...,3....,4....,5... Modelle)

6 Ausgänge auf 1 Single Slot bzw. 4 Ausgänge auf Low-Profile Single Slot.

iGPU Desktop AM4 unterstützt wohl nur 3 (wg. Pin Mangel), während "Mobile"/"Embedded" (=Industrie, Business) iGPU 4 Ausgänge unterstützt. [1]
Im Forum hier fragen User zB ab und zu nach 4 Monitoren - und wollen vlt. keine Kraftwerk-GPU betreiben - bei Kiosk / Überwachung / "Leitwarten" oder Kunst (Video-Wall) sind >4 Monitore auch beliebt.

Die Ausgänge sind durch Anzahl der Display Controller Einheiten und der vorhandenen Display-PHY gegeben.

[1] q: reddit, renoir #display phy, Linux Radeon Hardware Eigenschaften
 
  • Gefällt mir
Reaktionen: PS828
@lokon korrekt. Der Displayoutput ist im Vergleich zu den consumerkarten sehr stark aufgebohrt und zusätzlich gibt es spezielle Lösungen die es ermöglichen noch mehr Displays zu verbinden.

An dieser Stelle sei an ein Sync Modul erinnert welches übergreifende Anzeigen in großem Massstab ermöglicht. Ich nehme an Nvidia hat auch sowas aber da fällt mir der name nicht ein. Die AMD Lösung geht für bis zu 24 Monitore in 4k60

10-1260.71d25fa2.jpg


Das stammt aus der Vorstellung für die Radeon Pro VII. Ich gehe davon aus dass dies mit den neuen Karten auch funktioniert.
 
Normalerweise finde ich möglichst viele DisplayPort-Ausgänge auf einer Karte gut. Aber könnte zumindest ein echter HDMI 2.1-Ausgang verbaut werden, um Geräte wie LGs OLED-TVs ordentlich ansteuern zu können?

Alternativ sollen AMD oder NVIDIA bitte einen tatsächlich stabil funktionierenden aktiven DisplayPort 1.4-zu-HDMI 2.1-Adapter veröffentlichen, damit Kunden nicht mehr den Elektroschrott von Club 3D & Co. testen müssen.
 
@JBG HDMI sehe ich bei Quadro und Radeon Pro eigentlich nie. Ist immer Displayport oder mini Displayport. (Ausnahmen gibt es sicher aber ist mir noch nicht unter gekommen)

Die Chancen stehen aber nicht schlecht dass sie irgendwann (vielleicht schon mit diesen Karten) DP2.0 bringen, was mit Adaptern HDMI 2.1 gut versorgen können sollte.
 
@PS828

Ja, das ist mir als Quadro- und Radeon Pro-Nutzer ebenfalls bekannt, ich hatte aber offen gesagt nicht damit gerechnet, dass aktive HDMI 2.1-Adapter so lange nichts Brauchbares werden (Fuck Farbunterabtastung! 🙃).

Alternativ könnten auch gerne LG & Co. DisplayPort-Eingänge an den TVs anbringen...
 
  • Gefällt mir
Reaktionen: PS828
Zurück
Oben