News Radeon Pro W5500: Der kleine Navi 14 als professionelle Grafikkarte

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.807
Dabei seit
Juli 2018
Beiträge
207
Das mit der CPU habe ich schon lange gedacht... Dadurch das nen Teil des Workloads unter DX 11 mit Nvidia auf die CPU ausgelegt wird (dx11 multi-threading) sollte die Belastung der CPU ja höher sein... Ob es 50w ist, wage ich erstmal aber zu bezweifeln....
Aber vllt gibt es Usecases/workloads im prof bereich wo es hinkommt :)
 

[wege]mini

Captain
Dabei seit
Juli 2018
Beiträge
3.175
Irgend wie ist der kleine Navi echt mies gelungen.

Bei 75 Watt und darunter zu langsam, bei 125 Watt kann man schon fast den größeren mit kleinen Taktraten laufen lassen.

So richtig ist das Teil weder Fisch noch Fleisch. Das wird auch als "Profi-Version" nicht perfekt.

mfg
 

Summerbreeze

Lt. Commander
Dabei seit
Mai 2019
Beiträge
1.161
Irgendwie schon ein bisschen Blöd.
So ne kleine Karte ist ja eigentlich als Sparbrötchen gedacht. Damit muss jetzt aber zwingend auf die teureren X570 Bretter gesetzt werden, wenn man keine größeren Einbrüche in der Leistung haben möchte.
Finde ich jetzt nicht so gut.
 

PS828

Commander
Dabei seit
Juni 2019
Beiträge
2.296
Mir hat das alte radeon pro Design besser gefallen ohne den weißen Strich in der Mitte :D

Aber ungeachtet davon braucht Navi noch ein wenig Zeit, besonders die kleinen RDNA1 karten sind bisher noch ein wenig teuer, auch wenn sie sehr Effizient sind. Hier denke ich wird es mit RDNA2 Signifikante Fortschritte geben.
 

itsBK201

Lt. Commander
Dabei seit
Apr. 2017
Beiträge
1.359
Ich dachte für "professionelle" Bereiche wäre die GCNx Architektur stärker gewesen?
 

JBG

Lt. Junior Grade
Dabei seit
Aug. 2015
Beiträge
460
Frage an jene, die sich auf dem gesamten Markt auskennen:

Wäre dieses Modell die erste Navi-Grafikkarte generell, die in einem 1-Slot-Kühler-Design erscheint?

Bräuchte so ein Modell und auf Polaris wollte ich bei einer Neuanschaffung nicht mehr setzen :-/

(soll wegen macOS und VM-Geschichten eine AMD-GPU sein, da NVIDIA hier gerne Zicken macht, die ich mir immer öfter einfach sparen möchte)
 

Sysworker

Lt. Junior Grade
Dabei seit
Okt. 2011
Beiträge
455
Den "Mist" kann sich AMD gerne wohin stecken. Nach vielen Jahren bei AMD wird meine nächste Grafikkarte wohl eher wieder eine NVidia.
1. Nur x8 PCIe Interface kommt bei Motherboards mit PCIe3.0 nicht so gut
2. Die AMD Treiber sind echter Schrott. Nachdem letztes Jahr Photoshop immer wieder mit defekter Grafik auffiel, oder sich die 10Bit Ausgabe nicht aktivieren ließ, stürzt jetzt der Treiber ständig ab. Da kommt dann der Windows Hinweis: Auf Standard MS Treiber zurückgeschaltet :grr: Am 12.02. soll ja wieder ein Treiber Update kommen, mal sehen was der für Bugs hat.
3. Zu teuer; bei NVidia muss man keine Quadro mehr kaufen um eine 10Bit Display Ausgabe für Grafikbearbeitung zu bekommen. Somit reicht eine Consumer Karte ab 200€

Bei der CPU werde ich allerdings gegen Ende des Jahres auf AMD umschwenken. Hätte an so etwas wie ein 4900X gedacht, der i4770K kommt manchmal ganz schön ins Schwitzen bei größeren Bildern und das schon bei wenigen Bearbeitungsschritten. Manchmal habe ich das Gefühl den Lüfter direkt mit den LR Schiebereglern steuern zu können :D. Ziehe am Dunst- oder Schärferegler und schon höre ich den Lüfter hochdrehen (Noctua U14S)

Tschuessikowski
 
Zuletzt bearbeitet:

JBG

Lt. Junior Grade
Dabei seit
Aug. 2015
Beiträge
460
@Sysworker

Bei einer Radeon VII kann ich auch mit den Adrenalin-Konsumenten-Treibern in Photoshop CC2020 die 10-bit-Display-Ausgabe in den erweiterten Leistungseinstellungen aktivieren.

Hat AMD hier vielleicht auf die Studio-Treiber von NVIDIA reagiert?

Offiziell heißt es vom AMD-Support, dass diese Funktion non-Radeon Pros nicht "unterstützt" sei, aber vielleicht heißt hier "nicht unterstützt", dass es zwar keinen Support bei Bugs etc. gibt, aber auch nicht wie früher aktiv deaktiviert wird (ähnlich wie ECC bei Ryzen/Threadripper).
 

Sysworker

Lt. Junior Grade
Dabei seit
Okt. 2011
Beiträge
455

JBG

Lt. Junior Grade
Dabei seit
Aug. 2015
Beiträge
460
Das NEC-Tool sagt, es würde nicht unterstützt.

Kann es sein, dass bei Photoshop durch den Wechsel auf OpenCL für die Hardwarebeschleunigung die Limitierung von OpenGL-10 bit-Fensteranwendungen nicht mehr greift?
 

tyranTyran

Banned
Dabei seit
Feb. 2020
Beiträge
14
soll oder kann?
Das
teil kommt 2 Jahre zu..spt.

Wegen dem Treiber-Gequirkse bin ich zu Davinci Resolve, weil das mit Karten ( Nvidia / Amd) handsomer umgeht.
Adobeeey.ja. Da hat man das stein uralte Photishop und schaut beim 2020 Photishop ob..
Ganz nett wird es wennn ich die Echtzeitvorschau im Houdini.. was red ich... da ZEITNURGELD.

es wäre so nice wenn Grakoleute Grako-treiber-macher Moni-bauer Os-leute etz sich zusammen hocken und sagen wir machen nu datt Ding.

ich liebe mein AMD / NVIDIA GRAKO SAMMLUNG.. wirklich :)
Ergänzung ()

noch mehr liebe ich den video-codec meines hua wei p 300 supaheftik...
 

Sysworker

Lt. Junior Grade
Dabei seit
Okt. 2011
Beiträge
455
@JBG

Nein, genau das ist wohl das Problem. HDR & 10Bit Farbausgabe funktionieren bei Direct X, bei OpenCL in der Fensterausgabe nicht. War hier auch irgendwo letztens zu lesen als es um die NVidia Treiber ging.
 

fox40phil

Commander
Dabei seit
Okt. 2008
Beiträge
3.047
soll oder kann?
Das
teil kommt 2 Jahre zu..spt.

Wegen dem Treiber-Gequirkse bin ich zu Davinci Resolve, weil das mit Karten ( Nvidia / Amd) handsomer umgeht.
Adobeeey.ja. Da hat man das stein uralte Photishop und schaut beim 2020 Photishop ob..
Ganz nett wird es wennn ich die Echtzeitvorschau im Houdini.. was red ich... da ZEITNURGELD.

es wäre so nice wenn Grakoleute Grako-treiber-macher Moni-bauer Os-leute etz sich zusammen hocken und sagen wir machen nu datt Ding.

ich liebe mein AMD / NVIDIA GRAKO SAMMLUNG.. wirklich :)
Ergänzung ()

noch mehr liebe ich den video-codec meines hua wei p 300 supaheftik...
Ganz ehrlich...ich verstehe kein einziges Wort :D!

Immerhin hat sie 8GB!
 

JBG

Lt. Junior Grade
Dabei seit
Aug. 2015
Beiträge
460
@JBG

Nein, genau das ist wohl das Problem. HDR & 10Bit Farbausgabe funktionieren bei Direct X, bei OpenCL in der Fensterausgabe nicht. War hier auch irgendwo letztens zu lesen als es um die NVidia Treiber ging.
Könntest Du mir meinen Denkfehler aufzeigen?

  • 10 bit-Monitor hängt am DisplayPort der VII
  • Im Treiber ist Full RGB mit 10 bpc-Farbe eingestellt
  • In Photoshop ist die 30 bit-Anzeige aktiviert

Erstelle ich nun eine neue Datei mit RGB/16 bpc-Farbe (statt normalerweie 8) und nehme einen Filter, der via OpenCL beschleunigt werden kann, sehe ich im Task-Manager eine "3D"-Auslastung der GPU.

Ich hätte gedacht, dass dann eine Art Software-Renderer herhalten müsste, der ausschließlich die CPU beansprucht...?
 

Summerbreeze

Lt. Commander
Dabei seit
Mai 2019
Beiträge
1.161
Die AMD Treiber sind echter Schrott. Nachdem letztes Jahr Photoshop immer wieder mit defekter Grafik auffiel, oder sich die 10Bit Ausgabe nicht aktivieren ließ, stürzt jetzt der Treiber ständig ab. Da kommt dann der Windows Hinweis: Auf Standard MS Treiber zurückgeschaltet :grr: Am 12.02. soll ja wieder ein Treiber Update kommen, mal sehen was der für Bugs hat.
Du sprichst vom Enterprise Treiber? Das fände ich dann doch seltsam.
Ich habe den stets als Stabil und funktionierend empfunden.
Übrigens ist der heute schon raus gekommen.
Ich weiß ja nicht, ob Du dir vorher noch die bekannten Fehler durchließt,
ist aber meist schon sinnvoll. ;)
Als ich mal mit dem Treiber / der Karte ein Problem gehabt habe, habe ich dort angerufen und das Problem wurde gelöst.
Die haben mir drei Tage später einen Patch geschickt und den Fehler im nächsten Treiber auch behoben.
Wofür haben die denn sonst 24/7 Support? Den hast ja schließlich mit der Karte bezahlt.
Ich muss aber auch nicht jedes viertel Jahr nen neuen Treiber drauf bügeln, wenn alles funktioniert.
 

Sysworker

Lt. Junior Grade
Dabei seit
Okt. 2011
Beiträge
455
Könntest Du mir meinen Denkfehler aufzeigen?

  • 10 bit-Monitor hängt am DisplayPort der VII
  • Im Treiber ist Full RGB mit 10 bpc-Farbe eingestellt
  • In Photoshop ist die 30 bit-Anzeige aktiviert

Erstelle ich nun eine neue Datei mit RGB/16 bpc-Farbe (statt normalerweie 8) und nehme einen Filter, der via OpenCL beschleunigt werden kann, sehe ich im Task-Manager eine "3D"-Auslastung der GPU.

Ich hätte gedacht, dass dann eine Art Software-Renderer herhalten müsste, der ausschließlich die CPU beansprucht...?
Auch wenn 10Bit eingestellt ist, läuft der OpenCL mit 8Bit. Die 10Bit sind IMHO bei nicht Pro Karten nur bei Direct X relevant. Bei mir zeuigt der AMD Treiber die Auswahl 8/10/12 Bit nur bei einer HDMI Verbindung an, bei Display Port kann ich das gar nicht auswählen. Die 10Bit Ausgabe ist nur im Erweiterten Radeon Pro-Einstellungen wählbar. Dann funzt auch das NEC Tool und die 10Bit Graustufen Demo.psd wird in PS ohne Abstufungen angezeigt. Dämlicherweise kann man im PS die 30Bit Ausgabe einstellen, ohne dass das die Grafikkarte unterstützt. Würde Adobe das bei einem nicht geeigneten Viewport (nennt man das heute noch so? - Grafik programiert habe ich das letzte mal vor 25Jahren) disabeln wären manche Dinge klarer.

@Summerbreeze
PS CC ist eben nur beim abspeichern - nach dem finalen Schärfen - abgestürzt. Heute konnte ich aber durch Schließen des Fensters zumindest die Abfrage zum abspeichern noch bekommen. ... hatte schon "Grafikprozessor zur Beschleunigung..." abgeschaltet ! Könnte mal probieren auch noch OpenCL abzuschalten. LR hat kein Problem.
 

BxBender

Ensign
Dabei seit
Juli 2019
Beiträge
144
Irgendwie schon ein bisschen Blöd.
So ne kleine Karte ist ja eigentlich als Sparbrötchen gedacht. Damit muss jetzt aber zwingend auf die teureren X570 Bretter gesetzt werden, wenn man keine größeren Einbrüche in der Leistung haben möchte.
Finde ich jetzt nicht so gut.
Das siehst du völlig falsch.
PCI-E 3.0 funktioniert genaus gut.
Nur wenn du eine 4GB Karte im Gaming Segment kaufst, bekommst du bei Grafikkrachern Probleme mit dieser Karte.
Solange der Speicher aber für deine Anwendung groß genug ist, passiert auch nichts.
Also Gegenfrage: warum sollte AMD auf die Idee kommen, eine Karte auf den Markt zu werfen, die gar nicht für den Profi-Bereich geeignet ist? Das wäre Selbstzerstörung pur.
Für uns ist so eine Karte mehr als ausreichend.
Wir verwenden SolidWorks, ohne Realview. Oft EInzelkomponenten, nur manchmal etwas größere Baugruppen mit bis zu ca. 500 Teilen.
Da passiert dann nichts, weil wir sogar jahrelang mit 512MB(!) Karten gearbeitet haben.
Und wir bekommen demnächst sogar noch die K2200 von NVidia reingesteckt, wenn der IT Mitarbeiter nach einem Jahr mal die Rechner austauschen würde.
Dann haben wir also derzeit nur 4 oder 5GB Karten im Umlauf, wo dann aber über Jahre erst einmal wieder mit gearbeitet werden muss.
Profis, die bei großen Firmen mit richtig fetten Baugruppen arbeiten, lachen über so etwas, aber dafür ist so eine Wegwerfkarte mit so extrem geringer Leistung ja auch nicht gemacht.
Die nehmen für 5stellige Beträge Karten wie eine Titan mit 24GB RAM. Gleich 2 davon.
Ergänzung ()

Den "Mist" kann sich AMD gerne wohin stecken. Nach vielen Jahren bei AMD wird meine nächste Grafikkarte wohl eher wieder eine NVidia.
1. Nur x8 PCIe Interface kommt bei Motherboards mit PCIe3.0 nicht so gut
2. Die AMD Treiber sind echter Schrott. Nachdem letztes Jahr Photoshop immer wieder mit defekter Grafik auffiel, oder sich die 10Bit Ausgabe nicht aktivieren ließ, stürzt jetzt der Treiber ständig ab. Da kommt dann der Windows Hinweis: Auf Standard MS Treiber zurückgeschaltet :grr: Am 12.02. soll ja wieder ein Treiber Update kommen, mal sehen was der für Bugs hat.
3. Zu teuer; bei NVidia muss man keine Quadro mehr kaufen um eine 10Bit Display Ausgabe für Grafikbearbeitung zu bekommen. Somit reicht eine Consumer Karte ab 200€

Bei der CPU werde ich allerdings gegen Ende des Jahres auf AMD umschwenken. Hätte an so etwas wie ein 4900X gedacht, der i4770K kommt manchmal ganz schön ins Schwitzen bei größeren Bildern und das schon bei wenigen Bearbeitungsschritten. Manchmal habe ich das Gefühl den Lüfter direkt mit den LR Schiebereglern steuern zu können :D. Ziehe am Dunst- oder Schärferegler und schon höre ich den Lüfter hochdrehen (Noctua U14S)

Tschuessikowski
Soll ich dir was sagen? Es gibt genügend Leute, die den gleichen Kram über NVidia schreiben.
Die Treiber sind nicht besser, das ist absoluter Irrglaube.
Ich verwende in der Firma seit 20 jahren "Profikarten" von NVidia ein, meinst du das läuft mal ordentlich?
Es gab und gibt immer Macken mit der eingesetzten Software und auch Hardware.
Ruckelorgien im Arbeitsbereich, "Igel"-Modelle bei der Drehung, Anzeigefehler (z.B. plötzlich fehlende Elemente), Abstürze, sogar dieser Hardwarebug mit nicht erkanntem Dual-Monitor-Betrieb bei Display-Port-Nutzung wegen WQHL-Auflösung hält sich wahllos hartnäckig in der ganzen Firma.
Die Probleme kommen und gehen wie sie wollen, jeder Hardware und Softwarewechsel (Jahres-Upgrade) bringt das Roulette wieder in Gang.
Also ich denke mal, das wird AMD nicht unbedingt toppen können.
Im privaten Sektor habe ich auch mit AMD und nVidia imemr mal wieder so kleine Dinger erlebt.
Vor ein paar Jahren hatte ich mit AMD mal im Browser Probleme mit grünen oder schwarzen Videos, wo ich dann nur den Sound gehört habe. Auch nicht immer und auf allen Seiten, auch Codecs etc. waren eigentlich alle drauf.
Mit Nvidia gingen letztens plötzlich ein paar Spiele nicht mehr.
Erst als ich den MSI Afterburner ausgemacht habe, obwohl der damit vorher doch anstandslos funktioniert hat.
In beiden Fällen habe ich nicht klären können, woran es lag, obwohl ich alles ausprobiert habe.
Zudem meint man ja auch imemr gleich, es liegt an der Grafikkarte, wenn etwas nicht klappt.
Aber vielleicht liegt es an den Anwendungen, oder Drittsoftware, oder gar am Betriebsysystem, evtl. mag sich sogar bestimmte Hardware nicht? Oder das eine wegen dem anderen?
Also wie man sieht, nur weil man meint, über einen gewissen Zeitraum verschont geblieben zu sein, muss es ja nicht zwangsläufig ein Indiz für die Allgemeingültigkeit zu sein.
Ich nenne es Glückssache.
Natürlich bin ich natürlich auch der Meinung, man solle bei anhaltenden Problemen mal was anderes versuchen, also den Hersteller wechseln, genauso wie man funktionierende Ökosysteme lieber nicht so schnell abändern sollte, wenn es dafür keinen besonderen Grund gibt.
 
Zuletzt bearbeitet:

Summerbreeze

Lt. Commander
Dabei seit
Mai 2019
Beiträge
1.161
Das siehst du völlig falsch.
PCI-E 3.0 funktioniert genaus gut. ]...]
Wir verwenden SolidWorks, ohne Realview. Oft EInzelkomponenten, nur manchmal etwas größere Baugruppen mit bis zu ca. 500 Teilen.
Da passiert dann nichts, weil wir sogar jahrelang mit 512MB(!) Karten gearbeitet haben.
Und wir bekommen demnächst sogar noch die K2200 von NVidia reingesteckt, wenn der IT Mitarbeiter nach einem Jahr mal die Rechner austauschen würde.
Es ist halt unnötig. Darüber habe ich mich bemuckelt. ;)
Und wenn Du dir mal den Grundlagenartikel zu PCIe 3 / 4 bei IgorsLab durchließt, hat PCIe 4 schon seine Vorteile. Und dann das Interface halbiert. Selbst im 2D werden die Daten da mal knapp.

Echt, ihr rüstet auf eine K2200 auf?
Und ich hab die W5000 in Rente geschickt ;)
Gut, die 2200 hat den doppelten Speicher, aber ansonsten hat die W5000 Kreise um die K2000 gezogen.
Aber irgendein Titan / RTX Monster brauchts wirklich nicht in der Konstruktion.
Ergänzung ()

Aber vielleicht liegt es an den Anwendungen, oder Drittsoftware, oder gar am Betriebsysystem, evtl. mag sich sogar bestimmte Hardware nicht? Oder das eine wegen dem anderen?
Jepp
Das Problem sitzt oft vor dem Bildschirm ;)
 

BxBender

Ensign
Dabei seit
Juli 2019
Beiträge
144
Es ist halt unnötig. Darüber habe ich mich bemuckelt. ;)
Und wenn Du dir mal den Grundlagenartikel zu PCIe 3 / 4 bei IgorsLab durchließt, hat PCIe 4 schon seine Vorteile. Und dann das Interface halbiert. Selbst im 2D werden die Daten da mal knapp.

Echt, ihr rüstet auf eine K2200 auf?
Und ich hab die W5000 in Rente geschickt ;)
Gut, die 2200 hat den doppelten Speicher, aber ansonsten hat die W5000 Kreise um die K2000 gezogen.
Aber irgendein Titan / RTX Monster brauchts wirklich nicht in der Konstruktion.
Ergänzung ()


Jepp
Das Problem sitzt oft vor dem Bildschirm ;)
Jetzt muss ich glatt überlegen. P2000 oder k2200, was ist Maxwell, was ist pascal? Der neuere kommt demnächst bei allen in den PC, das andere hab ich noch drin. Ist natürlich uralt, aber die IT ist halt so langsam udn manchmal nicht ganz nachvollziehbar.

Klar hat PCI-E 4 schon so seine Vorteil. Nur bei der Navi Karte an sich nicht, solange der Speicher nicht überläuft.
Unsere Modelle haben Null Texturinformationen, Spiele sind sehr viel mehr anspruchsvoller. Wolfenstein bricht jedem das Genick, vor allem mit Raytracing sind 8GB in FullHD eigentlich schon bald zu wenig.
Wer richtig was mit Grafik macht, wird mit den kleinen Chips ja eh nicht glücklich.
 
Top