News Radeon Pro Duo 2.0: Dual-Polaris und 32 GB GDDR5 für 1.000 US-Dollar

Nur mal eine frage. Würde auf der Karte den ganz normal Crossfire laufen zum Gamen mit 2x16GB VRAM oder is das nicht machbar?
 
HominiLupus schrieb:
Das ist eine Karte für Leute ohne Verstand gemacht von Leuten ohne Verstand.

Wie die Titanen .. absolut überteuert und überflüssig für Spieler (xx80ti).

.... auch wenn mir das Marketing derzeit nicht wirklich gefällt im GPU Bereich bei AMD, wird VEGA dennoch gekauft.
Von einem absoluten Fail gehe ich nicht aus.

1080 Leistung bei ähnlichem Preis und 8 GB HBM² .. dann ist das völlig ok für mich.
 
HominiLupus schrieb:
Doch sie ist zum Zocken gemacht. Nur eben Leute die beim Zocken arbeiten weil sie das Zockmaterial entwickeln. Es ist keine Workstationkarte weil der Treiber dafür ungeeignet ist, es nur Zockertreiber gibt. Deswegen sind die auch kaum für CAD und Co geeignet.
Wie man den Rotz nennt ist dabei egal. Das ist pures nutzloses Marketing.

alter schwede, unsinn und noch mehr unsinn. und das ganze dann als fakt setzen. leute die beim zocken arbeiten weil sie zockmaterial entwickeln? wow, du hast eine fantastische welt. unglaublich viel halbwissen und unwissenheit.

gruß
 
HominiLupus schrieb:
Sie ist nicht günstig sondern schweineteuer: das ist ja keine Workstation Karte für CAD und Co sondern eine mickrige Radeon fürs Fussvolk, die Spieler.

Langsam mache ich mir Sorgen um Vega: AMD muss Vega rausbringen, nicht solche Nischenprodukte die kein Schwein kauft. Wenn sie ihre Ingenieure aber für solchen Blödsinn bezahlen statt Produkte die Umsatz bringen zu veröffentlichen muss mit diesen Produkten was schwer im Argen liegen.

Aus reiner interesse, gibt es dazu verkaufszahlen?
Ergänzung ()

[eTP]AcCiDeNt schrieb:
1080 Leistung bei ähnlichem Preis und 8 GB HBM² .. dann ist das völlig ok für mich.

und 2x mehr Verbrauch? :)
 
@El_Chapo: Wäre vielleicht ernstzunehmen, wenn Vega ein großer Polaris mit 4096 Shadern und dem angepeilten Takt wäre -- aber, Überraschung, Vega nutzt eine neue Architektur, die zufälligerweise Vega heißt. Die wird so ähnlich wie Maxwell ein Tiled Rasterizer bzw. Tiled Rasterizer-ähnlich, was alleine schon durch deutliche Reduzierung von Speicherzugriffen mehr Effizienz verspricht. Dazu kommt HBM Speicher, der energieeffizienter als GDDR5 arbeitet. Noch dazu ist Vega abgeblich auf höheren Takt optimiert, der Sweetspot von Polaris ist ja schon lange überschritten mit 1300Mhz, ganz zu schweigen von den annähernd 1500 Mhz der Partnerdesigns, die auch Vega braucht für die Rohleistung bei der Instinct 25. Damit ist vom doppelten Verbrauch der RX580 auszugehen unsinnig, der dürfte locker bis sehr deutlich unterboten werden.
 
xeonking schrieb:
alter schwede, unsinn und noch mehr unsinn. und das ganze dann als fakt setzen. leute die beim zocken arbeiten weil sie zockmaterial entwickeln? wow, du hast eine fantastische welt. unglaublich viel halbwissen und unwissenheit.

Ja, Leute die Spiele testen spielen. Stell dir das mal vor... Leute die diese Spiele entwickeln spielen auch während des Entwickelns. Während der Arbeitszeit! Das ist Spiel, ob es dir passt oder nicht. Hardware die dazu genutzt wird ein Spiel auszuführen ist nunmal Zockerhardware, da beißt die Maus keinen Faden ab.
Die Arbeiter/Spieler dort mögen es nicht sehr entspannend finden, und es nicht zur Entspannung tun, aber sie spielen.
Hast du schon jemals überhaupt ein Programm geschrieben und weißt was man da macht?

Tendance hat da einen guten Einwand gebracht den ich nicht bedacht habe: bei der Entwicklung braucht man aus vielerlei Gründen mehr RAM als sonst und da ist so was sinnvoll. Wenn man bedenkt wie nah die neuen Konsolen bei Polaris sind vielleicht doppelt (obwohl die Konsolen doch auch sehr sehr anders als ein PC aufgebaut sind). Da könnte man die Karte vielleicht verwenden, oder auch nicht: ich bin kein Konsolenprogrammierer, aber zumindest eine Möglichkeit in einem Devkit.
Du hingegen schreibst definitiv noch mehr Blödsinn als ich.
 
die alte Radeon Pro Duo war sowohl kompatibel mit dem normalen Treiber als auch mit dem Workstation-Treiber. Das gilt mit Sicherheit auch für die neue. Laut der offiziellen Produktseite wird ihre Workstationperformance auch direkt mit der WX7100 verglichen, welche ebenfalls auf Polaris basiert.
The Radeon Pro Duo, the world’s first dual-GPU professional graphics solution, can accelerate supported applications or plug-ins for many of today’s popular professional software such as Autodesk® Maya®, DaVinci® Resolve®, The Foundry® Mari® and Dassault Systèmes® SOLIDWORKS®. With 32GB of GDDR5 memory, and two GPUs working in parallel, the Radeon™ Pro Duo delivers up to 113% faster performance than the Radeon™ Pro WX 7100 in Autodesk® Maya® with the Radeon ProRender plugin1, reducing the amount of time needed to achieve a users’ final design.​​
 
Rage schrieb:
Damit ist vom doppelten Verbrauch der RX580 auszugehen unsinnig, der dürfte locker bis sehr deutlich unterboten werden.

AMD ist nicht nvidia (nvidia muss immer die schnellste Karte haben, koste es was es wolle, die produzieren auch leafblower und thermis wenn es nicht anders geht), aber ich denke auch AMD wird den Chip so hoch wie möglich ausreizen und solange Spannung draufgeben bis die ~200-250W erreicht sind. Wenn es hilft nvidia zu schlagen werden sie es tun. Aber 300+W werden sie bei einem neuen Design auch nicht wollen: sie sind ja nicht nvidia.
 
HominiLupus schrieb:
Du hingegen schreibst definitiv noch mehr Blödsinn als ich.

Ach so, das ist ein Wettkampf! Jetzt versteh ich erst weshalb du dir so eine Mühe beim Blödsinn verzapfen gibst. ;)
 
Mracpad schrieb:
OpenCL?

Timings.png

Mal davon abgesehen dass Blender viel langsamer mit OpenCL ist fällt mir von von den vielen Anwendungen die wir benutzen nur Houdini ein das auf OpenCL setzt (für Fluid-Sims). Octane, Iray und Redshift sind Cuda only. Das hat auch seinen Grund, die Cuda API ist extrem optmiert für solche Programme (siehe Blender( und nVidia hilft den Entwicklern wo es nur geht..

Das ist kein Bias oder ähnliches, das ist einfach die Realität momentan
 
HominiLupus schrieb:
Hardware die dazu genutzt wird ein Spiel auszuführen ist nunmal Zockerhardware, da beißt die Maus keinen Faden ab.
und die Berichtigungen deiner falschen Aussage
Es ist keine Workstationkarte weil der Treiber dafür ungeeignet ist, es nur Zockertreiber gibt
ignorierst du gekonnt?
 
homerpower schrieb:
Irgendwas läuft bei dir falsch. Meine R9 390 ist 100 mal schneller als meine IGPU und meine 2000 € Workstation Karte ist nochmal unendlich schneller als meine R9 390....

nich bei mir, mit der verkorksten Siemens Software läuft was falsch - und nich bei mir, sondern auf Arbeit bei 4000 Mann ;)

Teils sind die Benches zu CAD Engines total unrealistisch. Keiner wird für normale Konstruktionstätigkeit zb das Modell mit Leuchteffekten und Texturen zuklatschen. Klar is die 2000€ Workstation karte schneller als jede iGPU, aber teils nicht Faktor 10 wie es sein sollte sondern vielleicht 50%. Drehen wir in NX 8.5 / NX11 größere Baugruppen so macht die Engine eigentlich immer durch einen CPU Kern dicht - CPU Limit quasi. Offensichtlich typisches OpenGl Problem. Da müsste man wohl mal auf Vulkan umschreiben ;)
 
Zuletzt bearbeitet:
Da der Name ja identisch ist, kann man davon ausgehen dass mit Radeon Pro Duo beide Iterationen gemeint sind oder ggf. die Unterstützung im Workstation-Treiber nur vorerst auf die Fiji-Variante beschränkt ist?
 
yast schrieb:
ignorierst du gekonnt?
Sorry, ich bin im Gegensatz zu mracpad nicht auf amd.com gegangen sondern habe mich auf den Redakteur von computerbase verlassen der was von "sie nutzt deshalb auch den normalen Treiber" geschrieben hat. Zusammen mit dem Fehlen einer DP Leistungszahl...
Normale Treiber + kein DP = keine Profikarte.
Bist du mit dem mea culpa jetzt zufrieden und erteilst eine Absolution? Oder gibts irgendwo ein Büsserhemd?
 
schwenn schrieb:
Mal davon abgesehen dass Blender viel langsamer mit OpenCL ist fällt mir von von den vielen Anwendungen die wir benutzen nur Houdini ein das auf OpenCL setzt (für Fluid-Sims). Octane, Iray und Redshift sind Cuda only. Das hat auch seinen Grund, die Cuda API ist extrem optmiert für solche Programme (siehe Blender( und nVidia hilft den Entwicklern wo es nur geht..

Mein Post bezieht sich doch auf Blender und die drastischen Verbesserung bezüglich OpenCL.

Das NVIDIA den Markt dominiert, u.a. Dank CUDA bedeutet ja nicht das es garkeine Alternativen gibt.

http://www.luxrender.net/en_GB/index
http://www.autodesk.de/products/maya/overview
 
Man darf ja nicht vergessen, dass man auch die Pro Duo in Workstations doppelt verbauen kann, somit 4 GPUs nutzen kann.

Im Vergleich zum Vorgänger erschließt man mit dem deutlichen Plus an RAM durchaus einige Einsatzgebiete.

Mit der reinen Rechenleistung wird es aber schwer, wenn man bedenkt, dass NVIDIA bereits vergleichbare Leistung in einem Chip (der Preis der Quadro/Tesla aber in anderen Sphären spielt) anbieten kann und AMD ja auch bald mit VEGA genau in diesen Bereich kommen will.

Gibt bestimmt einige, die auf so eine Karte zum bezahlbaren Preis warten, vielleicht kommt sie aber ein halbes Jahr zu spät auf den Markt.
 
AYAlf schrieb:
... dass Computerbase eine reine GamerSeite ist. Sonst kämen nicht so dämliche Bemerkungen zu einer spitzen Karte.

Ja, das ist schon sehr traurig, was einige hier ablassen. Trollalarm, die Herrschaften wären hier oder besser noch auf PC Games und Gamestar wohl besser aufgehoben :rolleyes:.
 
Zuletzt bearbeitet:
@HominiLupos: Aber die 200-250 Watt sind ja schon der Verbrauch, den CB für die RX 580 (übertaktet auf ~ 1,4Ghz - 1,5Ghz) gemessen hat, wir sind also einer Meinung.
 
AYAlf schrieb:
Scheint mir so, dass Computerbase eine reine GamerSeite ist. Sonst kämen nicht so dämliche Bemerkungen zu einer spitzen Karte.

...das merkt man auch schon allein daran, dass den allermeisten zum Thema professionelle Anwendungen nichts außer CAD, CAD und CAD sowie vielleicht mal Spieleentwicklung und Rendering á la Blender einfällt.

Das in einem einzigen Cluster für beispielsweise Meteorologie-Simulationen schon mehr GPUs verbaut sind, als in jedem Triple-A-Rendering-Studio, geht da schon über den Horizont hinaus.

Wenn man dann z.B. Rechenzentren von Amazon & Co betrachtet...Bioinformatik...künstliche Intelligenz...usw. usf.

Es gibt so ewig viele Anwendungsfelder im professionellen Bereich bei den Branchenriesen oder im wissenschaftlichen Bereich.

Natürlich gibt es für viele davon dann auch die Tesla-Serie bzw. die S-Serie, als reine Compute-Karten ohne Grafikausgang...aber durchaus oft wird eben auch nur eine hohe FP16/FP32-Leistung benötigt, wo dann eben auch eine Titan zur typischen Workstation-Karte wird.

AMD benennt seine professionellen Karten künftig ja nicht umsonst Machine Intelligence, wie etwa die MI25.

Auch NVIDIA hat nicht ohne Grund das GeForce bei der aktuellen Titan gestrichen und die Karte als erstes an Machine-Learning-Anwender rausgegeben sowie vor allem deren Leistung in CUDA/cuDNN und AI-Anwendungen betont...
 
Zuletzt bearbeitet:
Zurück
Oben