News Radeon Pro Duo 2.0: Dual-Polaris und 32 GB GDDR5 für 1.000 US-Dollar

Mracpad schrieb:
Nur bei CF, und dafür ist die Karte nicht gedacht.

?.!

Die Karte ist quasi ein CF in sich selbst gebaut. Zwei GPUs auf einer Platine ... das war schon zu Voodoo-Zeiten so beim alten SLI und ist heute bei Nvidia mit dem neuen SLI und bei AMD mit dem CFX (nicht CF) so! CF war es bis zu 1950er Serie, wo man nur zwei Karten Verbinden konnte, seit der HD2xxx Gen heißt es CrossFireX (X...eXtended) für bis zu 4 Karten im Verbund.
 
Das word NUR find ich ein wenig heftig ;) Aber ok gibt ja genug alternativen mit mehr VRam;D
 
Krautmaster schrieb:
@MegaByte

Bei Computing und FEM sicher, mir gings aber rein um die 3D Engine als Visualisierung.

Meinst du mich? ^^

Für die Visualisierung ist dann ja die Quadro vorgehalten und die Tesla(s) für die Berechnungen. Das ist so ähnlich wie ein TripleSLI aus Kepler Titans und dann noch ne GTX770 oder 780 für PhysX, die ihre Berechnungen im Hintergrund ausführt, damit das SLI-Gespann nicht eine Zwischenberechnung auf CUDA durchführen muß, die zu einer ruckeligen 3D-Darstellung führt.

Es weis ja jeder Zocker, was bei einer Berechnung der PhysX Daten auf der CPU passiert. Es bleibt meist nur noch CPU-Zeit für um die 60-80FPS übrig.
 
Sunjy Kamikaze schrieb:
Das word NUR find ich ein wenig heftig ;) Aber ok gibt ja genug alternativen mit mehr VRam;D

50% von etwas Dargestellten wäre verhältnismäßig wenig... was dem Wort "NUR" gerecht wird.

Aber ist es überhaupt so? Die Frage hast du nicht explizit beantwortet...

@Mega-Bryte: Darf ich Fragen wofür du deine 9 (3x3) Monitore verwendest?
 
Zuletzt bearbeitet:
@Krautmaster: Ich arbeite selbst mit NX9 & NX11, mit größeren Baugruppen (>50 Parts, 90% Freiformgeometrien, Konstruktion von 3D-Modellen). Üblicherweise renne ich in zwei limitierende Faktoren.

Erstens (und meist): CPU-Limit auf einzelnem Kern, gerade beim Drehen & Schneiden von Teilen/Baugruppen. Ich denke auch, dass das ein OpenGL Problem ist.
Zweitens: VRam Limit. Gerade wenn ich mehrere NX-Instanzen mit großen Baugruppen auf habe (z.B. um direkt vergleichen zu können) liegt weder CPU noch GPU Belastung vor, der VRam ist aber voll und man merkt wie immer wieder nachgeladen werden muss.

Problem 2 wurde erheblich besser nach dem Wechsel von Quattro P2000 auf P5000 und sonst gleicher Workstation. (5GB VRam zu 16GB VRam)
Problem 1 blieb unverändert nach GPU Upgrade

Eine Dual-GPU mit 32GB VRam würde zumindest unter NX ordentlich Performance bringen, wenn man z.B. wie ich oft mehrere VRam-intensive Anwendungen parallel ausführt. Die Leistung der eigentlichen Grafikkerne ist dabei garnicht so wichtig, da ich eher in ein CPU-Limit laufe. Crossfire ist zumindest in diesem Anwendungsfall unnötig, bzw. kontraproduktiv (effektiv nur halber Speicher nutzbar).
 
Mega-Bryte schrieb:
?.!
Die Karte ist quasi ein CF in sich selbst gebaut. Zwei GPUs auf einer Platine ... das war schon zu Voodoo-Zeiten so beim alten SLI und ist heute bei Nvidia mit dem neuen SLI und bei AMD mit dem CFX (nicht CF) so! CF war es bis zu 1950er Serie, wo man nur zwei Karten Verbinden konnte, seit der HD2xxx Gen heißt es CrossFireX (X...eXtended) für bis zu 4 Karten im Verbund.

CF und Multi-GPU sind zwei verschiedene paar Schuhe. Die Pro-Duo ist eine Multi-GPU Karte. Crossfire(X) ist wie beide SLI Varianten und AMR ein Werkzeug das erlaubt zwei GPU "wie eine einzelne zu verwenden" um die Leistung zu erhöhen. Das kann man mit der Pro Duo zwar machen, muss man aber nicht.
 
muss man denn den Speicher einer GPU fix zuweisen? oder könnte man nicht auch den Speicher für beide zugänglich machen? ev. über einen extra Controller?
 
pipip schrieb:
...
Wieso ist dir der Unterschied von 2x16 oder 1x32 so wichtig.
Wenn Software A auf GPU A berechnet wird und Software B auf GPU B, wo ist der Unterschied, wenn Software A&B auf GPU C mit 32 GB berechnet wird ?
Es kommt eben auf die Software an und deine absolute Aussage "niemals" ist eben schon nicht korrekt.
...

Weil ich im HPC-Bereich tätig bin und mit solchen Themen zu tun habe. Wenn hier Leute ankommen und meinen 2x16GB oder 1x32GB wäre nur beim Spielen ein Thema und von irgendwelchen fiktiven "Pro-Szenarien" faseln, in denen das kein Thema sein soll, dann verspüre ich halt den Drang einzuwenden, dass das selbst im "Pro-Bereich" nur ein gar nicht mal so großes Subset von Anwendungen/Problemen ist, bei dem das bzgl. der Performance bzw. der Speichernutzung tatsächlich so ist. Datenlokalität ist im Pro-Bereich ein sehr präsentes Thema.

Bzgl. der "absoluten Aussage" drück doch mal STRG+F und suche nach "niemals". Das habe ich nie gesagt. Ich kann nichtmal nachvollziehen, wo du das rauslesen willst.
Aber da du ja schon wieder bei "...wenn AMD... aber bei Nvidia..." bist, brauch ich das wohl auch gar nicht nachvollziehen. Da wurde wohl nur ein roter Nerv getroffen, weil meine Aussage durch die rote Brille einen imaginären grünlichen Schimmer aufblicken ließ (warum auch immer).
Ich habe nichtmal gesagt, dass die Karte deshalb schlecht sei. Ich habe nur inhaltlich angemerkt, dass 2x16 und 1x32 sich auch abseits vom Gaming deutlich unterscheiden und Einwände bezüglich der vollen Nutzbarkeit des Speichers aufgrund von Datenredundanz eben nicht nur in Bezug auf Spiele gerechtfertigt sind. Und das Alles gilt selbstverständlich ganz genauso für NVidia-Dual-GPUs (da dir das ja scheinbar wichtig ist).

Zu deiner Frage:
Wenn A und B getrennte Softwares sind und diese auf komplett unterschiedlichen Daten arbeiten, dann gibt es natürlich keinen Nachteil (bis auf die geteilte x16-PCIe-Bandbreite, wenn beide gleichzeitig darüber kommunizieren).
Die könnte man ja auch auf zwei getrennten Karten oder gar zwei getrennten Rechnern laufen lassen. Dem habe ich aber auch nie widersprochen. Ich habe im Gegenteil sogar eingeräumt, dass es für manche Anwendungen durchaus möglich ist, Daten eines Problems (also einer einzigen Software) so zu teilen, dass diese keine Überschneidungen aufweisen. (Falls hier das Verständnis fehlt: Das ist der Fall in dem 2x16GB und 1x32GB gleichwertig sind).
Ich habe lediglich darauf hingewiesen, dass das halt nur für bestimmte Anwendungen funktioniert und eben nicht, wie einige es hier teilweise darstellen, im Non-Gaming-Bereich prinzipiell so sei.
Dass es Fälle gibt in denen 2x16 keine Nachteile hat sagt nun aber noch lange nicht, dass 1x32GB nicht besser ist. 2x16GB ist im Idealfall halt gleichwertig, abseits des Idealfalles aber eben schlechter. Szenarien in denen 2x16 besser ist, gibt es hingegen nur sehr exotische, wenn die Anwendung in den zuvor beschriebenen Idealfall fällt UND extrem an der Speicherbandbreite hängt, was aber bei den hohen Bandbreiten von GPU-Speicher nicht so häufig vor kommt (aus eigener Erfahrung ist mir keine solche Anwendung bekannt, wir betreiben aber auch nicht primär GPU-basierte-Systeme).

Insgesamt darfst du mir also ruhig glauben, wenn ich sage, dass 2x16 und 1x32 sich nicht nur im Gaming unterscheiden.
Bei uns im HPC-Bereich ist Speicherlokalität täglich Brot und das Thema geht da weit über 1-2 GPUs und Speicherpools hinaus. Und da gilt einfach: Wenn man etwas nicht aus irgendwelchen Gründen auf 2 Knoten mit 2x Speicher aufteilen MUSS, dann lässt man das am Besten auch. Denn dann bleibt man weniger äbhängig davon, ob und wie sich die Anwendung diesbezüglich verhält.

supern00b schrieb:
muss man denn den Speicher einer GPU fix zuweisen? oder könnte man nicht auch den Speicher für beide zugänglich machen? ev. über einen extra Controller?

Haha. Genau darüber habe ich zufällig gestern nachgedacht.
Das was du meinst wäre dann eine Art SMP-GPU-System.
Das wäre dann Shared Memory und würde bedeuten, dass beide (oder noch mehr) GPUs gleichzeitig auf denselben Speicher performant zugreifen können.
Es wäre vermutlich möglich, aber aufwendig und sauteuer.
Problem: Ein Speicher, der mehrere GPUs gleichzeitig versorgen soll, braucht entweder bruuuutale Bandbreiten (€€€) oder eine sehr clevere Methode, die Daten zu verteilen. Außerdem wird dann Kohärenz zum Problem (zumindest bei Compute-Anwendungen, bei Grafikberechnungen vllt weniger). Grafikkarten haben z.B. auch Caches. Wenn jetzt eine GPU etwas aus dem Speicher nimmt und ändert, aber noch nicht wieder zurück geschrieben hat, dann muss z.B. (in manchen Fällen zumindest) verhindert werden, dass andere GPUs in dieser Zeit dieselben Daten anfordern und dann auf alten Daten arbeiten. So etwas mögen GPUs nicht so gerne. Die schieben gerne große Mengen an Daten parallel durch sich durch. Wenn da jetzt plötzlich manche Stückchen der Daten nicht benutzt werden dürfen, wird's knifflig.

So beim Nachdenken kam ich zwar zu dem Schluss, dass es durchaus möglich wäre, aber auf diese Idee müssten eigentlich auch Andere schon gekommen sein und wenn es sinnvoll wäre, hätten wir das vermutlich schon gesehen. Kann mir zumindest nicht vorstellen, dass SMP bei CPUs ein Thema ist, aber bei GPUs zufällig noch niemand auf die Idee kam.

Che-Tah schrieb:
Wenn das ne Dual GPU ist... hatt die dann wie CF im Endeffekt nur 16 GB VRAM?

Klares Jein. Wenn man CF aktiviert ja, ansonsten siehe oben.
 
Zuletzt bearbeitet:
@Hopsekäse - gibt noch einen Fall, wo 2x16Gb besser sind. Nämlich dann, wenn eine Anwendung einen exklusiven Zugriff auf den Ram erzwingt (wobei ich nicht weiß ob es das im GPU Sektor so gibt - oder gar standard ist). Dann wären 2x16 GB natürlich besser weil nur dann zwei Instanzen dieser Anwendung gleichzeitig laufen könnten - ansonsten würde ja ständig hin und her geswitcht - oder es liefe nur eine Instanz.

Wegen den Fragen was Speicher angeht. AMD verfolgt eine neue Strategie in zukunft wird es nur einen Adressraum für allen Speicher (egal wo der liegt) geben.
 
Mracpad schrieb:
CF und Multi-GPU sind zwei verschiedene paar Schuhe. Die Pro-Duo ist eine Multi-GPU Karte. Crossfire(X) ist wie beide SLI Varianten und AMR ein Werkzeug das erlaubt zwei GPU "wie eine einzelne zu verwenden" um die Leistung zu erhöhen. Das kann man mit der Pro Duo zwar machen, muss man aber nicht.

Meine GTX590 ist auch eine Multi-GPU, die ich im SLI betreiben "kann", aber nicht muß. Ich kann genauso gut auch den SLI-Betrieb der Karte in sich auch aufheben und habe so zwei Karten mit je zwei Monitoranschlüssen und 3D wird dann halt nur auf GPU A oder B berechnet, je nach Auswahl. Die zweite GPU bleibt dabei "ungenutzt"

Die Pro Duo ist einfach nichts anderes als ein vorgefertigtes CFX-Modul für einen Slot, anstelle eines Konglumerates an Bauteilen zum selber Zusammenstecken! So, wie die GTX590 als Pendant für SLI dargestellt werden kann.

Man kann ja bei CFX auch nur zwei x2-Karten zusammenschalten (bis zu vier GPUs) und bei SLI ebenfalls nur zwei der X2-Karten bzw. der 590er, 690, Titan Z bei Nvidia. Oder man schaltet vier single-GPUs zusammen oder bei AMD sogar eine X-Karte mit einer Single-GPU, was bei Nvidia so nicht möglich ist.

Ich kann aber auch den Standardbetrieb von Multi-GPU-Kartenverwenden, in dem das SLI bzw. das Crossfire aktiviert ist.

Bei CrossfireX kenne ich mich seit der 3870 aus, von der ich zwei besaß und bei SLI kann ich seit der 6600GT mitreden. Aktuell besitze ich aber nur noch SLIs ab der 7800GT, dafür aber mehrfach und auch ein Set als GTX. ich hab außerdem soviele 8800GTX, dass es für 3x Triple-SLI reichen dürfte. Weiterhin hab ich mindestens 2x GTX285 Triple-SLI möglich und wie in meiner SIG beschrieben auch Erfahrungen mit dem SLI-Mosaic-Mode der Quadro-Sparte. 4-way-SLI habe ich ebenfalls schon mit den GTX285 verwendet nutze aktuell in einem Spielerechner 4x GTX Titan. Auch bei PhysX bin ich wohl einer der wenigen auf der Welt, die ein PPU-Karte von Agiea besitzen, die anstatt mit PCI mit PCIex1 arbeitet. Die lief mit dem CrossfireX der beiden 3870 zusammen!

Wenn du mir also nicht glauben magst, ist das dein Bier. ich jedenfalls nehme mir bei Problemen oder kniffligen Situationen deutlich mehr Zeit, als dir ein Techniker zugestehen würde. Manche Lösungen brauchen Monate, aber dann funktionieren sie wenigstens. Meine Bekannten und die Familie sind über meinen "Forscherdrang" in dieser Disziplin durchaus dankbar, da ich nicht nur das Problem lösen will, ich will es verstehen und nachstellen können.

Genug mit meiner Selbstverherrlichung, zwar kann man davon gar nicht genug bekommen, aber ich wollte dir klar machen, dass hier kein Kiddie am Werk ist, sondern jemand mit ü30 Jahren Erfahrungen im PC-Bereich. Ich hab schon in Maschinensprache programmiert, als ich noch kein Englisch in der Schule hatte.
 
Zuletzt bearbeitet:
Edit: was soll das denn werden, ein Schwanzvergleich? Mein erstes 3DFX SLI bestand aus Voodoo 2 Karten, mein erstes Crossfire Setup aus zwei 3870x2 Karten, die wegen der beschissenen Skalierung durch eine einzelne 4870x2 ersetzt wurde. NVIDIA SLI hatte ich noch nicht, denn ich hatte nur eine einzelne 8800er GTX. Und jetzt? Was hat das mit dem Thema zu tun? Multi-GPU ist nicht gleich CF oder SLI. Und auch ohne CF/SLI/AMR lassen sich mehrere GPU gleichzeitig verwenden, nicht nur abwechselnd.

Schön das du dich mit der Technik beschäftigst, aber die Aussage "Die Pro Duo sei ein CF" wird dadurch nicht richtiger.

@Hopsekäse

Ich hab dich aus nem ganz einfachen Grund nicht ernstgenommen.

Der Satz mit dem du mich zitiertest richtete sich an einen User der behauptete bei dual-GPU müsse man grundsätzlich den genannten Speicher halbieren, es seien also im Fall der Pro Duo nur 16GB nutzbar. Diese Aussage ist Humbug.

Dein Kommentar dazu begann mit; "Die Karte IST ein CF[...]" Diese Aussage ist halt ebenfalls Humbug.

Wieviel Speicher in welcher Situation letztendlich effektiv genutzt werden kann war bis dahin noch garkein Thema abgesehen davon dass es eben nicht nur 16 sind. :D
 
Zuletzt bearbeitet:
Manchmal habe ich das Gefühl, bei AMD Beiträgen verhält sich der durchschnittliche IQ im Kommentarbereich wie eine Asymptote gegen 0 strebend. Wie kommen die Leute auf die Idee, das Teil als normale Gamerkarte zu betrachten? Für Spielentwickler ist sowas nett, die ein oder andere HPC/CAD Software wird sicherlich auch davon profitieren können und mit 16GB/GPU ist da ordentlich Platz für Zwischenergebnisse. Nette Karte, wird wohl ihre Anwender finden...
 
@NX

Ich lauf da eher ins Ram, weniger ins VRAM Limit. Wir haben Baugruppen die eher Richtung 3-4 stelligen Teile gehen.
PDM is TC10.1.7. Beides is eher ein Graus was Performance angeht. 4Tier.

@Karte

Multi GPU ist hier aber nun doch schon eher was für Computing. Das kann mit beiden GPU und vollem VRAM dann ggf auch voll was mit anfangen. Für reine Grafik Tätigkeit ist die Karte im seltensten Fall was, damit wohl auch weniger was für den normale 3D Konstruktion. Eher dann wie gesagt FEM und Simulation.

http://hothardware.com/reviews/nvidia-quadro-p6000-and-p5000-workstation-gpu-reviews?page=4
 
Zuletzt bearbeitet:
@Diablokiller999: Kann ich so unterschreiben x) Kommt aber seit Ryzen in gefühlt jedem Thread vor, sind vermutlich die gleichen Leute die in Bugatti Foren bei neuen Modellen ihre Meinung kund tun obwohl sie nie einen hatten oder sich leisten können ;)

Ansonsten für ihren Einsatzzweck gute Karte mit gutem Preis.
 
Die gibt's doch schon.. Nur Games eben noch nicht ;)
 
Zurück
Oben