News DirectX 12: Mit „Multiadapter“ rendern Grafikkarte und IGP zusammen

Seit 10 Jahren spricht man davon, schon 1000 Mal gehört... HybridSLI oder HybridCrossfire... lief nichts von stabil.

Ich bin da ziemlich skeptisch, aber wenns klapp, wäre es ne super Sache.

Verlieren die K-Prozessoren von Intel dann an Attraktivität?
Auf jeden Fall würde das eine Menge Auftrieb für AMD bieten, denn deren CPU-Grafik ist schon ziemlich potent und könnte bei einer Mittelklassenkarte durchaus eine Verdopplung bewirken.
 
Ich traue der Sache nicht. Das verschlingt doch Entwicklungskosten ohne Ende um es richtig zu machen. Schließlich gibt unendlich viele Leistungskombinationen. Und wenn es nicht richtig gemacht wird, darf man sich dann auf neue Bugs freuen.

Dazu der zusätzliche Inputlag, wenn denn der Frame nicht komplett aufgeteilt wird.
 
Irgendwie auch nur halb neu, AMD APUs können doch schon im CF betrieben werden, leider nur mit ein paar wenigen Karten aus dem Lowbudget Segment. Das hätte man ausbauen können seitens AMD. Aber nun kommt MS daher und stiehlt denen die Show.

Naja aber davon abgesehen, wirklich beeindruckt bin ich davon jetzt auch nicht, um einen größeren Unterschied zu machen sind die aktuelle iGPUs praktisch alle zu lahm.
 
Shririnovski schrieb:
Aber nun kommt MS daher und stiehlt denen die Show.
Wo stiehlt MS hier wem die Show? Hybrid CF funktioniert wie CF nun mal funktioniert - die Bilder werden absechselnd von je einer GPU berechnet (AFR). DX 12 unterstützt, dass die Hauptarbeit die dedizierte GPU macht (Szenerie rendern) und bspw. das Post-Processing die iGPU übernimmt (MLAA o.ä.). Also einfach mal AA kostenlos dazubekommen, ähnlich wie es heute AF geht und trotz mehr Effekten gehen die FPS nach oben.

Hier Parallelen zu CF/SLI ziehen zu können ist schon extrem weit hergeholt, unterscheiden sich die beiden Verfahren doch extrem voneinander.
 
HPC Zen APU mit HBM + r400 - gib her... :p ( 2017 :( )

@Smagjus,

nicht wirklich. Problem dabei ist der krüppelige Speicher. HBM bügelt da ne Menge weg.

@Shririnovski,

was man mit HBM ja nun (besser) machen kann. Wegen dem lahmen Speicher machte das so keinen wirklichen Sinn.
 
Zuletzt bearbeitet:
Yuuri schrieb:
Wo stiehlt MS hier wem die Show? Hybrid CF funktioniert wie CF nun mal funktioniert - die Bilder werden absechselnd von je einer GPU berechnet (AFR). DX 12 unterstützt, dass die Hauptarbeit die dedizierte GPU macht (Szenerie rendern) und bspw. das Post-Processing die iGPU übernimmt (MLAA o.ä.). Also einfach mal AA kostenlos dazubekommen, ähnlich wie es heute AF geht und trotz mehr Effekten gehen die FPS nach oben.

Hier Parallelen zu CF/SLI ziehen zu können ist schon extrem weit hergeholt, unterscheiden sich die beiden Verfahren doch extrem voneinander.

Echt, für Post-Processing oder MLAA usw. eine iGPU mit einem lahmen Speicherinterface,
wo sich schon alle über Maxwell mit 128 Bit bei 120GB/s aufregen.

Generell ist der Ansatz super, aber 2-3 fps, naja. Bei gleichstarken GPUs sehe ich
das schon eher ein Vorteil.
 
Interessant, dann vergammelt die iGPU nicht ununötig bis mal die Hauptgraka kaputt wird und die iGPU als Notlösung herhalten muss.

Wer seine iGPU jetzt schon nutzen möchte, kann seine Nebenmonitore ja anstecken.
Neue AMD Karten brauchen im Idle ja bei 2 Monitoren schon 20W statt 10W im Idle.
Bei älteren Karten ists noch schlimmer NV + ATI5000^^
 
Zuletzt bearbeitet:
Das könnte auf Dauer eine der bedeutendsten Funktionen von DX12 werden.
Mittlerweile enthalten doch irgendwas um die 97% aller verkauften CPUs integrierte Grafikeinheiten, die mittlerweile auch endlich mal den technologischen Stand der größeren GPUs erreicht haben (nur bei der Leistung nicht). Selbst in der Zielgruppe "Gamer" dürfte der Anteil an IGPs immer noch bei 70%+ liegen.

Wenn es richtig umgesetzt wird, kann das ein Game Changer werden. Mit Vorteilen für AMD. Ich denke da nicht so an Grafikberech ungen, weil das unnötig die Latenzen versaut aber Sachen, die momentan auf der CPU berechnet werden, könnten damit einen Sprung machen. Da wären die Physikeffekte aber was sich mir viel mehr aufdrängt ist KI oder reaktive Umgebungen. Man stelle sich mal vor, beispielsweise in etwas wie Cities Skylines wird der Verkehr auf der GPU berechnet statt auf der CPU (davon gehe ich mal aus) oder die KI von Gegnern in Shootern oder Strategiespielen.
Wenn dann auch noch der Flaschenhals Speicher in ein paar Jahren wegfällt, wird es noch besser. Ist ja absehbar, dass HMC oder HBM zumindest als Cache mittelfristig bei beiden großen Herstellern auf die CPU wandern werden.
 
@[F]L4SH,

ja... aber da Intel ja den meisten Marktanteil mit ihren Krücken iGP haben, könnte sich dieses Feature gewaltig verschieben... wirklich nutzen tut es erst dann was, wenn AMD mit seinen Zens gescheite Performance liefert und seine APUs noch mit HBM ausstattet ala L4 Cache, was erst 2017 der Fall sein wird, sofern Zen den Erwartungen gerecht wird. DX12 liefert zumindest genügend Futter, wo AMD etwas bieten kann, was atm kein anderer kann wo es um eine APU bzw. iGP geht die mehr Leistung hat (Intel hängt drastisch mit ihren iGP zurück, nvidia hat keine x86 - somit alleiniger ), wenn sie es nicht versemmeln, Schlüssel ist da zunächst Zen...
 
Zuletzt bearbeitet:
Redirion schrieb:
Klingt von der Beschreibung her erstmal ganz gut, aber mal von technischer Seite betrachtet, frage ich mich, wie es im Detail funktioniert.

Leider hat @Wolfgang die Grafik von MS in den Artikel nicht mit rein genommen, damit wäre es klarer geworden:
7725.multiadapter_2D00_dx12_2D00_ue4_2D00_gputimeline.png
Quelle: http://blogs.msdn.com/b/directx/arc...rmant-silicon-and-making-it-work-for-you.aspx

Die diskrete Grafiklösung berechnet also "nur" das Bild und Postprocessing geschieht dann auf der iGPU, während parallel schon das nächste Bild berechnet wird.

By offloading some of the postprocessing work to a second GPU, the first GPU is freed up to start on the next frame before it would have otherwise been able to improving your overall framerate.
[...]
You can see that the copy operations on NVIDIA’s copy engine execute in parallel with the NVIDIA 3D engine operations improving performance even more.

edit:
An dieser Grafik sieht man natürlich auch, dass der Inputlag sich deutlich erhöht.
 
Hybrid CrossFireX und GeForce Boost (als Komponente von Hybrid-SLI) gab's schon vor sieben Jahren. Auch HybridPower zum Deaktivieren der dGPU gab's gleich dazu. Nichts davon hat sich durchgesetzt, wobei es damals sogar deutlich sinnvoller war als es heute ist.
 
@powerfx,

kommt alles wieder... macht Heute sogar noch mehr Sinn als früher.
 
Stahlseele schrieb:
Mir wäre wichtiger, dass die ein 1:1 verlustfreies durchschleifen einbauen.
Also den Monitor an die On Board Video Anschlüsse anschliessen und trotzdem dadurch das Signal der dedizierten GraKa kriegen zu können.
Wenn dann in 2D Modus (Desktop etc.) gewechselt wird sollte die dedizierte GraKa direkt komplett abgeschaltet werden und man bekommt weiterhin ein Signal von dem Anschluss . .
Bei Laptops klappt es doch auch verdammt!

Sehe ich ganz genau so!
Das sollte endlich mal kommen und zum Standard werden...ich hab von solchen Lösungen schon vor einigen Jahren mal etwas gehört... Geht so was denn zB bei AmD mittlerweile? Früher beim Am2+ mit integrierter GPU auf dem MB ging das noch nicht IMO.

Ich hoffe die ganzen features von DX12 werden kein Reinfall, sodass jetzt viel beworben und gezeigt wird, davon dann aber kaum was in Spielen zu finden sein wird...oder dann ziemlich schlecht implementiert.

Ich bin sehe.gespannt..und hoffe auf eine gute und schnelle Entwicklung!
 
Nicht schlecht, ich würde mir aber immer noch die Lösung wünschen dass die CPU Grafik die Ausgabe übernimmt und die Graka als reines Rechenmonster arbeitet.

Warum hat NVIDIA nach der 3Dfx Übernahme SLI eigentlich von der Berechnung einzelner Zeilen auf AFR umgestellt?
 
Wenn das wirklich gut funktioniert, hole ich mir ein Upgrade mit IGP. So ein leckerer i7-4790 oder den entsprechenden Nachfolger.
 
Zurück
Oben