News DirectX 12: Mit „Multiadapter“ rendern Grafikkarte und IGP zusammen

Wolfgang

Redakteur
Teammitglied
Dabei seit
Nov. 2002
Beiträge
6.160
#1
Dabei seit
Jan. 2009
Beiträge
2.271
#2
Nicht schlecht Herr Specht.
Mich würden die FPS interessieren wenn man eine AMD Kombi fährt, sprich eine R9 290X + APU. Gerade da sollte doch AMD richtig punkten können. :)
 
G

|Genesis

Gast
#3
Finde ich persönlich gut den Schritt von MS. Man könnte glatt vermuten, dass in ferner Zukunft PhysX von der IGP berechnet werden könnte, sofern das möglich wäre. Das Tech-Demo Video werde ich erst später mal schauen - Da ist mir mein Datenvolumen zu schade drum 😄
 

Redirion

Commander
Dabei seit
Apr. 2007
Beiträge
2.594
#4
Klingt von der Beschreibung her erstmal ganz gut, aber mal von technischer Seite betrachtet, frage ich mich, wie es im Detail funktioniert. Die IGP müsste dann eine Framebuffer-Kopie des fertig gerenderten Bildes der Grafikkarte erhalten, um dann die Postprocessing-Effekte anzuwenden oder nicht? Für mich klingt das nach Delay und somit Erhöhung des Inputlags o.ä. Denn dafür muss immer vom schnellen Grafikkartenram in den langsameren RAM kopiert werden. Das bedeutet neben dem Delay doch auch beim RAM eventuelle Engpässe?
 
Dabei seit
Mai 2015
Beiträge
38
#5
Erhöhter Lag garantiert und deswegen vermutlich in den meisten Spielen unbrauchbar.
 

Vitec

Commander
Dabei seit
Okt. 2006
Beiträge
3.071
#6
Naja das Problem bei den APUs von AMD sehe ich darin das selbst mit dx12 und der cpu entlastung oder optimaleren Ausnutzung diese einfach für gamer zu wenig Grund CPU Power haben wird, da hilft die gute Gpu der APU auch nichts wenn man trotz dx12 im cpu limit hängt.

Würde auch sagen für Phys-x müsste das doch brauchbar sein oder sagen wir phys-x effekte um es neutral zu halten. Den Phys-x braucht nicht unbedingt soviel ram sondern eher Rohpower.
DAs ganze könnte aber auch dazu führen das evtl auch skylake mit vollen 16x pcie-3.0 bei einem sli setup seit langem vorteile hat gegenüber nur 8x oder nur pcie-2.0 .
Und es würde den Ram auch bei Intel wieder wichtiger werden lassen wenn dieser schneller ist.

Also DX12 wird richtig geil je nachdem wieviele Hersteller die ganzen Features unterstützen.
Da stellt sich mir aber gleich die Frage, ob dann AMD mit Zen noch bevor er am Markt ist schon veraltet ist da er ja keine igpu haben soll.
Und die Xeon rücken so evtl auch wieder etwas in den Hintergrund als Gamercpu.
Und die igpu wird evtl auch bei Gamern in Zukunft ein Kaufkriterium und wir sehen eine Top-Gamer i7 CPU mit fetter igpu die evtl dann fürs Gamen besser geeignet ist als eine 2011er Plattform.

Also wie auch immer kann man AMD nur danken das sie mit Mantle MS dazu gewzungen haben hier mal wirklich wieder brauchbare innovationen zu bringen.
 
Zuletzt bearbeitet:

Yuuri

Fleet Admiral
Dabei seit
Okt. 2010
Beiträge
11.750
#7
Die IGP müsste dann eine Framebuffer-Kopie des fertig gerenderten Bildes der Grafikkarte erhalten, um dann die Postprocessing-Effekte anzuwenden oder nicht?
Schade, früher hat CB auch mal etwas Hintergrund vermittelt. Bleibt heute wohl aus... Wer mehr wissen will, sollte auf Golem nachlesen: http://www.golem.de/news/microsoft-...-arbeit-fuer-integrierte-gpu-1505-113843.html Speziell die letzten paar Absätze.
 

DaDare

Fleet Admiral
Dabei seit
März 2007
Beiträge
12.426
#8
Frage ist wie viele Spiele dies überhaupt unterstützten werden und wenn sie es tuen, wie hoch der Gewinn ausfallen wird?

@Vitec,

der Unterschied Xeon 1231 v3 fällt mit 50€ (4790), bzw. 100€ (4790k) recht hoch aus. Bei diesem Unterschied kann man direkt zum größeren GPU Modell greifen. Außer man greift zur absoluten High End Klasse.
 

Locuza

Lt. Junior Grade
Dabei seit
Dez. 2010
Beiträge
435
#9
Finde ich persönlich gut den Schritt von MS. Man könnte glatt vermuten, dass in ferner Zukunft PhysX von der IGP berechnet werden könnte, sofern das möglich wäre
PhysX ist eine Middleware von Nvidia und wird natürlich nicht laufen.
Außer du meinst einfach physikalische Berechnungen.

Die IGP müsste dann eine Framebuffer-Kopie des fertig gerenderten Bildes der Grafikkarte erhalten, um dann die Postprocessing-Effekte anzuwenden oder nicht? Für mich klingt das nach Delay und somit Erhöhung des Inputlags o.ä. Denn dafür muss immer vom schnellen Grafikkartenram in den langsameren RAM kopiert werden. Das bedeutet neben dem Delay doch auch beim RAM eventuelle Engpässe?
Jep, eine Kopie ist notwendig.
Aufgrund der expliziten Kontrolle und Multi-Engine kann der Entwickler das aber parallel steuern, im Gegensatz zu DX11.
Man könnte parallel zum 3D Rendering, teils unabhängige Berechnungsschritte zur iGPU kopieren, die dann parallel mit den Daten etwas macht und diese wieder zurück schickt.

Aber natürlich gilt, man hat alle Optionen offen und entsprechend kann man das gut oder schlecht umsetzen.
Die zusätzlichen Latenzen können ein Problem sein, der PCIe-Bus wird belastet und wenn man es übertreibt mit der iGPU, wirkt sich das vielleicht auch negativ auf die CPU aus, die dann an Bandbreite etwas verhungert.
 

Kausu

Lt. Commander
Dabei seit
Mai 2010
Beiträge
1.858
#10
Endlich kann man auch als Gamer die igpus bei Intel nutzen wird auch Zeit.
Also DX12 wird richtig geil je nachdem wieviele Hersteller die ganzen Features unterstützen.
Dann muss man aber mit Mikorucklern leben, oder? Frame Pacing von AMD unterstützt doch nur AMD Konfigurationen, oder? Bei Nvidea bin ich schon eine Weile raus, haben die etwas vergleichbares, was "offen" ist? Würde mich ja etwas wundern^^.
 

Moselbär

Fleet Admiral
Dabei seit
Okt. 2011
Beiträge
27.586
#11
Schön - das wird dann ja ein Schritt in die Richtige Richtung mMn.

Und der Link von Yuuri - lesenswert.
 

BlackhandTV

Lt. Commander
Dabei seit
Apr. 2015
Beiträge
1.168
#12
Gute Idee!!

Offtopic:

Ist beim streamen, bei vorhandener IGP, eigentlich Quicksync oder Nvidia NVENC, besser?
 

Vitec

Commander
Dabei seit
Okt. 2006
Beiträge
3.071
#13
@Dadere

Noch ist es natürlich nur spekulatius meinerseits aber man weis zb nicht mit welcher igpu diese 4 fps + erreicht wurden. Schon skylake wird bei der igpu wieder einiges drauflegen. Die igpu nimmt bei sklyke schon 50% des dies ein und ein edram i7 wo man als high end user die igpu ja auch übertakten kann könnte hier evtl schon die 50€ aufpreis wert sein.

Kommt aber eben darauf an wie breit die Unterstützung in Games vorhanden sein wird und wieviel der igpu für Berechnungen genutzt werden könnten ohne das man andere Nachteile in Kauf nehmen muss.
Man kann es auch anders sehen und von unten betrachten wo bis jetzt ein i3 auch noch für "nromalgamer " mit einem gewissen Budget ausreichte, da die i5 doch Preis Leistungmässig schlechter sind diese dann durch die bessere igpu auch für nicht Poweruser der neue standard werden und i3 damit für gamer tot sind.(was ja durchaus als positiv zu sehen ist) . Das würde wieder mehr i5 auf dem Markt bedeuten und die Hersteller könnten somit fix auf 4 Kerne als minimum Hinprogrammieren.

Aber eher sorgen mache ich mir wie gesagt um amd und zen wenn es sich durchsetzt den dann hat Intel wieder einen Trumpf mehr den sie einfach so nebenbei mitbringen bei selber CPU Leistung es sei den Zen schläg ein wie damals der Athlon.
 
Zuletzt bearbeitet:

flappes

Commodore
Dabei seit
Jan. 2006
Beiträge
5.093
#14
1. Der Trumpf wäre aber zur Zeit noch bei AMD, da deren iGPU (noch) um einiges stärker ist.
2. Wir kennen ja die Intel Treiber ;-) da mach ich mir keine Hoffnung.

Der Nutzen für FPS erschließt sich mir noch nicht. Entweder ich hab ne gute Grafikkarte die das Spiel ordentlich befeuert, oder die Karte läuft am Limit und braucht die iGPU damit die Mindestframes erreicht werden, was dann auch nur eine Notlösung wäre.

Mir persönlich würde es schon reichen, wenn die iGPU genutzt werden kann im Desktop-Betrieb, also ohne Spiele und die Grafikkarte komplett abgeschaltet würde.
Oder physikalische Berechnungen ausgelagert werden um bessere Effekte usw. zu erzielen.

Ich mache mir da eher sorgen, dass Spielehersteller "fauler" werden. Im Moment müssen die das Spiel nach Frameeinbrüchen untersuchen und optimieren (wenn zuviele Objekte und Details sichtbar sind). Die Faulen Entwickler werden einfach sagen "iGPU" wird benötigt.
 
Dabei seit
Feb. 2009
Beiträge
4.927
#15
Mir wäre wichtiger, dass die ein 1:1 verlustfreies durchschleifen einbauen.
Also den Monitor an die On Board Video Anschlüsse anschliessen und trotzdem dadurch das Signal der dedizierten GraKa kriegen zu können.
Wenn dann in 2D Modus (Desktop etc.) gewechselt wird sollte die dedizierte GraKa direkt komplett abgeschaltet werden und man bekommt weiterhin ein Signal von dem Anschluss . .
Bei Laptops klappt es doch auch verdammt!
 

Faust2011

1+1=10
Teammitglied
Dabei seit
Aug. 2011
Beiträge
8.303
#16
Endlich kommt hier mal Bewegung in den Markt. Es muss doch auch möglich sein, verschiedenste Grafikkarten zu kombinieren. Egal, ob AMD, Nvidia oder Intel und egal, ob dedizierte Lösung oder eine integrierte GPU in eine CPU.

Interessant wird es natürlich, wie es sich verhält, wenn deutlich unterschiedliche Leistungsstärken aufeinander treffen. Auch hier zeigt die News eine mögliche Lösung.

Bleibt zu hoffen, dass die Hersteller (AMD / Nvidia / Intel) nicht künstliche Grenzen in diesem Szenario ziehen.
 

Vitec

Commander
Dabei seit
Okt. 2006
Beiträge
3.071
#17
Da es doch auch einige PII P x6 und bullis gibt und zen auch ohne igpu kommt wird es evtl nicht ganz so einfach für die faulen Entwickler, da sie sonst die AMD CPU USER aussen vor lassen würden.

Ich hoffe eher auf eine Funktion das wenn eine Igpu vorhanden ist gewisse effekt evtl eben Phys-x effekte im Grafikmenü aktiviert werden können.
Oder die igpu sorgt bei Aktivierung eben einfach für zusätzliche fps, wovon man nie genug haben kann auch nicht mit 2 Titan X.
Und da die igpu halt bei ich nenn mal 75% der User sowiso vorhanden sind sind das einfach FPS die man Gratis bekommt und wenn es nur eine Steigerung von 30 auf 35 fps sind.
 
Dabei seit
Okt. 2013
Beiträge
6.434
#18
Wie "Breit" ist eigentlich das SLi interface auf den Nvidia Karten (da wo man diese Brücken ansteckt) ? Oder dient das nur zum Steuern?
 

Laberlohe

Lt. Junior Grade
Dabei seit
Dez. 2009
Beiträge
454
#19
Hm, ob das wohl das Ende des Geheimtipps Xeon-E3 wird?
 

DaDare

Fleet Admiral
Dabei seit
März 2007
Beiträge
12.426
#20
@Vitec,

ein weiteres Problem wird sein, dass DX12 nur für Windows 10 kommen wird. Sprich die Entwickler werden DX10/DX11 als Minimum nehmen müssen. DX12 verspricht vieles und bringt endlich frischen Wind in den Markt.

Notebook Besitzer werden sich darüber (noch mehr) freuen. Dort ist GPU bei Gamingnotebooks fast immer der Flaschenhals.

Was AMD und Zen angeht, so müssen wir erst einmal den Release abwarten.
 
Top