Grundlegende Frage Onboard GUP und PCIe GPU

Marcellus5000

Lieutenant
Registriert
Aug. 2009
Beiträge
777
Hallo zusammen,

ich nutze noch ein System in dem es keine in der CPU oder dem Board integrierte GPU gibt und liebäugel mit einer aktuellen Intel CPU mit intergrieter Grafikeinheit. Als diese integrierte GPU noch Zukunft war, schrieben viele Zeitschriften, wie toll das das doch zum Stromsparen wäre. Für Desktop die Onboard Karte und zum zocken die PCIe und alles ist toll, so hieß es damals.
Klingt toll aber ich frage mich, wie das heute in der Praxis funktioniert (Dr Google findet leider nur Posts wo Leute onboard und externe GPU zusammen nutzen wollen etc aber nichts grundlegendes. Ggf ist meine Frage auch einfach zu trivial oder ich bin zu blöd ne Suchmaschine zu bedienen ;) ).

Wie läuft das den un in der Praxis? Kann man eine onbaord GPU für 2D nutzen und Windows schaltet dann auf die externe um? Wie steckt man die Kabel (bekommt der Monitor 2 Kabel)?



Gruß und Dank
 
Funktioniert nicht wirklich.
a) Die aktuellen Grakas brauchen im 2D praktisch kaum noch Strom
b) bei Systemen wo das Umschalten tatsächlich funktioniert, wird die dedizierte Graka nicht wirklich abgeschaltet. D.h. sie verbraucht weiter Strom. Da kann man sie auch gleich benutzen.

In der Regel kommt es zur Zeit nur bei Laptops vor. Und was dabei rauskommt ist auch eine Regel:
https://www.computerbase.de/forum/threads/msi-g60-niedrige-fps-schlechte-gamingperformance.1240589/ das da. Die User kommen damit nicht klar.
 
@HisN hast du für a und b irgendwelche nachweise?

Und es so zu pauschalisieren finde ich nicht ganz o.k.. Es gibt nämlich auch Leute für die das ganz wunderbar funktioniert. Ich nutze seit 1,5 Jahren ein i7 (zweite generation) Notebook mit einer Geforce 635M und bisher hat es immer tadellos funktioniert. Ich bin zwar kein Hardcoregamer, aber für den Casual gamer funktioniert es durchaus und das sehr gut.

Wie es aber damit im Desktop bereich aussieht, ka.
 
Klar. Nimm eine Titan. Miss den Idle-Verbrauch Deines Systems. Steck eine 2. Titan dazu, und miss wieder den Idle-Verbrauch Deines Systems. Kommen etwa 15W dabei rum. Is doch relativ einfach wie ich finde. Hat glaub ich CB auch schon gemacht, bin ich mir aber nicht sicher.

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-titan-test.2028/seite-15

Scheint sogar noch weniger zu sein. 9 Watt misst die CB.


Im Desktop-Bereich gibts zur Zeit nur das Lucid-Virtue. Und das funktioniert gar nicht, bzw. man bekommt Fehler die man vorher nicht hatte. AMD und Nvidia haben dort ihre Hybrid-Lösungen schon vor langer Zeit eingestellt.
 
Zuletzt bearbeitet:
HisN schrieb:
Funktioniert nicht wirklich.
a) Die aktuellen Grakas brauchen im 2D praktisch kaum noch Strom
b) bei Systemen wo das Umschalten tatsächlich funktioniert, wird die dedizierte Graka nicht wirklich abgeschaltet. D.h. sie verbraucht weiter Strom. Da kann man sie auch gleich benutzen.

In der Regel kommt es zur Zeit nur bei Laptops vor. Und was dabei rauskommt ist auch eine Regel:
https://www.computerbase.de/forum/threads/msi-g60-niedrige-fps-schlechte-gamingperformance.1240589/ das da. Die User kommen damit nicht klar.

Wenn ich jetzt mal beide Posts (bzw. den Link in Post 1) nehme, kommt das raus was ich vermutet habe:
Es ist in der Praxis und im Durchschnitt nicht vollkommen ausgereift.
Wie das (im Desktopbereich) genau verkabelt wird, ist mir aber immer noch nicht klar.
 
HisN schrieb:
Klar. Nimm eine Titan. Miss den Idle-Verbrauch Deines Systems. Steck eine 2. Titan dazu, und miss wieder den Idle-Verbrauch Deines Systems. Kommen etwa 15W dabei rum.
...
Im Desktop-Bereich gibts zur Zeit nur das Lucid-Virtue. Und das funktioniert gar nicht, bzw. man bekommt Fehler die man vorher nicht hatte. AMD und Nvidia haben dort ihre Hybrid-Lösungen schon vor langer Zeit eingestellt.

Vertue ich mich nicht oder kostet ne Titan Karte nicht unverschämt viel Geld, ungefähr so viel wie mein ganzes Notebook? :D
Solche karten kannst du dafür nicht ran nehmen, das müsste wenn mit casual karten auch so gehen.

Gut wenn ims Desktop bereich die Lösung von Nvidia nicht gibt glaube ich es das es nicht gescheite funktioniert. Denn bei AMD soll es auch mehr Probleme geben, lediglich Nvidias Lösung halte ich für gut.

Also einigen wir uns drauf das es für Casual Notebook zocker ne Lösung gibt und der rest schaut in die Röhre? ;)
 
@HisN und El_Sheepy 2fast4me *g*
 
@El_Sheepy
Ich habe einfach nur eine aktuelle Keppler genannt, weil ich da die Werte ungefähr im Kopf habe. Zieh Dich bitte nicht daran auf. Wird bei allen Keppler-Karten so sein, wenn sie nicht noch weniger verbrauchen wie die Titan aus meinem Link, der hoffentlich für Dich Beweis genug ist. Schau Dir halt ein paar andere Keppler-Reviews an.
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-760-test.2146/seite-9 <-- 4 Watt.


@Marcellus5000
Beim Virtue wird die Onboard-Graka mit dem Monitor verkabelt, und regelt scheinbar auch die Bildausgabe. Die dedizierte Graka schreibt dann wohl ihr Bild in den Framebuffer der Onboard-Graka. Die gibt es dann aus.
 
Zuletzt bearbeitet:
HisN schrieb:
Funktioniert nicht wirklich.
a) Die aktuellen Grakas brauchen im 2D praktisch kaum noch Strom

Das ist wohl der springende Punkt der damals noch anders gartet war und zu Optimismus bez der onbaord GPU führte. Naja das Fazit aus den Posts ist nun genug Info, um zu wissen, dass ich den Krempel beim Kauf eines neuen Boards plus CPU getrost disablen kann. thx euch beiden.

HisN schrieb:
@Marcellus5000
Beim Virtue wird die Onboard-Graka mit dem Monitor verkabelt, und regelt scheinbar auch die Bildausgabe. Die dedizierte Graka schreibt dann wohl ihr Bild in den Framebuffer der Onboard-Graka. Die gibt es dann aus.

ahh OK thx
 
Zuletzt bearbeitet:
@Marcellus5000
Beim Virtue wird die Onboard-Graka mit dem Monitor verkabelt, und regelt scheinbar auch die Bildausgabe. Die dedizierte Graka schreibt dann wohl ihr Bild in den Framebuffer der Onboard-Graka. Die gibt es dann aus.

Und bei dieser Lösung wird die dedizierte Grafikkarte nicht vollständig deaktiviert. Stromersparnis nahe Null. Oder hat sich da etwas getan?
 
Lucid-Virtue hat einen weiteren Nutzen, man kann Quicksync (mit seinen Vor und Nachteilen) benutzen. Allerdings finde ich die Sache extrem unbefriedigend als User, der GPU Teil macht bei Haswells mehr als einen Kern plus Cacheanteil aus, ich würde gerne als Grafikkartennutzer einen Nutzen daraus ziehen. Die Haswell GPU kann OpenCL und eben dieses quicksync encodieren, das sollte für eine Fraps ähnliche Software die perfekte Heimat sein. Oder per OpenCL ein verteiltes Rechnenprojekt wie SETI@home unterstützen.

In der 200€ Preisklasse gibt es übrigens eine Alternative zum i5-4670(k), den Intel Xeon E3-1230V3, keine GPU, weniger TDP, 100 MHz weniger und keinen offenen Multiplikator, aber 8MB L3 Cache statt 6MB beim 4670k und Hyperthreading, was bei Anwendungen die acht Kerne nutzen können einiges bringt.

Je nach Nutzen könnte der 1230V3 für dich interessant sein.
 
Die Sache ist doch eigentlich ganz einfach und reduziert sich auf eine Frage: Reicht die Leitung und Treiberunterstützung (gerade bei Intel noch oft ein Problem) der integrierten (egal ob Chipsatz oder CPU) GPU? Wenn ja, dann braucht man keine GraKa und sonst muss man sowieso eine nehmen und die braucht dann auch immer etwas Strom.
 
smuper schrieb:
Und bei dieser Lösung wird die dedizierte Grafikkarte nicht vollständig deaktiviert. Stromersparnis nahe Null. Oder hat sich da etwas getan?
Da hat sich nichts geändert. Möglicherweise "sieht" es da bei AMD & ZeroCore anders aus, wobei DAS vermutlich vernachlässigbar ist.

Die Haswell GPU kann OpenCL und eben dieses quicksync encodieren, das sollte für eine Fraps ähnliche Software die perfekte Heimat sein. Oder per OpenCL ein verteiltes Rechnenprojekt wie SETI@home unterstützen.
DAS wäre ggf. von Nutzen ... DX 11.1(2) sollte auch noch erwähnt werden.^^
Ansonsten ein guter Tipp von dir ...
 
Zurück
Oben