News GPU-Virtualisierung für Intel-Mainboards

Ich raffe das Prinzip nicht so ganz...das Programm schaltet also meine GPU in den Idyl-Zustand,wenn sie nicht gebraucht wird, aber das macht die doch schon von alleine?!
Sinnvoll wäre es doch sie komplett auszuschalten.
 
Für mich als Privatanwender ist GPU Computing eine echte Nullnummer.

Was hat es denn überhaupt gebracht?
Wo wird es benutzt?

Nicht mal beim Video (en)codieren liefert es gute und schnelle Ergebnisse.
Die Qualität durch die CPU liefert immer bessere Bildqualität als die der GPU.
Obwol man eine GPU hat, die es kann, wird es nicht genutzt.
Daher konzentriert man sich vermutlich auch auf mobile Formate, auf den kleinen
Displays fällt die Qualität nicht negativ auf.

GPU ist letztendlich etwas für professionelle parallele Berechnungen,
die der Endanwender nicht macht.
 
karuso schrieb:
Hatte bei der Überschrift ja was anderes gehofft: direkter Zugriff auf die Grafikkarte durch virtuelle Maschinen - das wäre wirklich interessant. Das hier ist ja leider wie schon gesagt nichts anderes als nvidias optimus bzw die generelle Verhaltensweise von Macbooks(egal welche Grafikkarten kombiniert sind).

ging mir genauso ;) Darauf warte ich schon seit Jahren. Das würde nämlich deutliche Vorteile mit sich bringen, dann könnte man nämlich direkt ein Image eines optimierten OS mit jeweiligen Anwendung ausliefern. In Kombination mit einem standardisiertem Kontainer-Format hätten wir dann wirklich plattformunabhängige Anwendungen (d.h. man könnte z.B. ein Konsolenspiel auch einfach auf dem PC spielen, und umgekehrt)
 
das war auch mein erster Gedanke, als ich die Überschrift las. Endlich mal vernünftigen GPU Zugang in der VM, aber da können wir wohl noch lange arten, da es sich finanziell nicht lohnt sowas für Privatanwender zu entwickeln.
 
Zuletzt bearbeitet:
Das mit dem abschalten der Grafikkarte im laufenden Betrieb könnte theoretisch längst Realität sein. PCI Express unterstützt "Hot-Plugged" als das rausziehen und einstecken der Karten im laufenden Betrieb.

Dies könnte man doch theoretisch per Software steuern und dem Betriebssystem ein "ziehen" der Grafikkarte vorgaukeln. In der Praxis könnte der Slot dann stromfrei geschaltet werden. Und die Lüfter der Grafikkarte könnten dann noch 1-2 Minuten nachlaufen um die Themperatur zu senken. Danach wird völlig abgeschaltet und fertig.

Sollte jetzt ein Spiel gestartet werden, dann kann das ganze doch andersherum ablaufen?

Aber zum Thema das Programm ist sinnfrei ausser bei einer einzigsten Anwendung und das ist die Videoumwandlung mit der Hardwarelogik des Sandy Cores. Ist die Qualität denn Vergleichbar mit einer reinen Umwandlung per Prozessor? Die GPU Umwandlung ist ja leider noch nicht das wahre.
 
irgendwie hab ichs nicht gefunden.. was soll denn die Software nach Ablauf der 30 Tage kosten?
 
Naja Nach dem Titel habe ich gehoft das es etwas nützlicheres wie etwa in einer virtuellen Umgebung die GPU nutzen und so auch Spiele möglich wären.
Aber so O.o sehe da jetzt nicht wirklich eine Weltbewegende neuigkeit, mein HP Touchsmart kann auch die Grafikkarte von der Intel auf die ATi karte schalten. Nur weil das jetzt Automatisch bei 3D zu Desktop geht? WOW so faul bin ich nun nicht das ich nicht selber den Umschalter betätigen kann...
 
Suxxess schrieb:
Und die Lüfter der Grafikkarte könnten dann noch 1-2 Minuten nachlaufen um die Themperatur zu senken. Danach wird völlig abgeschaltet und fertig.
Was soll das bringen? Ist die Grafikkarte abgeschaltet sinkt die Temperatur von ganz allein, da keine Wärme mehr entsteht.. Ist das gleiche bei diesen 'tollen' Netzteilen die noch nachlaufen, bringt absolut nichts, außer mehr Stromverbrauch, da die Lüfter ja noch 1-2 Minuten laufen.


Ich gebe da einigen Vorrednern recht, ohne komplette Abschaltung der Grafikkarte bringt das relativ wenig, auch wenn einige Grafikkarten z.B. auch schon beim Abspielen von Videos hochtakten. Eine komplette Abschaltung lässt sich aber nur sehr schwer realisieren, das Grafikkartenbios muss dann erst wieder geladen werden und der VRAM gefüllt werden, ganz davon ab wie man überhaupt das Signal zum Aufwecken schickt. Das Betriebssystem muss es dann natürlich auch unterstützen..

Nvidia hatte ja mal so eine Technik, leider wurden nur sehr wenige GPUs unterstützt und man musste natürlich ein Mainboard mit einer Nvidia IGP haben.
 
heutige grafikkarten arbeiten doch so schon beim office/internet/leichten multimedia betrieb im idle.

schlussendlich spart man kein strom, wenn die graka nich ganz abschalten würde.

--> schwachsinn!

Schön das du noch nie was von Aero, Compiz oder GPU beschleunigten HD Material gehört hast.

Ich finde die Idee fabelhaft und erhoffe mir 100% Marktdurchdringung damit die sinnlose Stromverschwendung von ungenutzter Hardware endlich aufhört und die Hersteller selber endlich was dagegen tun und das bitte nicht nur im "portabel" - Bereich.
 
kirikiri schrieb:
Nvidia hatte ja mal so eine Technik, leider wurden nur sehr wenige GPUs unterstützt und man musste natürlich ein Mainboard mit einer Nvidia IGP haben.

Du meinst Hybrid Power ?

Bei mir hat es recht gut funktioniert ( M3N78-EM & GTX260 ), aber auch dabei wurde die GPU nicht zu 100% abgeschaltet und ua. deswegen habe ich es recht schnell aufgegeben.
 
Suxxess schrieb:
Das mit dem abschalten der Grafikkarte im laufenden Betrieb könnte theoretisch längst Realität sein. PCI Express unterstützt "Hot-Plugged" als das rausziehen und einstecken der Karten im laufenden Betrieb.

Dies könnte man doch theoretisch per Software steuern und dem Betriebssystem ein "ziehen" der Grafikkarte vorgaukeln. In der Praxis könnte der Slot dann stromfrei geschaltet werden.

theoretisch könnte das funktionieren, praktisch muss aber auch das Betriebssystem dies unterstützen und daran wird es wahrscheinlich hängen.
 
Ob es jetzt über das BS, oder den Treiber geht - beides ist nicht optimal...
Eine HW-Schnittstelle wäre die beste Lösung, aber dazu werden sich die drei nie durchringen ( für AMD selbst wäre es natürlich kein grosses Problem ).
 
Warum nicht für P67 Boards? ist doch nur softwaremäßig oder nicht?
Am besten wäre es wenn man monitor an der dedizierten graka lässt und diese das bild der igp nur weitergibt.
 
Dann darf sie aber nie ganz abschalten...
 
Die Idee des Ganzen ist schon recht gut, aber bringen wird es nicht viel.
Im Normalen Windows-Betrieb, also beim Surfen etc. sogar beim Video schauen, Taktet sich mein Prozessor auf 1,6 GHz und meine Grafikkarte auf 100 MHz...davon merke Ich als nutzer nichts, wenn ich nicht gerade in c/gpu-z schaue.
D.h. Die Grafikkarte ist dann sowieso im Idle Modus, und der IGP würde wie schon gesagt nur den CPU weiter erwärmen, aber kein Strom sparen.
Mit nVidia Optimus kann man es nicht direkt vergleichen, hier wird ja primär versucht, bei Notebooks die Akkulaufzeit zu steigern, wobei sich der nVidia Chip Abschaltet.

Sinnvoll würde ich diese Technik für einfache Spiele halten, denn:
Ob der Dedizierte Grafikchip nun 250 Bilder pro Sekunde brechnet, oder
der IGP 60 Bilder pro Sekunde (mehr können die meisten Bildschirme sowieso nicht Darstellen) macht sich für viele nicht bemerkbar.
 
Nanana, die Jungs von LucidLogix haben wohl gemerkt dass die Welt ihre Hydra nicht braucht. Also dann den Chip um 1 Feature erweitern (was sich sogar auf OS-Ebene machen ließe) und für teuer Geld verkaufen. Wenn die noch schaffen mit Intel und/oder AMD Verträge abzuschließen und Hydra standardmäßig auf jeden Motherboard zu installieren, haben sie ihren Durchbruch geschafft. Die Frage ist nur - brauchen das die User? Die Kosten für solche Spielereien sind wohl höher als die gesparten Stromkosten.
 
Wenn die dedizierte GraKa ganz abgeschaltet werden könnte, hätte es einen Sinn für mich aber so...
Wenn meine GraKa eh alles im idle erledigt brauch ich auch keine 2te sparsame GPU.
 
Wäre es damit möglich die Sandy Bridge GPU zusammen mit einer Nvidia GPU zu verwenden, und somit 3 Monitore anschließen zu können ohne SLI?
 
feris schrieb:
Nicht mal beim Video (en)codieren liefert es gute und schnelle Ergebnisse.
Die Qualität durch die CPU liefert immer bessere Bildqualität als die der GPU.
Obwol man eine GPU hat, die es kann, wird es nicht genutzt.
Daher konzentriert man sich vermutlich auch auf mobile Formate, auf den kleinen
Displays fällt die Qualität nicht negativ auf.

Liegt laut meinen Infos weniger an der GPU, als viel mehr an den Programmierung, die schnell einen einen GPU-Support (die meisten auch noch auf Cuda Basis) zusammengezimmert haben.

@Topic:
Solange die dedizierte Graka nicht abgeschaltet wird, bringt das nichts...

AMD wollte doch in diesem Frühjahr eine Verbesserung ihrer Optimus-Konkurrenz rausbringen.
Wo bleibt die eigentlich oder hat nur mal wieder CB kein Interesse an AMD News?
 
Zurück
Oben