News Intels „Grafik-Mobile“-CPU kann Grafik abschalten

Nvidia ist da bestimmt total kooperationsbereit mit Intel. Ist ja nicht so das Intel und AMD Nvidia mit Lizensklagen quasi aus dem Markt klagen wollen.

oO
 
Ich weiß nicht so recht, wie sinnvoll es ist, immer mehr Komponenten in die CPU zu integrieren, denn das "Bau dir deinen PC so wie du ihn brauchst"-Konzept geht ja völlig verloren.
Die Chips werden größer, teurer, etc und was bringt's? Nix.
Es ist ja nicht wie beim Speichercontroller, der ja in der CPU sinnvoll untergebracht ist. Aber die Grafikkarte?

Und wenn die diskrete Karte dann nichtmal komplett in den StandBy gehen kann, dann wäre das im mobilen Sektor einfach nur ein Rückschritt und nicht weniger.
 
Es wäre super, wenn Intel die mobile GPUs von Nvidia in den Prozessor integrieren würde.
Dadurch wären Notebooks deutlich besser und es würde für den normalen User reichen, nur die integrierte Grafik zu nutzen.
 
Daniel0711 schrieb:
Bereits lange erhältliche Notebooks haben es schon geschafft im laufenden Betrieb zwischen Onboard GPU und diskreter Grafik umzuschalten ohne Zeitverzögerung, also sollte das Intel auch hinbekommen.

Wenn dann der Support vom ATI und Nvidia mitspielt, sodass sich die Grafikkarte im Desktop PC komplett abschalten lässt wäre das ein echter Quantensprung und Strom zu sparen.

MfG

Oh, ein "Quantensprung" wäre da aber nicht so gut. :D
 
Schonmal ein sehr guter Schritt. Wenn ich die Grafikkarte im laufenden Betrieb an- und ausschalten kann, wär's doch super. Unter Aus versteh ich AUS, nicht Standby. Schwierig wird es bei HD Videos. Meine E6400@2,8 Ghz muss bei Full HD Videos ganz schön ackern. Er schaffts aber grad noch so. Selbst eine Nvidia 9400GS schafft das hingegen locker, dass die CPU 0% mitrechnen muss. Grafik kann die CPU gar nicht berechnen. Sollte klar sein. Klasse im Windows Betrieb mal schnell 50W sparen. Feine Sache.
Wenn das wirklich gut geht geht, kann man seehr viel Strom sparen. Wenn ich mir überlege, braucht meine Nvidia ca 50W (Idle), trotz Voltage hack.
 
Zuletzt bearbeitet:
Naja die andere Frage ist ob Nvidia da überhaupt gefragt wird, Intel kann ja das mit
dem vollständigen Umschalten auch dem Larrabee vorbehalten um dadurch eine bessere
Stellung zu erhalten. Und AMD hat ATI die können dann auch eine Plattform Mobile Fusion
oder so machen, da wird Nvidia auch nicht wirklich gebraucht und muss dann dafür
Lizenzen erwerben.

Centrino 3 => Arrandale + 8/16 Kern Larrabee + Umschaltung zwischen onboard und
Larrabee also in der Vorstellung klingt das nicht schlecht.

crustenscharbap schrieb:
Schonmal ein sehr guter Schritt. Wenn ich die Grafikkarte im laufenden Betrieb an- und ausschalten kann, wär's doch super. Unter Aus versteh ich AUS, nicht Standby. Schwierig wird es bei HD Videos. Meine E6400@2,8 Ghz muss bei Full HD Videos ganz schön ackern. Er schaffts aber grad noch so. Selbst eine Nvidia 9400GS schafft das hingegen locker, dass die CPU 0% mitrechnen muss. Grafik kann die CPU gar nicht berechnen. Sollte klar sein. Klasse im Windows Betrieb mal schnell 50W sparen. Feine Sache.

Die CPU kann Grafik schon berechnen und auch HD-Videos eigentlich ohne starken
externen Chip. Die CPU muss nur das andere Zeugs auch noch machen, wie das ganze
behindernde Vista zum Beispiel...
Wenn du nur eine Sache machen musst bist damit auch schneller fertig als wenn du 20
gleichzeitg machen muss.
 
Wie die Gerüchteküche von Fudzilla nun berichtet, soll es dem Arrandale dabei möglich sein, die eigene Grafikeinheit auf Wunsch zu deaktivieren. [...] Es ist aber noch fraglich, ob sich die diskrete Grafikkarte auch abschalten lässt. Denn das wäre notwendig, um das System mit verschiedenen Lastszenarien sinnvoll nutzen zu könne

Es geht bisher nur um den integrierten Grafikkern im Prozessor. Diese Funktion wird z.B. bereits von aktuellen AMD Chipsätzen mit integriertem Grafikeinheit unterstützt, ist also nichts Neues.
Ob sich die Grafikkarte auch abschalten lässt... ich denke eher nicht. Aber Nvidia bietet/bot dieses Feature auch schon an (natürlich nur mit Nvidia Chipsatz + Grafikkarte).
 
Ich denke schon das man in die Grafikkarte vollständig deaktivieren im idle Modus, auch die Ignoranz der Hersteller kennt Grenzen, Nvidia konnte sich ja auch über wohlwollende Meldungen aus der Community freuen als sie Hybrid SLI wieder gekillt haben.
Nur befürchte ich das es so kommt wie schon einige hier angedeutet haben, das die Hersteller Intel und AMD dieses Feature ihren eigenen kompletten Platformen vorbehalten werden, was über kurz oder lang Nvidia aus dem Markt drängen würde.
Was wie man ja sicherlich nicht mehr erwähnen muss, nicht im Interesse von uns Kunden sein dürfte, auch wenn viele Fanboys in ihrer grenzenlosen Zuneigung zu AMD/ATi das durchaus begrüßen würden.
Aber das "Liebe" nicht immer zu rationalem Handeln führt, ist jedem Vulkanier klar und wohl auch allen Nicht-Trekies.
 
Ist Intel nicht eh schon der größte "Grafikhersteller", so läßt sich diese Segment wunderbar ausbauen.
Weltherrschaft!
 
Intel ist es allerdings nur wegen der ganzen OEM Verkaeufe soweit ich weiss. Denn wenn man sich die Chipsaetze von Intel mal anguckt.. haben alle tolle features bis zu DX10 und ShaderModel3.0/4.0, aber was die Treiber davon anbieten ist weniger als die Haelfte davon.
 
StuffedLion schrieb:
Einfach die dedizierte Karte abschalten ist nicht ausreichend. Es sei denn, ihr braucht kein Bild mehr...
Kennst du noch das Y-Kabel des ersten 3Dfx SLI Systems? Das ist einfach ein VGA Kabel, dass das Bildsignal von einer Karte zur nächsten Karte durchschleift. Und dem Monitor ist es dann ja wohl recht egal ob das Signal vom Ende A oder Ende B kommt. Ansonsten wird der Datenbus sowieso das Grafiksignal über die Leiterbahnen vom Prozessor zum Videoausgang transportieren müssen. Und ob das Signal dann vom GPU-Kern des Prozessors kommt oder über den PCI Ex. Slot eingespeist wird, ist dann ja auch recht egal.


Und wenn der Grafikkern im Prozessor sitzt spart man sich einen seperaten Chip und man könnte den GPU Kern ebenfalls über C&Q regeln. Zuende wäre die Zeit der stromfressenden Grafikkarten im Idlebetrieb. ;)
 
@Respekt:
Ich weiß es klingt komisch, aber es ist halt eine Redewendung ;)

@crustenscharbap:
Das versteh ich nicht, mein E6400 auf 3.12GHz ist ca. 25-30% ausgelastet bei FullHD Wiedergabe von h.264 Material, gemessen in .mov und .mkv Containern.

Das ist alles andere als große Auslastung.

MfG
 
Zurück
Oben