News Nvidias Hybrid-SLI spart Strom

https://www.computerbase.de/2007-06/nvidia-arbeitet-an-stromsparendem-hybrid-sli/ (26. Jun 2007) Ati hat erst später mit der Entwicklung begonnen.
Es werden also alle GF8 Modelle von 8800GTS 320 bis zur ganz Neuen(ach so tollen) 8800GT auf ihrem viel zu hohem Idle Stromverbrauch sitzen bleiben!
Sich Vista mitte 2008 mit einem neuem Mainboard(Phenom, Penryn) anzuschaffen geht ja noch, was soll man denn mit den High End GF8 machen die will man doch 2-5 Jahre benutzen?
Für mich mit meiner GF 8 GTX, bleibt mir nix anderes übrig als einen 2. Stromspar PC fürs 2D Arbeiten anszuschaffen(Asus Eee anyone?), nur weil Nvidia es nicht gebacken bekommt, wenigstens den versprochenen Stromspartreiber!!! für die 8800er rauszubringen! Ganz toll!! Nvidia ist für mich vorerst gestorben!
 
Für die Kohle, die du da in deinen Stromspar-PC steckt, kannst du deinen eigenen ein paar Jahre betreiben.
 
Warum glaubst du regt es mich so auf? Es geht bei Hybrid-Sli nicht nur um Stormsparen, sondern auch um die 2. Heizung(die im Sommer unerträglich ist) bei der GTX, die einer High End Cpu entspricht die IMMER auf 100% läuft sprich ca. 130W! Mein nächster PC hätte mit dem Feature auch im 2D lüfterlos laufen sollen, also auch die Lautstärke spielt bei mir eine Rolle. Das können alle GF 8 Besitzter vergessen...
 
edo# schrieb:
@tAk

Das Problem ist das es mit keiner erhältlichen Grafikkarte funktioniert. Ein reiner Paperlaunch damit sie vor AMD sind, die nächsten monat dran sind.

Das Ganze klappt erst mit der bald erscheinen 9800GTX, ende Februar dann.

Wie sagt man: Besser spät als nie. ;)
Immerhin wagt man auch auf Seiten von nVidia diesen Schritt. Dank der Konkurrenz von AMD sieht man sich quasi dazu gezwungen. Und genau deswegen ist eine gesunde Konkurrenz am Markt von nöten. Stichwort Innovation.

mFg tAk
 
Das ganze ist schon über 10 Jahre alt und wurde von 3dfx vorangetrieben.
Wie die Firmengeschichte ausging wissen wir ja alle :evillol:

Alles ein riesiger Schwachsinn.
 
Natürlich gute Sache :)


...wobei ich bis heute nicht verstehen kann, warum nicht einfach "ein paar tausend" transistoren extra auf die grafikkarten gepackt werden, die für die 2D darstellung sorgen, der ganze 3D teil kann dann abgeschaltet werden wenn er nicht gebraucht wird. wenn man sich die technologischen fortschritte bei jeder neuen generation anschaut, sollte das doch irgendwie auch noch möglich sein.
 
Bei der 7er Serie von nVidia hat man es ja z.T. mit heruntertakten "versucht". Dies war anscheinend beim G80 und Co. nicht mehr so allzu leicht zu bewerkstelligen.

mFg tAk
 
nicht mher allzu leicht zu bewerkstelligen?!? man bezahlt 550 € ( am anfang sogar 600€) für ne grafikkarte (für soviel kauft sich manch einer nen laptop) und dann kriegt man nicht mal was ordenliches!!!
 
@22
Gute Frage! Aber gibt es das bei ATI nicht auch, oder schaffen die das bisher nur ohne die Abschaltung?
 
Wenigsten tut sich da bald was. Aber sich extra einen ganz neuen Pc zuzulegen finde ich auch etwas uebertrieben, dann lieber einen alten Pc zum Surfen etc. benutzten.
 
es fragen sich ja viele warum man unbedingt Vista dafür benötigt... ich kann mir auch schon denken warum:
Wenn man versuchen will Strom zu sparen, muss man die Karte(n) sozusagen ausschalten/abklemmen, was man normaler weise (siehe Onboard-Grafiklösungen) im BIOS einstellt. Wenn man nun also während eines laufenden Systems gundlegende In- und Output spezifische Einstellungen ändern will, muss man ganz runter auf die Hardwareebene, was wiederrum EVTL von "hoch entwickelten" plattformen wie Vista unterstützt wird. Wer hat denn schon vor ca. 5 Jahren zZ der XP-Entwicklung an solche Technologien gedacht!?

...meine meinung/idee/vorstellung
 
Das Feature Abschalten auf Hardwareebene sollte eigentlich bei Vista verhindern, das das System "unsicher" wird. Alle Geräte sollten nämlich hierbei abschaltbar sein, sobald eine unerwünschte Komponente gefunden wird. (Sorftware u. Hardware)
Was du als "hoch entwickelte Plattform" bezeichnest würde ich eher als Gängelung des Nutzers sehen.
Auch sollte man nicht vergessen, das wenn man zur onboard Graka eine 8500GT dazuschaltet, bei Spielen wesentlich mehr Strom verbraucht wird, da 2 Grakas im Einsatz, u. die Leistung einer einzelnen 8500GT doch nicht erreicht wird.
 
@51 Wenn du ganz runter auf die Hardwareebene gehst, ist das OS egal, weil du es dann umgehst und eben auf Hardware- und nicht auf Betriebssystemeben arbeitest. ;)
Das dürfte eher nur für Vista entweickelt werden, weil man da eben auf OS-Ebene arbeiten kann und bei XP auf die Hardwareebene müsste (zumindest vor dem Release von Vista hieß es, dass das Grafiksubsystem wieder aus dem Kernel gewandert ist, wodurch es flexibler arbeiten kann [und langsamer wird, weswegen es bei einer der späteren NT-Versionen überhaupt erst in den Kernel integriert wurde]).
 
Nette Idee - aber was ist mir Dual Monitoring bzw. Dual screen? ein Ausgang aufem Mabo bringt mit ja dann nichts, oder soll man dann noch die Matrox (dual head) dazwischen koppeln? :D
 
gute Idee. Was vllt. auch cool wäre, ist eine leistungsstake Gpu wie die 8800 GTS und als SLI noch eine 8800 GS, und die leistungsstärkere wird einfach manchmal abgeschaltet
 
hui, endlich mal wieder was zum Thema Hybrid SLI, ich dachte schon Nvidia hat das Thema wieder auf Eis gelegt :)

nun, intel-boards erst im 2ten Quartal is leider zu lange für mich, da ich jetzt neu kaufen muss :(
aber später, wenn der Refresh vom Nahalem da ist, also so ca ende 2009 werd ich mir dann alles neukaufen.
Bis dahin reift die die Hybrid-SLI-Technologie hoffentlich noch schön :)
 
@ implosion:
dafür muss man scheinbar die extra karte einbaun, und die anschlüsse an der karte sind acuh NUR für dualmonitoring nötig, so wie es aussieht. und wenn man 4 anschlüsse nutzen will MUSS man ne 2. karte einbaun...
 
Tolle Neuerung wenn man bedenkt das der PCIe Hot-Swap fähig wäre und dazu ist kein Vista nötig :rolleyes:
(nur entsprechendes Mainboard + BIOS + Treiber)

Evtl. schnapp ATI die Möglichkeit noch auf.....oder auch nicht.
 
Zuletzt bearbeitet:
Zurück
Oben