Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ohne offizielle Ankündigung hat Intel in der vergangenen Woche den G35 Express Chipset, ehemals Codename Bearlake-G+ vom Stapel laufen lassen. Daneben wurde das Produktportfolio um die Chipsätze P31 und G31 erweitert.
Somit heißt das jetzt also, das auch der Chipsatz in Zukunft an der Stromrechnung schuld sein wird^^
Also meiner Meinung nach konnte man ja noch mit ner integrierten Grafik noch vor 3-4 Jahren ja noch "spielen"
Doch was soll einem eine DX10 - Grafiklösung bringen? Ich glaub eher weniger das man beim Arbeiten Grafik gebraucht. Für Videobearbeitung ist das ja auch nicht zu empfehlen und sonst ist das alles andere als nützlich, wenn man Dx10 hat und es nicht einsetzen kann.
ICh glaub kaum, das man mit dieser Grafiklösung z.B. Crysis zum laufen bringt, wenn man den Gerüchten glaubt^^
Für alle anderen Anwendungen....naja.......denke man hätte auch weiterhin DX9 lassen können, doch die Welt schreitet voran und braucht neue Technick^^
Irgendwie zieht dieser Chipsatz schon ordentlich was an Strom ....
Mich würde ein Stromverbrauchvergleich zwischen AMD690G und dem G35 interessieren. ^^
Also reall gemessen und nicht nach dem Datenblatt. Schreiben kann man viel.
Der Unterschied liegt an den deaktivieren PCI Express-Lanes, wenn die integrierte Grafik arbeitet. Steckt eine normale Grafikkarte im Steckplatz, verbraucht der G33 so viel wie ein P35.
6. When an external graphics card is installed in a system with the Intel 82G33, the TDP
for these parts will assume the worst possible PCI Express design and consume as
much as 82P35 TDG (16.0 W)
Laut den Datenblättern* siehts für den G35 Mau aus...
690G + SB600: 11.5W
G35 + ICH9: 32.3W
___
* Real dürften die Dinger wie bei Prozessoren meist deutlich drunter liegen. Die Kühllösungen auf den Mainboards sind auf jedenfall auf diese Werte ausgelegt
Ich kann mir nicht vorstellen, dass die Verbrauchswerte da stimmen.
Hab ein P35-DS3 und ein Intel DG965-RY. Der Kühler vom Gigabyte ist ein Stück größer und imo auch klüger zur CPU hin ausgerichtet.
Wenn der G965 wirklich fast doppelt soviel Strom ziehen würde wie der P35, dann müsste da am Kühlkörper ein deutlicher Unterschied fühlbar sein. Dem ist aber nicht so, subjektiv ist das Intel vielleicht 5 Grad wärmer, aber das könnte ich mir schon durch den kleineren Kühlkörper erklären.
Dass der Canterwood weniger brauchen soll als der Springdale halte ich auch für ein Gerücht.
Ist da der Stromverbrauch gemeint oder so ein realitätsferner Phantasiewert a la TDP ?
@Creshal
Wenn ich mich nicht irre, ist da bei Intel aber noch der Memorycontroller drin. Deshalb ist der Vergleich ein wenig unfair. Aber imo steht Intel immer noch schlecht da, wenn man den Memorycontroller rausrechnet. ATi hat schlägt ja auch den nforce-Chipsatz normalerweise beim Energieverbrauch, also kein Wunder.
@Blutschlumpf
Im Artikel steht laut und deutlich TDP. Und das bedeutet, du müsstest bei bei Vergleichen die schon GPU belasten, da die TDP nix über den Idle-Verbrauch aussagt.
Ja, dieses "ein innovatives Produkt, das nur noch von der Grafiktreiberentwicklung in den Schatten gestellt wird." finde ich nicht unbedingt passend in einem objektiven Bericht, Klingt irgendwie... ironisch.
Und DX10 hin oder her, wichtig ist das ein einem Chipsatz sowieso nicht. Wer erwartet denn heute, dass er mit seiner Chipsatzgrafik aktuelle DX10 Titel zocken kann? Ich hoffe niemand
Mit was Phantasie kann ich das hieraus noch ableiten, aber wirklich implizieren tut das eine das andere nicht.
Von Generation zu Generation hat sich die Stromaufnahme (bzw. die Thermal Design Power, für die die Kühllösungen ausgelegt werden müssen) der Chipsätze mit Grafik kontinuierlich erhöht.