News Intel G35-Chipsatz unangekündigt eingeführt

Tommy

Chef-Optimist
Teammitglied
Registriert
März 2001
Beiträge
8.193
Ohne offizielle Ankündigung hat Intel in der vergangenen Woche den G35 Express Chipset, ehemals Codename Bearlake-G+ vom Stapel laufen lassen. Daneben wurde das Produktportfolio um die Chipsätze P31 und G31 erweitert.

Zur News: Intel G35-Chipsatz unangekündigt eingeführt
 
Somit heißt das jetzt also, das auch der Chipsatz in Zukunft an der Stromrechnung schuld sein wird^^

Also meiner Meinung nach konnte man ja noch mit ner integrierten Grafik noch vor 3-4 Jahren ja noch "spielen"

Doch was soll einem eine DX10 - Grafiklösung bringen? Ich glaub eher weniger das man beim Arbeiten Grafik gebraucht. Für Videobearbeitung ist das ja auch nicht zu empfehlen und sonst ist das alles andere als nützlich, wenn man Dx10 hat und es nicht einsetzen kann.

ICh glaub kaum, das man mit dieser Grafiklösung z.B. Crysis zum laufen bringt, wenn man den Gerüchten glaubt^^

Für alle anderen Anwendungen....naja.......denke man hätte auch weiterhin DX9 lassen können, doch die Welt schreitet voran und braucht neue Technick^^
 
Irgendwie zieht dieser Chipsatz schon ordentlich was an Strom ....
Mich würde ein Stromverbrauchvergleich zwischen AMD690G und dem G35 interessieren. ^^
Also reall gemessen und nicht nach dem Datenblatt. Schreiben kann man viel.
 
Der Kauf scheint sich nicht zu lohnen wenn die Performance zum G33 schlechter ausfällt und sogar Features fehlen.
 
Die Northbridge frisst eine etwaige Ersparnis aber wieder auf .
 
Cool, dann kann ich meine alte 7800 GTX weiterverwenden, habe aber trotzdem HDMI und DX 10(jaja, ich weiß bringt mir nichts, aber was solls :D )
 
Bei so einem Stromverbrauch kommt der mir nicht in den Rechner. Und der "DirectX10" Werbesticker hilft da auch nicht.
 
Was mich wundert ist, dass der G33 (mit Grafik) weniger Strom verbrät als ein P35 ohne.

Wie geht denn sowas??

Sieht mir fast wie ein Druckfehler beim G33 aus.
 
Zuletzt bearbeitet:
Der Unterschied liegt an den deaktivieren PCI Express-Lanes, wenn die integrierte Grafik arbeitet. Steckt eine normale Grafikkarte im Steckplatz, verbraucht der G33 so viel wie ein P35.

6. When an external graphics card is installed in a system with the Intel 82G33, the TDP
for these parts will assume the worst possible PCI Express design and consume as
much as 82P35 TDG (16.0 W)
 
An den Autor: Also dieser Titel klingt irgendwie komisch... muss wohl am letzten Wort liegen ;)
 
katzi schrieb:
Mich würde ein Stromverbrauchvergleich zwischen AMD690G und dem G35 interessieren. ^^
Laut den Datenblättern* siehts für den G35 Mau aus...
690G + SB600: 11.5W
G35 + ICH9: 32.3W

___
* Real dürften die Dinger wie bei Prozessoren meist deutlich drunter liegen. Die Kühllösungen auf den Mainboards sind auf jedenfall auf diese Werte ausgelegt
 
Ich kann mir nicht vorstellen, dass die Verbrauchswerte da stimmen.
Hab ein P35-DS3 und ein Intel DG965-RY. Der Kühler vom Gigabyte ist ein Stück größer und imo auch klüger zur CPU hin ausgerichtet.
Wenn der G965 wirklich fast doppelt soviel Strom ziehen würde wie der P35, dann müsste da am Kühlkörper ein deutlicher Unterschied fühlbar sein. Dem ist aber nicht so, subjektiv ist das Intel vielleicht 5 Grad wärmer, aber das könnte ich mir schon durch den kleineren Kühlkörper erklären.
Dass der Canterwood weniger brauchen soll als der Springdale halte ich auch für ein Gerücht.
Ist da der Stromverbrauch gemeint oder so ein realitätsferner Phantasiewert a la TDP ?
 
Zuletzt bearbeitet:
@Creshal
Wenn ich mich nicht irre, ist da bei Intel aber noch der Memorycontroller drin. Deshalb ist der Vergleich ein wenig unfair. Aber imo steht Intel immer noch schlecht da, wenn man den Memorycontroller rausrechnet. ATi hat schlägt ja auch den nforce-Chipsatz normalerweise beim Energieverbrauch, also kein Wunder.

@Blutschlumpf
Im Artikel steht laut und deutlich TDP. Und das bedeutet, du müsstest bei bei Vergleichen die schon GPU belasten, da die TDP nix über den Idle-Verbrauch aussagt.
 
Zuletzt bearbeitet:
Ja, dieses "ein innovatives Produkt, das nur noch von der Grafiktreiberentwicklung in den Schatten gestellt wird." finde ich nicht unbedingt passend in einem objektiven Bericht, Klingt irgendwie... ironisch.

Und DX10 hin oder her, wichtig ist das ein einem Chipsatz sowieso nicht. Wer erwartet denn heute, dass er mit seiner Chipsatzgrafik aktuelle DX10 Titel zocken kann? Ich hoffe niemand ;)
 
MacroWelle schrieb:
@Creshal
Wenn ich mich nicht irre, ist da bei Intel aber noch der Memorycontroller drin. Deshalb ist der Vergleich ein wenig unfair.
Nun ja, aber wenn man die Gesamt-TDP mit CPU (inkl. Speichercontroller des A64) betrachtet, siehts auch nicht wirklich anders aus.

AMD: 11.5W + 35W (EE SFF) / 45W (Athlon BE)
Intel: 32.3W + 35W (Celeron S) / 65W (Core2)

Edit: @19: Dass bei solchen Angaben immer die TDP gemeint sind, sollte eigentlich logisch sein – alles andere wäre nicht vergleichbar.
 
Zuletzt bearbeitet:
MacroWelle schrieb:
Im Artikel steht laut und deutlich TDP.
Genaugenommen stehts eigentlich nicht.
News schrieb:
Die Vorstellung des G35-Chipsatzes möchten wir mit einem Vergleich der Stromaufnahme abschließen, die wir den Datenblättern entnommen haben.
Mit was Phantasie kann ich das hieraus noch ableiten, aber wirklich implizieren tut das eine das andere nicht.
Von Generation zu Generation hat sich die Stromaufnahme (bzw. die Thermal Design Power, für die die Kühllösungen ausgelegt werden müssen) der Chipsätze mit Grafik kontinuierlich erhöht.
 
Da Lob ich mir den XPress 3200 der mich bis zum Phenom X4 ... begleiten wird ;-)
 
Zurück
Oben