News Intel G35-Chipsatz unangekündigt eingeführt

Tommy

Chef-Optimist
Teammitglied
Dabei seit
März 2001
Beiträge
8.193
Ohne offizielle Ankündigung hat Intel in der vergangenen Woche den G35 Express Chipset, ehemals Codename Bearlake-G+ vom Stapel laufen lassen. Daneben wurde das Produktportfolio um die Chipsätze P31 und G31 erweitert.

Zur News: Intel G35-Chipsatz unangekündigt eingeführt
 

S´p@tcher

Lieutenant
Dabei seit
Jan. 2007
Beiträge
874
Somit heißt das jetzt also, das auch der Chipsatz in Zukunft an der Stromrechnung schuld sein wird^^

Also meiner Meinung nach konnte man ja noch mit ner integrierten Grafik noch vor 3-4 Jahren ja noch "spielen"

Doch was soll einem eine DX10 - Grafiklösung bringen? Ich glaub eher weniger das man beim Arbeiten Grafik gebraucht. Für Videobearbeitung ist das ja auch nicht zu empfehlen und sonst ist das alles andere als nützlich, wenn man Dx10 hat und es nicht einsetzen kann.

ICh glaub kaum, das man mit dieser Grafiklösung z.B. Crysis zum laufen bringt, wenn man den Gerüchten glaubt^^

Für alle anderen Anwendungen....naja.......denke man hätte auch weiterhin DX9 lassen können, doch die Welt schreitet voran und braucht neue Technick^^
 

katzi

Lt. Junior Grade
Dabei seit
Juni 2005
Beiträge
336
Irgendwie zieht dieser Chipsatz schon ordentlich was an Strom ....
Mich würde ein Stromverbrauchvergleich zwischen AMD690G und dem G35 interessieren. ^^
Also reall gemessen und nicht nach dem Datenblatt. Schreiben kann man viel.
 

Voyager10

Fleet Admiral
Dabei seit
Juli 2006
Beiträge
11.336
Der Kauf scheint sich nicht zu lohnen wenn die Performance zum G33 schlechter ausfällt und sogar Features fehlen.
 

Voyager10

Fleet Admiral
Dabei seit
Juli 2006
Beiträge
11.336
Die Northbridge frisst eine etwaige Ersparnis aber wieder auf .
 

MR2007

Lieutenant
Dabei seit
Mai 2007
Beiträge
860
Cool, dann kann ich meine alte 7800 GTX weiterverwenden, habe aber trotzdem HDMI und DX 10(jaja, ich weiß bringt mir nichts, aber was solls :D )
 

_Grisu

Commander
Dabei seit
Aug. 2004
Beiträge
2.200
Bei so einem Stromverbrauch kommt der mir nicht in den Rechner. Und der "DirectX10" Werbesticker hilft da auch nicht.
 

PP_cl

Lt. Junior Grade
Dabei seit
Aug. 2004
Beiträge
483
Freue mich schon auf den ersten CB-Test.
 

Kugelsicher

Lt. Junior Grade
Dabei seit
Feb. 2006
Beiträge
342
Was mich wundert ist, dass der G33 (mit Grafik) weniger Strom verbrät als ein P35 ohne.

Wie geht denn sowas??

Sieht mir fast wie ein Druckfehler beim G33 aus.
 
Zuletzt bearbeitet:

Tommy

Chef-Optimist
Ersteller dieses Themas
Teammitglied
Dabei seit
März 2001
Beiträge
8.193
Der Unterschied liegt an den deaktivieren PCI Express-Lanes, wenn die integrierte Grafik arbeitet. Steckt eine normale Grafikkarte im Steckplatz, verbraucht der G33 so viel wie ein P35.

6. When an external graphics card is installed in a system with the Intel 82G33, the TDP
for these parts will assume the worst possible PCI Express design and consume as
much as 82P35 TDG (16.0 W)
 

Blutschlumpf

Fleet Admiral
Dabei seit
März 2001
Beiträge
17.685
Ich kann mir nicht vorstellen, dass die Verbrauchswerte da stimmen.
Hab ein P35-DS3 und ein Intel DG965-RY. Der Kühler vom Gigabyte ist ein Stück größer und imo auch klüger zur CPU hin ausgerichtet.
Wenn der G965 wirklich fast doppelt soviel Strom ziehen würde wie der P35, dann müsste da am Kühlkörper ein deutlicher Unterschied fühlbar sein. Dem ist aber nicht so, subjektiv ist das Intel vielleicht 5 Grad wärmer, aber das könnte ich mir schon durch den kleineren Kühlkörper erklären.
Dass der Canterwood weniger brauchen soll als der Springdale halte ich auch für ein Gerücht.
Ist da der Stromverbrauch gemeint oder so ein realitätsferner Phantasiewert a la TDP ?
 
Zuletzt bearbeitet:

MacroWelle

Commander
Dabei seit
Apr. 2006
Beiträge
2.225
@Creshal
Wenn ich mich nicht irre, ist da bei Intel aber noch der Memorycontroller drin. Deshalb ist der Vergleich ein wenig unfair. Aber imo steht Intel immer noch schlecht da, wenn man den Memorycontroller rausrechnet. ATi hat schlägt ja auch den nforce-Chipsatz normalerweise beim Energieverbrauch, also kein Wunder.

@Blutschlumpf
Im Artikel steht laut und deutlich TDP. Und das bedeutet, du müsstest bei bei Vergleichen die schon GPU belasten, da die TDP nix über den Idle-Verbrauch aussagt.
 
Zuletzt bearbeitet:

roboto

Lieutenant
Dabei seit
Jan. 2007
Beiträge
819
Ja, dieses "ein innovatives Produkt, das nur noch von der Grafiktreiberentwicklung in den Schatten gestellt wird." finde ich nicht unbedingt passend in einem objektiven Bericht, Klingt irgendwie... ironisch.

Und DX10 hin oder her, wichtig ist das ein einem Chipsatz sowieso nicht. Wer erwartet denn heute, dass er mit seiner Chipsatzgrafik aktuelle DX10 Titel zocken kann? Ich hoffe niemand ;)
 
C

Creshal

Gast
@Creshal
Wenn ich mich nicht irre, ist da bei Intel aber noch der Memorycontroller drin. Deshalb ist der Vergleich ein wenig unfair.
Nun ja, aber wenn man die Gesamt-TDP mit CPU (inkl. Speichercontroller des A64) betrachtet, siehts auch nicht wirklich anders aus.

AMD: 11.5W + 35W (EE SFF) / 45W (Athlon BE)
Intel: 32.3W + 35W (Celeron S) / 65W (Core2)

Edit: @19: Dass bei solchen Angaben immer die TDP gemeint sind, sollte eigentlich logisch sein – alles andere wäre nicht vergleichbar.
 
Zuletzt bearbeitet:

Blutschlumpf

Fleet Admiral
Dabei seit
März 2001
Beiträge
17.685
Genaugenommen stehts eigentlich nicht.
Zitat von News:
Die Vorstellung des G35-Chipsatzes möchten wir mit einem Vergleich der Stromaufnahme abschließen, die wir den Datenblättern entnommen haben.
Mit was Phantasie kann ich das hieraus noch ableiten, aber wirklich implizieren tut das eine das andere nicht.
Von Generation zu Generation hat sich die Stromaufnahme (bzw. die Thermal Design Power, für die die Kühllösungen ausgelegt werden müssen) der Chipsätze mit Grafik kontinuierlich erhöht.
 

tnlive

Cadet 4th Year
Dabei seit
Juli 2003
Beiträge
76
Da Lob ich mir den XPress 3200 der mich bis zum Phenom X4 ... begleiten wird ;-)
 
Top