Test Test: nVidia GeForce 6600-Serie

Doom 3 ist ein OpenGL-Spiel und unterstützt somit nicht das SM 3.0.
 
Die GeForce 6800 wird fast ausschließlich mit 128 MB Speicher ausgeliefert.
 
Habe das Bild einer Albatron 6600 GT ergattern können.
 

Anhänge

  • albatron_6600_gt.jpg
    albatron_6600_gt.jpg
    69,2 KB · Aufrufe: 656
Hoffentlich werden auch passiv gekühle Versionen kommen. Mit der 6800 LE ist Albatron ja schon mit gutem Beispiel voran gegangen: https://www.computerbase.de/2004-07/gigabytes-geforce-6800-le-mit-heatpipe/

Is aber wahrscheinlich nicht so einfach. Die 6600 GT wird aufgrund der höheren Taktraten wohl wäremer als ne 6800 LE. Laut dem hier diskutierten CB-Artikel kommt sie ja von den Temperaturen unter Last an die 6800 heran und übertrifft diese ja sogar mit 3°C.
 
Erstmal ein Hallo an alle und Daumen hoch für diesen guten Test der 6600 GT.

Was jetzt noch interessant wäre, da es sich ja anscheinend um DIE neue Mainstream-Karte handelt, ist ein Test auf verschiedenen Mainstream-Systemen, bei Sockel-A z.B mit einem XP 1800+ Thorougbred oder Palomino und nem 2500+ Barton.
So hat man eine gute Vergleichsmöglichkeit, ob sich auf dem eigenen System eine 6600 GT lohnt oder ob man z.B. bei seiner 5900XT bleibt.

Mich persönlich interessiert noch, ob man bei der AGP-Version der 6600 GT deutliche Einbußen hinnehmen muss, wenn man ein Board hat welches "nur" AGP 4x und nicht AGP 8x besitzt. Ich weiß dass die AGP-Variante noch nicht erschienen ist, aber vielleicht hat ja jemand schon ein paar Informationen oder das nötige Fachwissen.

Danke schonmal,

Gruß Whirlie
 
Ich prophezeie mal, daß die AGP-Varianten von den FPS her ziemlich genau so schnell sind wie die PEG. Einzigster Unterschied wird wohl der Bridgechip und im Falle der GT der zusätzliche 12V-Stecker sein.
 
Christoph schrieb:
Von nVidia 6800 Ultra bis PCX 5900, von ATi X800 XT 'PE' bis X600 XT. Wo platzieren sich nVidias Neulinge 6600 und 6600 GT im Duell zwischen AGP- und PCIe-Systemen? Wie sieht es mit der von nVidia versprochenen Höchstleistung in Doom 3, der Lautstärke, den Temperaturen und dem Übertaktungsverhalten aus? mehr...


wirklich gute karte zum moderaten preis, mal sehn was die x700 serie entgegenzusetzen hat...
 
Leute, falls ihr es noch nicht gesehen habt, die Geforce 6600GT gibt es endlich zu kaufen! Sie ist bei den meisten Shops in 3 - 5 Tagen lieferbar. Das Beste vom Besten kommt aber jetzt! Sagenhafte 208€ für die GT Version! Schaut vorbei bei Geizhals.de!

http://www.geizhals.at/deutschland/a118186.html
 
Zuletzt bearbeitet von einem Moderator: (Satzzeichen entfernt.)
Ab wann kann man denn ungefähr mit den ersten AGP Modellen der 6600 GT rechnen ? Wenn der Preis von 208€ eine Referenz darstellen sollte wird die 6600 GT der Preis / Leistungs-überflieger dieses Jahre .. :X
 
"Nividia ist eben doch eine klasse Firma. Egal was viele andere auch denken, sagen, hoffen mögen", habe ich mal wieder denken müssen. Kuck:

Haben sie die 6600GT, wie alle Tests zeigen, nicht wirklich "maulmass" in die entsprechende "Nische" im Markt entwickelt? ("Nische" in Klammern, weil das der größte und damit wichtigste Platz ist, den der Markt bietet, multipliziere ich Stückzahl mit Erlös/Stk.) genau dahin, wo das Produkt hingehört. Und sie werden wieder die Ersten sein, eben vor ATi, die diesen Platz "dazischen", diese (sogenannte) "Nische" (erfolgreich) besetzten. Und das alleine ist schon wieder mal eine Leistung für sich.

Und ich wette, noch pünktlich zum Weihnachtsgeschäft wird es die 6600GT auch für AGP 8x geben. Mit dem klasse funktionierenden und sehr gut ausgedachten und ebenso gut umgesetzten Brückenchip, den eben nur NVidia hat.


Desweiteren: Die 6600GT ist, muß man zugeben, unbedingt auch eine Karte für alle Stromsparer, so wie es aussieht. Ich nehme mir dazu mal die Zahlen/Messwerte zur Hand, die ich mir neulich schon von woanders notierte:

FarCry, 1024x768, 2xAA, max.AF:

6800 Ultra = 64 Fraps ... 222 Millionen Transistoren in 130NM Strukturbreite, ca. 450 Dollar.
6800 GT = 56 Fraps ... 222 Millionen Transistoren in 130NM Strukturbreite, ca. 360 Dollar.
6600 GT = 54 Fraps ... 146 Millionen Transistoren in 110NM Strukturbreite, ca. 200 Dollar.

Wenn das keine Punktlandung von Entwicklung, Marketing und anderen Abteilungen im innerbetrieblichen Zusammenspiel zugleich ist, dann weiß ich nicht, was man eigentlich noch "Zielerreichung" nennen sollte: Eine noch bessere "Frapsleistung/Transistor" war doch wohl eigentlich nicht zu erwarten, oder?

So gesehen: "Frapsleistung" in "Fraps pro 10hoch9 Transistoren", gem. obigem Beispiel:

6600GT = 375
6800 Ultra = 288
6800GT = 252

Das, finde ich, kann man sehr wohl eine gute, an die Bedürfnisse "der realen Spielewelt" sehr gut angepasste GPU- resp. Kartenauslegung nennen.


Ich schätzte, "ATI ist im Moment ganz schön dabei, sich richtig anzustrengen". Oder so.
 
Zuletzt bearbeitet:
Christoph schrieb:
Also wir testen grundsätzlich mit High-End-Systemen, um ausschließen zu können, dass die CPU das ganze System ausbremst. Denn was bringt einem ein Test, wenn die Karten alle gleiche Ergebnisse abliefern, weil du CPU nicht mehr nachkommt?

Ja is ja auch alles schön und gut, aber ich denke die Leute die sich ein 3,4EE leisten können sind nicht unbedingt angewiesen auf eine 6600...


~~hyb
 
hyb schrieb:
Ja is ja auch alles schön und gut, aber ich denke die Leute die sich ein 3,4EE leisten können sind nicht unbedingt angewiesen auf eine 6600...


Man benutzt ja nur so starke Prozis, um sicher zustellen, dass die Graka durch den Prozi nicht ihre ganze Power zeigen zu können und man so die Tests nicht verfälscht!



RebewMot
 
Hm, das war mir zwar schon eher aufgefallen, aber hab vergessen was dazu zu schreiben:
Im Enemy Territory-Test ist die 9800 Pro schneller/gleich schnell als/wie die 6600 GT. Warum?
Bei THG haben sie CoD und nicht ET getestet, dort ist die 6600 GT eindeutig schneller als die 9800 Pro. (edit: hups, sry da haben sie keine 9800 Pro getestet, hab mich an den FX 59xx-Ergebnissen orientiert)
In den anderen Tests ist die 6600 GT ja auch schneller als die 9800 Pro. Und OpenGL/Quake3-Engine war schon immer nVidia-dominiert, weshalb ich mir die Ergebnisse in ET nicht erklären kann.
 
Zuletzt bearbeitet:
Zurück
Oben