8600 GTS Benches

  • Ersteller Ersteller chacha73
  • Erstellt am Erstellt am
Toll, dann spiel ich jetzt nur noch 3D-Mark :D

"braucht keinen Stromstecker" heißt nur, dass die unter 75 Watt braucht, das wäre ja noch schöner.
Als Vergleich, ne 7600GS braucht < 30 Watt, ne 7600GT 35-40 Watt, selbst ne 7900GS bleibt noch unter 50 Watt.
NVidia konnte also offensichtlich nichtmal die Leistung / Watt im vergleich zur eigenen Vorgängerserie verbessern.
 
Blutschlumpf schrieb:
selbst ne 7900GS bleibt noch unter 50 Watt.
...und hat dabei dennoch einen Stromanschluss. Im Umkehrschluss heißt das doch eher, dass, wenn nVidia mit der selben Sicherheit weiterhin konstruiert, die 8600 GT weniger als die 7900 GS zieht.

Die Spitze mit "ne Runde 3DMark zocken" kannste Dir doch eigentlich sparen - den Spruch kennen wir alle. Ein leicht zu vergleichender Leistungsindex bleiben die 3DMarks deswegen trotzdem.
 
Nakai schrieb:
Würd ich nicht sagen, jedenfalls kann noch einiges aus den Shader rausgeholt werden.
öh, grade die shader sind imo das, was die karte im 3dmark schnell macht :P
mal offizielle benches abwarten, au-ja ist zumindest bei mir nicht grade für tolle berichterstattung bekannt (bei nvidia wohl auch nicht, sonst hätten die ein nda unterschrieben...)

@sebbekk: ich schätze mal, dass der stromanschluss noch drauf ist, weil die karten das selbe pcb verwenden. der stromstecker kost ja nix und es wär zusätzlicher aufwand, ihn NICHT draufzulöten.
 
riDDi schrieb:
mal offizielle benches abwarten, au-ja ist zumindest bei mir nicht grade für tolle berichterstattung bekannt (bei nvidia wohl auch nicht, sonst hätten die ein nda unterschrieben...)
Natürlich, au-ja ist Schuld, wenn die Karte genau so läuft wie es viele wegen des 128 bit Interfaces erwartet haben, aber auf mehr gehofft haben. Was hat das den mit "Berichterstattung" zu tun? Oder meinst du, die konnten die Werte nicht richtig ablesen? Waren zu blöd dazu?
(nda unterschrieben? was ist das? kriegt man dann so Zusatzleistungen von Nvidia und muss im Gegenzug dafür etwas positiver für Nvidia im Fazit sein?)
 
xp_home schrieb:
nda unterschrieben? was ist das? kriegt man dann so Zusatzleistungen von Nvidia und muss im Gegenzug dafür etwas positiver für Nvidia im Fazit sein?)

Geheimhaltungsabkommen bis zu einem bestimmten Datum, dafür bekommen die Redaktuere meist die Hardware zugestellt und können ihre Artikel schon fertigstellen und direkt am Launchtag mit allen Einzelheiten veröffentlichen. Hatte Computerbase zumindest bei der 8800 GTX auch unterschrieben und auch direkt ein Modell der Karte von nvidia bekommen.

Das es dieses Review von au-ja gibt, ist ja auch mehr einer peinlichen Panne geschuldet, das es irgendwie diese Club 3D 8600 GTS bereits in den Handel geschafft hat.
 
riDDi schrieb:
@sebbekk: ich schätze mal, dass der stromanschluss noch drauf ist, weil die karten das selbe pcb verwenden. der stromstecker kost ja nix und es wär zusätzlicher aufwand, ihn NICHT draufzulöten.

Es mindert den Fertigungsaufwand weniger bestücken zu müssen, vor allem diskretere Bauteile wie eben so Stecker oder dort ein Elko.
So ein Stecker kann effektiv sogar den Preis im End-Kundenpreis in spührbare Eurobereiche vordringen wenn wie gesagt das Bauteil selber 10 Cent im EP betrug.

Aufwand/Kosten hängen nicht mit dem EP des Bauteils direkt zusammen.

Das diese Mittelklasse für den Massenmarkt gedacht ist, wird gerade hier neu kalkuliert und jedes Bauteil überdacht ob es wirklich nötig ist für die Zielgruppe.
 
@xp_home: wer sich seine meinung anhand einer einzigen quelle bildet, der ist selbst schuld.
dass das mit dem interface knapp werden würde war ja sowieso klar. allerdings konnte sich die 6600gt gegen sämtliche highend-karten vorher durchsetzen, genauso wie die 7600gt. wenn nvidia mit dieser tradition bricht, dann iss aber schwer was los :P

nda = non disclosure agreement, wie laser114 bereits erwähnte.

bei nvidia rauchen sicher die köpfe, evtl. rollen später einige exemplare selbiger ^^
 
Zuletzt bearbeitet:
Die Diskussion um den Stecker und dasselbe "Baukasten-PCB" wie das einer 6600 / 7600 ist sowieso hinfällig, weil die 8600 GTS nicht wie fälschlich angenommen auf diesem PCB basiert. Die 8600 GTS ist etwa 1cm länger als die 6600 und die 7600.

Von daher bleib ich mal dabei, dass die 8600 GTS zwar nen Stecker hat, deswegen aber nicht zwangsweise mehr als die spezifizierten 75 W des PCIe Ports ziehen muss. Schon mit der 7900 GT / GS hat nVidia gezeigt, dass man einen solchen Stecker trotz genügsamen Betriebs zur Sicherheit vorsieht.
 
Fakt ist, dass die Karte gegen eine 7950GT keine Schnitte hat und kommt mir jetzt nicht mit DX10-support blabla.. Mit welcher Leistung denn?
Weder au-ja noch der Treiber oder sonst was ist schuld dran. Nur Nvidia selbst, weil sie am falschen Ende sparren. Der Übergang von der 5er Reiher auf die 6er war mit einem Leistungssprung verbunden, genauso wie von der 6er in die 7er. D.h. eine 6600GT konnte selbst mit einer 5900FX mithalten, genauso wie eine 7600GT mit ner 6800er. Und nun? Pustekuchen. Die 8600GT kann sich auch kaum von einer 7600GT absetzten
 
Zuletzt bearbeitet:
Warten wir es einfach mal ab. Sobald die Karte offiziell auf dem Markt ist, wird es mehr Tests und Benchmarks geben. Wobei ich aber auch nicht glaube, das die Ergebnisse dabei großartig vom au-ja-Test abweichen werden. Das 128bit-Speicherinterface ist halt ein Flaschenhals.
 
Ist wohl schlecht zu vergleichen, da die nur die 8600GTS benchen und auch keine 7600 zum Vergleich dabei haben, aber wenn man die 7900GT als Anhaltspunkt nimmt und Pi mal Daumen auf 8600GT/7600GT umrechnet, dann befürchte ich auch, dass die 8600GT in einigen Benches (Doom/FEAR) evtl. gar nicht schneller ist als die 7600GT und merklich gegen ne 7900GS verliert.
 
Hier haben wir ja wenigstens ein paar gefürchtete 3DMarks auch von der 8600 GT: http://de.theinquirer.net/2007/04/06/die_kompletten_benchmarks_fuer.html

Und wenn man jetzt mal Doom³ und F.E.A.R. (s. au-ja! Artikel, G84 bricht ein) als Sache des noch ausstehenden Treibersupports ansieht, könnte man die gezeigten Werte der 3DMarks mit folgenden Tabellen vergleichen:

https://www.computerbase.de/artikel...7900-gtx-test.557/seite-12#abschnitt_3dmark05
https://www.computerbase.de/artikel...7900-gtx-test.557/seite-13#abschnitt_3dmark06
 
Zuletzt bearbeitet:
Die Chipfamilie ist seit nem halben Jahr draußen, ich würde da nicht auf einen neuen Treiber hoffen der da jetzt die Karre aus dem Dreck zieht.
Ich mach mich jetzt jedenfalls auf die Suche nach ner günstigen 7600/7900, hab jetzt lange genug und leider vergeblich auf die 8000er gewartet.
 
Zumindest ist gestern ein neuer Forceware verabschiedet worden, der immer noch keine 8600 unterstützt, sondern explizit für 8800 GTX und GTS vorgesehen ist.

Aber selbst wenn sie in FEAR und Doom abkackt, so kann man anderer Seits anhand der 3DMarks schon ein wenig erkennen, dass sie auch nicht ganz langsam ist. Am 17. April wird uns Wolfgang dann ein Performance Ranking abliefern und dann werden wir es ganz genau wissen, wie es um die Allround Performance bestellt ist.
 
Ich will es ja nicht ausschließen, aber ich hatte da weit mehr erwartet, gerade in Punkto Leistungsaufnahme.
Meine Kiste braucht mit ner 6600GT idle keine 100Watt und das soll auch so bleiben. ;)
 
Walend schrieb:
Es mindert den Fertigungsaufwand weniger bestücken zu müssen
dafür erhöht die nötige umstellung der produktionslinie die kosten ^^ ok, evtl. dahinterhängende elkos etcpp hatte ich nicht bedacht.

@sebbekk: ich meinte die 7900gs, die das gleiche pcb wie die gt verwendet.
 
Zuletzt bearbeitet:
Blutschlumpf schrieb:
Ich will es ja nicht ausschließen, aber ich hatte da weit mehr erwartet, gerade in Punkto Leistungsaufnahme.
Meine Kiste braucht mit ner 6600GT idle keine 100Watt und das soll auch so bleiben. ;)
Ich finde, Du zeigst Dich extrem kritisch und das teilweise unbegründet. Woher willst Du denn wissen, wieviel die 8600er ziehen?

Die GTS hat nen Stecker und die GT hat keinen, weswegen sie die GTS verbrauchstechnisch nicht allzuweit von der GT absetzen wird. Ich schätze den Verbrauch daher bei der GT auf dem Niveau der 7600 GT ein und das der GTS auf Niveau der 7900 GT / GS. Und das ist nicht viel bzw. im Fall der 8600 GT kommts auf das gleiche wie bei Deiner 6600 raus.


P.S.:
Da fällt mir ein, wir haben ja im Falle der GTS schon Werte vorliegen: http://www.au-ja.de/review-club3d8600gts-11.phtml
Deckt sich ja ungefähr mit meiner Einschätzung - vor allem im idle Betrieb würde Deine Kiste mit ner 8600 GT sicher nach wie vor unter 100 W bleiben.
 
Zuletzt bearbeitet:
Ich finde die 8600GT und 8600GTS interessant :D . Sie sollten die 7950Gt/... ersetzen wegen den höheren takt und direktX.10 denk ich mal:p :freak:
 
Sapphire Forum
Zurück
Oben