8800GS simulation

Mika911

Captain
Registriert
Juni 2007
Beiträge
3.351
Hallo allezusammen,
wie der Titel schon verrät, hätte ich ganz gerne mal ein paar potenzielle Leistungsdaten/Tests (3DMark´s usw.) der kommenden 8800GS
(mir fehlt die Hardware/das Geld:smokin:).
Falls die Daten stimmen, die in den News auf CB stehen müsste ein 8800GT besitzer (ich hab das mal durchgerechnet
(korrigiert mich wenn ich falsch liege)) den Takt auf
575/1438/637,5 stellen, wenn das möglich ist.
:headshot:
Mir ist klar das es nicht genau hinkommen kann, da der speicher ja wohl keine 512 bzw. 256MB betragen wird aber ein kleiner vorabtest kann
ja nicht schaden oder?
Schonmal vielen dank für alle Antworten ich bin gespannt.
mfg
 
Das ist mir klar.:cool_alt:
Die GS hat thoeretisch einen speicherdurchsatz von 40800MB/s
und eine GT mit 637,5Mhz Speichertakt müsste auch auf die 40800 kommen :D.
Somit müsste es ja wieder hin kommen, oder???
 
Hmm ich denke nicht das man das einfach so rechnen kann?!
Glaub das Speicherinterface macht schon mehr aus als bloßer takt...

Übrigens stehn doch in den News aus meinem Link vorläifige 3dmark06 werte
16661 Punkten im 3DMark05 und 9540 Punkten im 3DMark06
 
Thx die 3DMarkwerte muss ich wohl überlesen haben:D
Also ungefähr die werte einer "alten"(G80) GTS.
hmm... dann mal schauen was die zukunft bringt und wie die
übertaktbarkeit seien wird,:stacheln: vieleicht hab ich dann meine neue Karte
 
oh oh es bahnt sich ein 3850 konkurent an xD. Mal sehen was die so bringt und nachher noch mitmacht am tackt, xD vllt lässt die sich auch so gut OCen wie die 3850.
paar kollegen brauchen noch was ordendliches, vllt kann ich denen bald ne alternative zur 50er anbieten xD
 
Ich simulier grade - habe eine GT/512 auf 575/1235/637 gedrosselt :D
Mal kucken, so wie das grade aussieht, muss das Teil unter 140€ kosten, damit es sich lohnt.

cYa
 
Zuletzt bearbeitet:
Oh man die Simulation bringt doch nix, wie im News Update steht ist nun auch die Shaderzahl von 112 auf 96 gesenkt worden.
Also 192bit speicherinteerface + 96 shader vs. 256bit + 112 shader, das kann man wohl kaum mehr Vergleichen.
 
Natürlich :freak:

Einmal kann man so wie ich einfach den Shadertakt senken um rechnerisch die GFLOP/s der GS zu erreichen, was in der Praxis in 99% gleichen Ergenissen resultiert. Alternativ deaktiviere ich mit dem Rivatuner 16 ALUs und takte die Shader auf 1438 MHz - zum Shader deaktiveren muss ich aber rebooten, das nervt. Beim SI ists das Gleiche, ob 192 Bit bei 850 MHz oder 256 Bit bei 637 MHz bringt jeweils ~40,8 Gb/s.

Erst denken, dann posten!

cYa
 
naja wenn die karte in crysis, womit die ati-karten schlecht klarkommen, schon in 10x7 nur 22fps bringt dann siehts ziemlich übel aus mit der performance.

€: die speichermenge kann man aber nicht simulieren. das verhalten einer gt 512 dürfte dann eher dem einer gs 768 entsprechen.
 
Zuletzt bearbeitet:
Also ich habe solche Simulationen bereits mit einer 7900GT @ 7600 und einer X1900XT @ X1950Pro sowie einer 8800GT @ 8600GTS gemacht, und dann später mit einer echten Karte gegen gebencht - die Ergenisse lagen im Rahmen der unvermeidlichen Messungenauigkeit. Solange sich die Chips in der Architektur nicht unterscheiden, scheint das hervoragend zu klappen.
Rein theoretisch müsste ein größeres Interface, auch wenn man es rechnerisch auf ein kleineres runter skaliert mE schon effizienter sein, praktisch habe ich davon aber noch nichts gemerkt.

cYa
 
rein theoretisch sollten die latenzen bei einem breiteren interface geringer sein (mehr controller = kürzere warteschlange). das wird allerdings durch den höheren takt kompensiert.
da die bandbreite sowieso eine wesentlich größere rolle spielt ists eh egal :P ich hab noch nichtmal den größten oc-freak mit den timings vom vram spielen sehn ;)
 
Oberes Customize -> NVStrap Driver -> Install -> Customize

Bei den G80 klappt das super, bei der 88GT leider nicht, daher muss man die untertakten. Habe ich zum Zeitpunkt von Post #11 nicht gewusst, da ich nur underclocked hatte bis dato - war zu faul für einen Neustart.

cYa
 
Zurück
Oben