8800 GT auch VRAM Bug ?

@riddi

Das mit dem VRAM Bug ist kein Gegenargument für die 8800GT, zeig mir doch irgendeinen Hinweis, dass evtl. Überreste von dem Bug irgendwie die Performance beim normalen Betrieb beeinflusst ...
 
200€ für ne 8800GTS 320? Welcher Idiot ist denn sooooo dumm und kauft für 200eus eine 8800GTS 320?

Ich persönlich wollte anfangs unbedingt ne 8800GT, aber mittlerweile eine HD3870, weil sie mir von der Gesamtperfomance und der Preis besser gefällt und auf die paar FPS weniger im Gegensatz zur 8800GT schaden mir auch nicht.

MfG paxtn
 
Genau M-O-R-P-H.
Ich überlege mir auch schon extra für riDDi ein Thread zu eröffnen mit dem Wunderschönen Tittel. "Hat die HD 3870 auch den AA- und AF-Bug?"

riDDi schrieb:
Tatsache scheint zu sein, dass der 8800 gt vor der 3870 der ram ausgeht, z.b. in dirt mit aa/af. ob das jetzt wie früher üblich einfach daran liegt, dass die radeon weniger davon verbraucht oder, dass bei nvidia der fehlerteufel drin sitzt, das weiß man nicht.
Woher willst du wissen, dass das an der Speichergröße liegt und nicht etwa an der sehr viel niedrigeren Bandbreite der GeForce 8800 GT gegenüber der HD 3870?

riDDi schrieb:
beispiel: bei einer auflösung von 2560*1600, 100 fps und 16x aa entspricht das einer benötigten pixelfüllrate von ca. 6500 MPixel/s. die 8800 gt verfügt über 9600 MPixel/s.
Kann jemand diese Rechnung bestätigen? Ich weiß nicht wie man die theoretisch benötigte Pixelfüllrate berechnet. Mal davon abgesehen, dass die theoretische Pixelfüllrate höher ist, als die reale Pixelfüllrate, denn es läuft nun mal nicht immer alles perfekt...

riDDi schrieb:
€: die pixelfüllrate ist doch mehr oder weniger uninteressant, weil sie nur begrenzt wieviele pixel theoretisch pro takt gerendert werden können. wichtiger sind die texel und da liegen die radeons weit hinten.
so ein pixel benötigt heutzutage ja einige hundert cycles in den alus und durch die rop läuft er zum schluss in einem einzigen durch.
Interessante These.

Fillrate Tester 8800 GT vs HD2900XT und HD3870:
https://www.computerbase.de/2007-11/test-ati-radeon-hd-3870-rv670/10/

Bis auf die Z-Pixel Rate und Quad Texture liegt die GT überall unter der HD 3870. So viel zum Thema Füllrate.

Und nun schauen wir uns die Benchmarks zur Füllrate der GeForce 8800 GTX, die nicht bei höheren Auflösungen einbricht:
https://www.computerbase.de/2007-05/test-ati-radeon-hd-2900-xt/11/#abschnitt_theoretische_benchmarks

Die Z-Pixel Rate und die Füllrate bei Quad Texture ist bei der GTX wieder höher, doch beim Rest ist die GTX im Gegensatz zur GT mit der 2900XT ungefähr gleich auf.
 
Zuletzt bearbeitet:
Das es den AA/AF Bug noch gibt, ist eindeutig, der prozentuale fps-Verlust mit diesen Settings ist vergleichweise hoch bei allen HDxxxx - im Vergleich zu anderen GPUs. Den VRAM Bug gibts auch, warum sonst fällt eine GTS/320 bei ansonsten identischem Chip so dermaßen weit hinter die 640er zurück? Nun könnte man sagen, das trifft nur auf den G80 zu. Bei den G84/G86 gibts den aber auch *hier*
Was riDDi dir mit der Pixelfüllrate vorgerechnet hat, stimmt - ich kenne diese Formel auch so. Die theoretische Pixelfüllrate errechnet sich aus ROPs mal Chiptakt. Und wenn ich mich recht entsinne, waren es (2560*1600*16)/1000 = 65536 MPix/s. Allerdings sind das beides theoretische Werte, keine GPU erreicht mit normalen Spielen 100% ihrer theoretischen Leistung. Allerdings liegt der theoretisch maixmale Wert bei 2560*1600 30% darunter, hier dürte die Füllrate nicht limitieren. Ich sehe das wie riDDI, die Texturleistung der HD limitiert, zudem sind die ALUs des G92 schlicht effektiver bzw. es ist einfacher diese zu programmieren, daher hat AMD ja mit neueren Treibern noch soviel aus dem R600 rausgeholt. Die GT kann bald 3 Mal sowiel Texel in einem Durchgang rausfeuern wie die HD3870. Und da beide Chips in etwa die gleichen theoretischen GFLOP/s erreichen, die Texelleistung der HD aber viel geringer ist, fällt letzte zurück, obwohl aktuelle Spiele eher auf Shader anspringen.
Interessant in diesem Zusammenhang ist eine 512er HD850, diese liegt bei der Füllrate und der Bandbreite knapp über bzw. unter der 8800GT, hat allerdings klar weniger Shader- und Texelpower (wobei hier beachtet werden muss, das die theoretischen Werte der Gxx noch weiter von den praktischen Werten entfernt sind, als die der HDxxx, somit könnte die HD3850 in der Praxis schon in Sachen Shaderleistung an die 8800GT ran kommen). Wenn diese bei Spielen, die die 512Mb überlasten, die 8800GT ein- oder überholt, ist es für mich klar - Bug.

cYa
 
Zuletzt bearbeitet:
M-O-R-P-H schrieb:
zeig mir doch irgendeinen Hinweis
nunja, es nvidia kennt den bug jetzt schon seit sicher mehr als einem jahr. mir wäre bis jetzt nich bekannt, dass sie einen fix dafür gebracht hätten. ich weiß nur, dass in einem treiberrelease von verbesserter kompression und speichermanagement die rede war. zum g92 hat man in der hinsicht garnichts veröffentlicht.
diese unklare situation gefällt mir nicht. ich mag nicht eine karte kaufen, die jeden benchmarkdurchlauf mit bravur besteht aber u.u. nach ein paar stunden zocken einbricht. über fehler beim rv670 ist nichts bekannt, also fühle ich mich da auf der sicheren seite.

xp_home schrieb:
Woher willst du wissen, dass das an der Speichergröße liegt und nicht etwa an der sehr viel niedrigeren Bandbreite der GeForce 8800 GT gegenüber der HD 3870?
guck ma hier.
16*12 4xAA: 8800 gt 20,5 fps, 3870 18 fps
16*12 8xAA: 8800 gt 5,5 fps, 3870 15,6 fps
macht für die 3870 88%, für die gt 27%. auch wenn man mit einbezieht, dass die 8800er hier stark einbrechen ist das mehr als nur 25% weniger bandbreite. in den meisten spielen reicht die bandbreite die sie hat auch aus, um wesentlich schneller zu sein.
guckt man dann in 25*16 mit 4xAA sieht man, dass hier jetzt auch der 8800 gts 640 der ram zu klein wird und der fehlt es nicht an bandbreite.
entweder es ist ein mystischer treiberbug (ob vram oder nicht) oder der karte geht der ram aus.

xp_home schrieb:
Interessante These.
danke.

xp_home schrieb:
wie dir vielleicht aufgefallen ist, liegt der rv670 auch in der füllrate höher (außer z-tests, die können nvidia-karten aus tradition ganz toll). nicht aber in der TEXELfüllrate, auf die es gerade bei anisotropie ankommt. der benchmark ist rein theoretisch und höchstens mit hinblick auf gpu-computing interessant.
 
Zuletzt bearbeitet:
Die ganze Rechnerei mag ja nett sein und Spaß machen, aber man wird niemals durch die Spezifikationen einer Karte die realen FPS errechnen können die in nem Spiel schlussendlich herauskommen, das is zu komplex und es gibt zu viele Faktoren :D

16*12 8xAA: 8800 gt 5,5 fps, 3870 15,6 fps
> Wie ich bereits sagte, diese Settings interessieren mich nicht weil ich sie niemals anwenden werde, das is auf beiden Karten unspielbar.

ich mag nicht eine karte kaufen, die jeden benchmarkdurchlauf mit bravur besteht aber u.u. nach ein paar stunden zocken einbricht.

Bitte erkläre mir das "unter Umständen". Darauf wollte ich nen Hinweis von dir :)
Gibt es schon irgendwo Nachweise, dass die 8800GT nach ner gewissen Spieldauer oder durch andere Umstände in der Leistung einbricht? Also von den Benchmarks abweicht.
DAS würde mich interessieren, schließlich gehts hier ums praktische...
 
@morph: es ist ein hypothetisches szenario, dass ich nicht beweisen kann, weil ich keine solche karte besitze und nicht die zeit habe eine solche untersuchung durchzuführen. aber wir reden hier über karten, die ähnlich schnell, ähnlich günstig und ähnlich laut sind. da gewinnt ein eventuell vorhandener bug zumindest für mich an bedeutung.

was das thema vram-verbrauch allgemein angeht: das ist jetzt vielleicht in jericho so, aber kannst du mit sicherheit sagen, dass es kein spiel geben wird, dass spielbare settings auf der 3870 bietet, wo die gt einbricht? klar gilt das auch umgekehrt, aber ich sehe da keine anzeichen.
 
Zuletzt bearbeitet:
@ M-O-R-P-H

Es gibt imo Nachweise, zB bei den aktuellen Benches von CB. Nur wegen der Bandbreite bei gleichzeitig viel weniger GTex/s gelingt es der HD3870 der 88GT davon- bzw. gleichzuziehen - in humanen Settings bei spielbaren fps. Genannt sei Anno 1701 (1280 mit AA/AF und 16*12 mit AA/AF), Oblivion (1280 mit AA/AF und 16*12 mit AA/AF), Prey (1280 mit AA/AF), CoJ DX10(die HD liegt durchgehend vorne) und CoH DX10 (1280 mit AA/AF und 16*12 durchgehend). Die DX120 Titel sind aber mit Vorsich zu genießen, alle Abstände unter 10% lasse ich wegfallen, da zu gering.
Somit bleibt Anno 1701 (bis zu +14%), Oblivion (bis zu +11%), Prey (bis zu +20%) CoJ (bis zu +27%) und CoH (bis zu +18%). Problem: die Abstände könnte man auch auf die Bandbreite schieben, dem gegenüber steht die miese Texelrate der HD. Es gitb zwar auch Extremfälle, wo die HD weit über 50% vorne liegt, dann aber bei unspielbaren fps-Werten.
Somit bleibt echt nur die Option, eine GTX oder Ultra auf GT Niveau abzusenken und Games nehmen, die zwischen 520 und 750Mb nutzen und sehen, wie weit die GT abfällt. Eine HD kann man in Sachen GFLOP/s und Bandbreite zwar auf GT Level bringen, aber die Füllraten wären dann drunter. Wenn eine so beschnittene HD dann die GT aber klar schlägt, tja dann - Bug.
So wies aussieht, kommt eine 88GT Amp zu mir, diese lasse ich gegen eine GTX antreten - beide so getaktet, dass nur der VRAM für Unterschiede sorgt. Ich hoffe, bis nexte Woche ist die Amp lieferbar.

@ HisN

Von mir kommen heute noch Werte von CoD4, Crysis und Titan Quest hinzu - wäre nett, wenn du die Liste dann aktualisierst.

cYa
 
Zuletzt bearbeitet:
riDDi schrieb:
guck ma hier.
16*12 4xAA: 8800 gt 20,5 fps, 3870 18 fps
16*12 8xAA: 8800 gt 5,5 fps, 3870 15,6 fps
macht für die 3870 88%, für die gt 27%. auch wenn man mit einbezieht, dass die 8800er hier stark einbrechen ist das mehr als nur 25% weniger bandbreite. in den meisten spielen reicht die bandbreite die sie hat auch aus, um wesentlich schneller zu sein.
guckt man dann in 25*16 mit 4xAA sieht man, dass hier jetzt auch der 8800 gts 640 der ram zu klein wird und der fehlt es nicht an bandbreite.
entweder es ist ein mystischer treiberbug (ob vram oder nicht) oder der karte geht der ram aus.

Also ich sehe da keinen Vram-Bug. Ich sehe dass die GT bei zu wenig Bandbreite und überschreiten der Füllrate einbricht. Die GTX hat genügend ROPs und Bandbreite und bricht nicht ein. Bei den Auflösungen bei denen die HD-Karte aber gewinnt, ist das Spiel auf beiden Karten nicht spielbar und somit unrelevant. Bei allen spielbaren Settings ist die GT vorne und somit ein klarer Vorteil für die GT.

riDDi schrieb:
wie dir vielleicht aufgefallen ist, liegt der rv670 auch in der füllrate höher (außer z-tests, die können nvidia-karten aus tradition ganz toll). nicht aber in der TEXELfüllrate, auf die es gerade bei anisotropie ankommt. der benchmark ist rein theoretisch und höchstens mit hinblick auf gpu-computing interessant.

Hmm? Ich habe doch die ganze Zeit auch geschrieben dass der RV670 bei der Füllrate höher liegt und dass es der GT eben bei enorm hohen Auflösungen fehlt. Du hast dagegen gemeint, dass die Füllrate hoch genug sei und die Texelfüllrate der HD-Karte eh limitieren würde und somit die niedrige Pixelfüllrate der GT egal sei. Ich sehe dagegen Benchmarks mit 16-Fachen AF-Einstellungen also bei hohem Verbrauch der Texelfüllrate und da ist immer noch die HD-Karte bei der Füllrate höher. Weil offensichtlich deine These nicht stimmt, sondern die Pixelfüllrate eben dort bei der GT niedriger ist und sich das auch wirklich in Benchmarks auswirkt. Die GeForce 8800 GTX hat wie die GT ähnlich viel Texelfüllrate im Vergleich zur HD-Karte, dafür aber sehl viel mehr Pixelfüllrate im Vergleich zur GT und ist in dem Benchmark zur Füllrate auch mit der HD 3870/2900XT ebenbürtig.

/edit
Für GPU-Computing brauchst du vor allem Leistung über die Streamprozessoren. (Wird in GFlops angegeben)

Die ROPs siehst du im Streamprozessormodus (GPU-Computing) gar nicht, sondern nur noch LOAD-Store Units. Berechnungen werden durch die Streamprozesoren durchgeführt.
https://pics.computerbase.de/1/5/8/8/6/8-1080.3388358632.png
 
Zuletzt bearbeitet:
dann lad dir mal den fillrate-tester runter. da gibts nix anisotrop zu filtern, da die gezeigten texturen nicht verzerrt sind. af setzt erst an, wenn texturen in einem bestimmten verhältnis verzerrt werden, 16x af z.b. >8:1. bei unverzerrten texturen also einem verhältnis von 1:1 wird, egal ob 16x af oder bilinear eingestellt ist exakt gleich gefiltert. dementsprechend bietet das tool zwar eine einstellung für aa, aber keine für af. was cb da mit dem af zu hatte, weiß ich nicht.

xp_home schrieb:
Ich sehe dass die GT bei zu wenig Bandbreite und überschreiten der Füllrate einbricht.
wieso sollte die karte auf ein viertel der framerate einbrechen, weil ihr ein quäntchen bandbreite fehlt? oder füllrate? füllrate undoder bandbreite geben, falls die limitieren, eine maximale framerate vor. wenn auf daten gewartet werden muss wird die berechnung so lange verzögert, bis diese da sind. ein absacken der framerate bei moderat gesteigerten anforderungen ist atypisch, es sei denn, daten müssen zwingend auf einer der nächsttieferen cache-ebenen ausgelagert werden, wo der zugriff wesentlich langsamer ist.
da heutzutage ja keine pipeline an sich mehr existiert sondern alles wunderbar entkoppelt ist (z.b. mit deinem argument bei den rops, danke dafür), gehen bei solchen wartespielchen auch nicht mehr resourcen als nötig verloren, weil die pipeline angehalten werden muss.

€: ich sollte mir wirklich ne neue graka besorgen. die neuen dinger hamm ja die 20-fache füllrate meiner x800 :X
 
Zuletzt bearbeitet:
Obs den Bug noch gibt sehen wie spätistens bei der 8800GT 256MB von daher würd ich sagen wieso die Kaffeesatzleserei ;9. Obwohl echt interessant zu lesen das alles so genau hab ich mir über die vielen Füllraten und was weiß ich nich noch nie gedanken gemacht hab die immer als Zahlen gesehen ohne jeden wert ^^ :p MFG
 
Stimmt, ich freu mich auch auf die GT/256 - dann sieht man den Bug dann noch besser als bei der GTS/320 :evillol:
CB sollte da vll im Test drauf achten ...

cYa
 
wieso sollte man da den bug besser sehen?
bei 256mb karten geht der speicher aus, ob es nun einen bug gibt oder net

den bug seh ich auch wenn ich ne karte mit 2gb hab
einfach den verlauf des benötigten speicher beobachten
 
Zwischen Speicher ausgehen und 10-20% Performanceverlust und dem Bug mit 40-70% Performanceverlust liegen aber Welten, darum gehts mir.

cYa
 
ich denke auch dass die 88gt 256 zeigen wird wie gravierend dieser ominöse bug denn wirklich ist... interessant wird es dann im vergleich mit der 3850 256 bei sehr speicherlastigen spielen. entweder kann die 3850 aufschließen bzw die führung übernehmen => bug = gravierend oder die 88gt 256 bricht nur prozentual etwas stärker ein => bug = wayne
 
Und mit Bug würde die benötigte Speichermenge immer weiter ansteigen bis zu 2GB?
Gibts hier jemand mit ner 8800GT der ungewöhnliche Performanceeinbrüche im Alltag bemerkt hat?

Bei den cb benches bleibt es doch bei Clive Barker's Jericho @ 1600x1200 8xAA/16xAF und Colin McRae Dirt @ 1600x1200 4xAA/16xA wo die GT einbricht (das die settings nicht interessant zum spielen sind is klar) .. wirklich interessant wäre ob sich das so irgendwie fortsetzt in anderen spielen.

Ich will mich hier sicher nicht festfahren und den vram bug abstreiten, ich muss auch nicht unbedingt eine 8800GT haben, ehrlich gesagt hätte ich es lieber die ATI Karte wäre unterm strich schneller als die GT. Ist sie aber leider nicht, und die GT produziert in den meisten Games und sinnvollen Settings mehr FPS, meistens den Unterschied von unspielbar zu spielbar. Auch wenn man natürlich die Details runtersetzen könnte, was man immer kann, sollte aber nicht Sinn der Sache sein :>

Z.B. Clive Barker's Jericho 1280x1024 4xAA/16xAF : HD3870 24,7fps > 8800GT 37,1fps
oder Colin McRae Dirt 1280x1024 1xAA/1xAF HD3870 26,1fps > 8800GT 32,6fps (is wenig aber probierts in nem game mal aus und setzt die fps auf die werte fest (q3 oder so)
oder Gothic 3 1600x1200 16xAF HD3870 20,8fps > 8800GT 37,6fps
oder Stalker 1280x1024 1xAA/16xAF HD3870 25fps > 8800GT 40,5fps
oder Lost Planet 1280x1024 4xAA/16xAF HD3870 28,2fps > 8800GT 40,7fps
oder World In Conflict 1600x1200 4xAA/16xAF HD3870 28,4fps > 8800GT 37,5fps
UND Crysis – 1280x1024 HD3870 24,5fps > 8800GT 33,9fps

Gegenargument wäre:
Call of Juarez – 1280x1024 HD3870 32,3fps > 8800GT 27,5fps
und bei manchen 8xAA Settings brachte die HD noch spielbare werte im Vgl der GT, ansonsten find ich keine eindeutigen mehr...

Deswegen halte ich noch an der GT fest und hoffe, dass der Bug bald Geschichte ist.
Nvidia macht bitte was !!! :D
 
Zurück
Oben