8800 GT auch VRAM Bug ?

fiseloer

Lt. Junior Grade
Registriert
Juli 2007
Beiträge
406
Hallo Forum,

ich hab schon lange nichts mehr vom sogenannten VRAM-Bug gehört.

Wisst Ihr, ob der bei der 8800GT (falls sie schon einer hat) auch auftritt?

Gruß Fiseloer
 
Es wurde kurze Zeit mal spekuliert, dass die 8800GT ein ähnliches Problem haben soll, aber dann fand man heraus, dass das dann doch am Treiber lag.

Also soweit bisher bekannt, liegt bei der 8800GT kein VRAM-Bug vor.

MfG paxtn
 
Offiziell wird man es nie erfahren, bekannt ist bislang aber auch noch nicht so richtig. 512 MB müssen auch erstmal volllaufen!

In Stalker, was ja bekanntlich mit Texturen um sich schmeißt, rennt die 8800GT fleißig. In Crysis mit höheren Auflösungen bricht die Performance etwas stärker ein als z. B. die HD3870 (512 MB) oder 8800GTX (768). Könnte es da auch zu Problemen kommen? Oder liegt das am Treiber oder der Eigenart des Spiels?

Wer weiß es etwas genauer?
 
riDDi, kann micht irgendwie mit der Aussage nicht wirklich anfreuden. Wohin sollen den die ganzen Texturen denn sonst geladen werden?

Lotusbloom, da gabs mal irgendwo auf einer Ami Seite nen Artikel, wieviel Grakaspeicher man für welche Games braucht. Wenn man bei Stalker HDR + AA/AF @ 1680 x 1050 oder so einstellt, wurde es verdammt knapp beim Grakaspeicher. Da wurden um die 490 MB oder so verbraucht.
 
Laut Wiki betrifft der VRAM-Bug alle Karten der 8er-Serie... Allerdings stand das auch schon vor der Einführung der 8800 GT dort. Insbesondere der Satzteil "durch theoretische Überprüfungen ließ sich jedoch feststellen, dass jede Grafikkarte der Geforce-8-Serie diese Fehler besitzt" beunruhigt, auch wenn der G92 kein G80 ist.
Für mich wäre diese Ungewissheit um die VRAM-Geschichte Grund genug, auf den Kauf einer 8800 GT zu verzichten, die HD3870 ist schließlich kaum langsamer. Und traditionell holen die ATI-Karten mit der Zeit durch effizientere Treiber gegenüber den nVidia-Karten etwas auf.

http://de.wikipedia.org/wiki/Nvidia-Geforce-8-Serie#Fehler_im_Speichermanagement
 
@andi macht: texturen kann man komprimieren, das nur als beispiel. gemeint hatte ich, wieviel speicher für zusätzliche filter benötigt wird. dass ati die effizienz gegenüber dem r600 erheblich gesteigert hat sieht man schon daran, dass der rv670 mit weitaus weniger bandbreite schneller ist.
nur mit texturen kriegst du jedenfall (noch) keine 512mb voll.

@Lord Sethur: dass die ati-karten im vergleich schneller werden zu scheinen ist so nicht richtig. sie werden wohl nur weniger schnell langsamer ^^. r5x0 hatte 3:1 arithmetik zu textur, g7x 2:1. r600 hat 20:1, g8x/9x 4:1. deshalb haben die karten momentan probleme :/
 
Zuletzt bearbeitet:
y33H@ schrieb:
Der VRAM Bug tritt bei allen 8xxx auf, egal G8x oder G92. Eine 86GTS/256 liegt "nur" bis zu 30% hinter einer 86GTs/512, hier limitiert der Chip; eine 88GTS/320 liegt locker mal 50%, aber auch mal satte 80% (!) hinter der 88GTS/640. Das die 88GT/512 den Bug noch hat, sieht man an den Benches, sie fällt teil weit hinter eine GTS/320 zurück und muss die GTX, welche bis auf VRAM und Bandbreite nur minimalst schneller ist, davon ziehen lassen.
Ich habe demnext eine Ultra da, eine 88GT/512 kommt auch, ich werde die Ultra dann auf das Niveau der GT/512 herunterskalieren, so dass nur der VRAM (die 256Mb mehr der Ultra) und die dezent verbesserte Achiktektur (des G92) für Unterschiede sorgen. Solnage man unter 512 Mb bleibt, sollte die 88GT/512 etwas vorne liegen, verwende ich Szenen mit mehr als 512Mb Verbrauch, wird die runtergetaktete Ultra sicher spürbar schneller sein.

Betrachtet man die aktuellen Benches, fällt auf, dass die 88GT/512 meist klar vor der HD3870 liegt, beide haben 512Mb. Wird der VRAM gefordert, zB in Colin Dirt, CoJ oder CoH holt die HD auf oder überholt die GT/512 um 10-20% (mit unspielbaren ettings teils mehr als doppelt so schnell).

y33H@ schrieb:
Und dass eine GTS/640 irgendwann eine GT512 ueberholt ist ja wohl logisch, weil eben bei der GT irgendwann die RAM-Menge limitiert und bei der GTS/640 eben noch nicht.
Du sagst es ja selbst schon fast richtig, ein Detail ist dir entgangen ;)
Im Falle der 8000er ist aber der Einbruch, wenn der VRAM voll ist, unverhältnsmäßig hoch. Eine normalerweise 30% langsamere GTS/640 liegt aufeinmal bis ebenfalls an die 30% hinter der 640er.
Eine 512er 7900GT zum Beispiel kann die 30% Rückstand auf eine 7900GT/256 @ GTX nie gutmachen, nur auf etwa 25-15% herankommen; bei den X19x0ern ist es genauso (eine X1950Pro/256 überholt praktisch nie eine X900XT/512).
Wenn der VRAM voll ist, dann ist eine identische GPU mit mehr (und nicht vollem VRAM!) VRAM etwa 5-15% schneller, im Falle der 8000er ist dieser Abstand aufgrund des Bugs viel viel größer, dass ist das ganze Problem, im Vergleich zu allen anderen halbwegs aktuellen GraKa-Generationen ist der Einbruchbei vollem VRAM einfach unverhälnismäßig bis abnormal hoch, dass kann nur ein Bug in der Architektur sein.

8800GT Test auf CB:
Wie erklärst du dir bis zu 57% Unterschied (20 vs. 32fps) zwischen GTS/320 und GTS/640 in Stalker, bis zu 71% (!) in CoJ (DX10),bis zu 48% in CoH (DX10), bis zu 84% (!) in Crysis (@ high @ Vista), bis zu 64% in Lost Planet (DX10) oder bis zu 45% in WiC (DX10)? Nur durch vollen VRAM sicher nicht; zwischen einer X1900XT/256 und der 512er Version liegen laut CB meits nur knapp 10%, maximal 15% - meine Benches bestätigen das.


CB News schrieb:
Vor einiger Zeit hat Nvidia das Problem erkannt und spricht von einem „VRAM-Bug“. Genauer gesagt handelt es sich um einen Fehler im Speichermanagement der kompletten GeForce-8x00-Serie, wobei der Bug bei den großen Karten mit 640 MB oder 768 MB logischerweise erst viel später (aktuell eben gar nicht) auftritt. Der Fehler bewirkt, dass munter immer weiter Daten in den Speicher geladen werden und dieser irgendwann voll ist und somit Daten ausgelagert werden müssen, was die Geschwindigkeit enorm in den Keller drückt. Normalerweise sollte dies die Grafikkarte erkennen und den Speicher wieder leeren – dies passiert aber nicht und der Speicher quillt regelrecht über.

nVidia hat den Bug ja öffentlich zugegeben, behoben wurde er bis heute nie, nur die Speicherkompression und Verwaltung wurde per Treiber verbessert:
CB News schrieb:
Wie uns James Wang, Technical Marketing Analyst bei Nvidia, soeben mitteilte, sind die von uns festgestellten Performanceverbesserung nicht mit dem scheinbar behobenen VRAM-Bug begründet, da dieser im ForceWare 163.44 []immer noch vorhanden[/I] ist. So hat man im Treiber zwei Verbesserungen eingebaut, die den VRAM-Bug ein wenig neutralisieren. Nvidia modifiziert in dem neuen Beta-Treiber die Speicherkompression, was in Company of Heroes D3D10 auf einer 256-MB- und einer 320-MB-Karte den gemessenen FPS-Gewinn erklärt. Darüber hinaus verwaltet die G8x-GPU die Texturen in Stalker anders als mit den Vorgängertreibern, was dort den Performancevorteil erklärt.
Wikipedia meint das übrigens auch :D *klick mich*
Und nein, der Absatz dort stammt nicht von mir^^

cYa
 
Hätte gedacht, dass der G92 so weit überarbeitet ist, dass dieser Bug dort nicht mehr existiert.
Wenn er immer noch da ist, ist das ein echtes Armutszeugnis.
 
Oh man. Da fragt man sich ehrlich, warum man nicht endlich über solche Fragen von nVidia konkret aufgeklärt wird. Aber wäre ja auch dumm von nVidia, wegen der Marktwirtschaft.
Dich eine entgültige Aufklärung wäre schon ganz gut.

Ich speziell tendiere langsam immer weite in Richtung ATI HD3870.

MfG paxtn
 
Das ist wahr. Ach was solls, ich hab zur Zeit wichtigeres zu tun, als mir über sowas noch Gedanken zu machen. :D ;)

MfG paxtn
 
@y33H@

Deine Vergleiche zwischen HD3870 und GeForce 8800GT beweisen auch keinen VRAM-Bug.

Bei hohen Auflösungen wird nicht nur der Speicher benötigt, sondern auch die Pixelfüllrate. Die GeForce 8800GT hat eine Pixelfüllrate von 9600 MPixel/s, also niedrieger als die einer GeForce 8800 GTS 640. Die HD3870 hat eine Pixelfüllrate von 12400 Mpixel/s und die GeForce 8800 GTX hat eine Pixelfüllrate von 13800 MPixel/s. Der Leistungsabfall könnte also genau so gut an der niedrigeren Pixelfüllrate liegen. Das könnte man aber auch nachmessen in dem man den Chip höher Taktet, die Shader aber bei gleichem Takt belässt. Mit höherem Takt wird die Pixelfüllrate höher. (Die Texelfüllrate steigt bei höherem Takt zwar auch, aber die ist eh sehr hoch bei der 8800 GT und wäre bei dem Test vernachlässigbar) Zu der Unterschiedlichen Pixelfüllrate kommt auch noch die Unterschiedliche Bandbreite hinzu. Die GeForce 8800 GT hat die niedrigste Bandbreite von allen Karten

Zudem sind die Bauweisen der beiden Chips komplett unterschiedlich. Die HD3870 hat einen 512bit Ringbus mit 256bit Anbindung. Die GeForce 8800 GT hat eine Crossbar mit 256bit Anbindung...

/edit. Kann immer noch nicht einschlafen :( Dann mach ich mal hier weiter :D

Für den Test der Pixelfüllrate und Bandbreiten Hyphothese:

GeForce 8800 GTX runtertakten damit sie vergleichbar wird.
Chiptakt: 517 Mhz
Shadertakt: ~1315 Mhz
Speichertakt: 750 Mhz

Daraus folgt dann:
Shaderleistung: ~504 GFlops
Pixelfüllrate :12408
Texelfüllrate: 33008
Bandbreite: 72,0 GB/s

Radeon HD 3870 (bleibt alles so wie es ist)
Shaderleistung: 496 GFlops
Pixelfüllrate: 12400
Texelfüllrate: 12400
Bandbreite: 72,0 GB/s

Damit die GeForce 8800 GT einigermasen mit den beiden vergleichbar ist müsste man den Chip folgendermaßen Takten:
Chiptakt:775 Mhz
Shadertakt bleibt bei: ~1500 Mhz
Speichertakt: 1125 Mhz

Daraus folgt dann:
Shaderleistung: 504 GFlops
Pixelfüllrate: 12400
Texelfüllrate: 43400
Bandbreite: 72,0 GB/s

Die Texelfüllrate ist zwar sehr hoch bei der so präparierten GeForce 8800 GT, allerdings reicht auch die Texelfüllrate der GeForce 8800 GTX vollkommen aus, so dass hier bei der GT die Texelfüllrate verschwendet wird und sich im Test kaum auswirkt. Da die ATI-Karte hier ganz klar dadurch den Nachteil hat sollte man alle Karten ohne AF testen um eben bei der ATI-Karte die Limitierung der TMUs möglichst auszuschließen oder zu reduzieren.
 
Zuletzt bearbeitet:
Exakt das habe ich mir auch schon gedacht, ich werkle an einem Vergleich einer 88Ultra und einer 88GT, erstere beschneide ich auf komplett auf GT Niveau (per Rivatuner entsprechend takten), so dass sich beide Karten nur beim VRAM und der Architektur unterscheiden - wobei der G92 wohl kaum viel schneller ist als der G80. Dann nutze ich Spiele, die mehr als 512Mb nutzen, aber weniger als 768Mb - mal sehen wie weit sich die Ultra absetzt. Wenn der Vorsprung ebenso krass ausfällt, wie bei der GTS/640 vs. GTS/320, dann sehe ich das als weiteren Beleg.

Der Vergleich des G92 mit dem RV670 beweist das aber natürlich nur bedingt, schließlich sind beide Chips zu unterschiedlich aufgebaut. Vor allem da, wie du sagst, die HD über eine rund 30% höhere Pixelfüllrate und etwa eben soviel Bandbreite mehr verfügt, kann sie mit AA/AF und hohen Auflösungen also ohnehin aufholen, und das, obwohl hier TMUs limitieren. Leider habe ich keine HD38x0 zur Verfügung, sonst würde ich die mit testen.

Ich sage es mal so, ich kann nicht eindeutig belegen, dass es den Bug auch beim G92 noch gibt, hierfür bräuchte ich wieder nVidias Bestätigung, so wie es sie beim G8x gegeben hat. Allerdings gibt es auch keinen Beweis, dass es den Bug nicht gibt - die Benches sprechen imo weiterhin dafür, dass ein Architekturfehler vorliegt.

Ah ja, super, dass du dir nach um halb 5h diese Mühe machst :)

EDIT
Da es keinen eindeutigen Beweis beim G92 gibt, habe ich die Kaufberatung entsprechend editiert, vom Bug ist hier nicht mehr die Rede bei der 88GT/512. Vll sollte ich mich mal bei nVidia melden und mich in GPU Architekturen reinlesen, sofern sich passende Datenblätter finden, ich will wissen, ob das Ding verbuggt ist. Wahrscheinlich erfahren wir es nie oder erst dann, wenn die 8800er zu schwach sind - also zB für Office 2010 :D


cYa
 
Zuletzt bearbeitet:
der vram-bug bewirkt ja auch nicht, dass die karte im allgemeinen langsamer ist. nur bei bestimmten settings läuft eben irgendwann der speicher über und die karte sackt rapide ab.
tatsache scheint zu sein, dass der 8800 gt vor der 3870 der ram ausgeht, z.b. in dirt mit aa/af. ob das jetzt wie früher üblich einfach daran liegt, dass die radeon weniger davon verbraucht oder, dass bei nvidia der fehlerteufel drin sitzt, das weiß man nicht.

schade schade, da dachte man es gäbe mit dem stromverbrauch endlich verlässliche werte von den herstellern und wird dafür bei fehlern im unklaren gelassen.

€: die pixelfüllrate ist doch mehr oder weniger uninteressant, weil sie nur begrenzt wieviele pixel theoretisch pro takt gerendert werden können. wichtiger sind die texel und da liegen die radeons weit hinten.
so ein pixel benötigt heutzutage ja einige hundert cycles in den alus und durch die rop läuft er zum schluss in einem einzigen durch.
beispiel: bei einer auflösung von 2560*1600, 100 fps und 16x aa entspricht das einer benötigten pixelfüllrate von ca. 6500 MPixel/s. die 8800 gt verfügt über 9600 MPixel/s.
 
Zuletzt bearbeitet:
Hallo zusammen,

erst mal danke an alle die sich hier die Mühe gemacht haben auf meine Frage zu antworten.

Wie es scheint, ist der Bug für den neuen Chip/die neuen Karten weder bestätigt noch dementiert.

Da ich bei meiner 8800GTS/320 den Bug auch noch nicht habe nachvollziehen können, wird meine neue Karte wohl doch eine 8800GT (Zotac AMP oder Gainward GLH).

Gruß Fiseloer
 
fiseloer schrieb:
Hallo zusammen,

erst mal danke an alle die sich hier die Mühe gemacht haben auf meine Frage zu antworten.

Wie es scheint, ist der Bug für den neuen Chip/die neuen Karten weder bestätigt noch dementiert.

Da ich bei meiner 8800GTS/320 den Bug auch noch nicht habe nachvollziehen können, wird meine neue Karte wohl doch eine 8800GT (Zotac AMP oder Gainward GLH).
Wenn der Bug auf deiner 320er Karte nicht auftritt, dann bringt dir ein Wechsel auf die 8800GT aber nicht sonderlich viel. Ich denk, da kannste die Kohle besser sparen und warten, bis mal wieder ein echter Leistungssprung zu verzeichnen ist.
 
Einen VRAM Bug gab es vielleicht mal, aber z.Z. glaube ich nicht, dass da noch was existiert. Den NV Chips geht nur schneller die Puste aus, weil sie mehr RAM brauchen, das ist so ziemlich alles.
 
Wenn der Bug auf deiner 320er Karte nicht auftritt, dann bringt dir ein Wechsel auf die 8800GT aber nicht sonderlich viel. Ich denk, da kannste die Kohle besser sparen und warten, bis mal wieder ein echter Leistungssprung zu verzeichnen ist.

Naja, falls er die GTS 320 halbwegs gut verkaufen kann lohnt es sich schon. 40-50% sind da immer an Mehrleistung drin. ;)
https://www.computerbase.de/2007-11/test-ati-radeon-hd-3850-rv670/23/#abschnitt_performancerating_qualitaet

Meine Meinung zum Thema VRAM Bug:

Ich weiß leider auch nicht ob nVidia den Bug mittlerweile behoben hat oder ob sie es je machen können. Fakt ist, die Karte ist in den meisten Benchmarks einfach schneller als die HD3870. (Preis sei außen vor gelassen, die GT ist sicher NICHT schlecht im Punkt Preis/Leistung). Vor allem in den relevanten/sinnvollen/spielbaren Settings für mich.
Also wenn ich in den Settings keine Einbrüche sehe, mach ich mir keine Gedanken um so nen Bug.
Oder sollen die Spiele dann etwa unrund laufen? Sind die Min-FPS deswegen sehr schlecht?
Belehrt mich eines besseren, will ja schließlich auch 100% sicher sein beim Kauf :)
 
Eusterw schrieb:
Wenn der Bug auf deiner 320er Karte nicht auftritt, dann bringt dir ein Wechsel auf die 8800GT aber nicht sonderlich viel. Ich denk, da kannste die Kohle besser sparen und warten, bis mal wieder ein echter Leistungssprung zu verzeichnen ist.
Du hast nicht ganz unrecht, obwohl ich mir schon etwas mehr Leistung verspreche.
Die 8800GTS könnte ich noch für 200,- loswerden.
 
Zurück
Oben