Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Welche Grafikkarte 8800GT oder HD3870
- Ersteller shadowking1987
- Erstellt am
Soul_Ripper
Lt. Commander
- Registriert
- Dez. 2004
- Beiträge
- 1.617
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.688
@ pampelmuse

@ cwe01
Ich habe es dir doch bereits vorgerechnet! Wenn man die GTX auf 524/1296/601 taktet, dann hat sie die gleiche Bandbreite, die gleiche Texturierungsleistung, weniger GFLOP/s und eine leicht höhere Pixelfüllrate - letzteres ist aber nicht limititierend bzw. bringt keinen Speed. Somit unterscheiden sich die Karter nur im VRAM, die runtergetaktete GTX ist sogar minimal langsamer aufgrund der geringeren Shaderpower. Daher ist meine heruntergetaktete GTX reproduzierbar dezent langsamer, so lange der VRAM nicht zum Tragen kommt! Deine Art und Weise die GTX zu takten ist an der falschen Stelle angesetzt. Warum etwa willst du den Shadertakt der GTX erhöhen, wenn sie ohehin schon mehr Shaderpower als die GT hat?!
Wenn du dich näher mit den G8x und dem G92 beschäftigst, wirst du feststellen, dass zwar Unterschiede vorhanden sind, diese in der Praxis aber zu keinen nennenswerten Unterschieden führen, vll 1-2% und dann nur in bestimmten Szenen. Der G92 ist ein minimal überarbeiteter G86, der G86 ein minimal überarbeiteter G80.
Zwischen VRAM-Bug und dem gewöhnlichen Auslagern einer GPU bei vollem VRAM gibt es einige Unterschiede, vor allem in der Performance. Solange der VRAM bei einer GF8 nicht voll ist, verhält sie sich ganz normal. Zwar läuft der Speicher wie bei allen anderen Karten schlicht voll, wenn mehr Platz für Texturen, Filter usw. benötigt wird, allerings sinkt zB bei einer HD38x0 der Speicherbedarf an manchen Stellen wieder (sieht man im Rivatuner), bei der GF8 steigt der Bedarf nur oder stagniert, aber er sinkt nicht - der VRAM wird schneller voll und kann sich nicht "erholen". Eine normale Karte verliert dann etwa 10-30% an Speed im Vergleich zur gleichen GPU mit nicht vollem weil größeren Speicher. Die GF8 dagegen bricht sehr stark ein, das scheint ein Problem der Architektur zu sein.
Wenn du dir die Benches der GT mit 256 vs. 512 vs. 1024 bei expreview anschaust, erkennst du gewaltige Unterschiede. Die 256er kannst du bei den meisten Games knicken, die bricht voll weg. Bei den Spielen, die über 512Mb brauchen, ist die 512er auch weit abgeschlagen. Und die Karte kann sehr wohl von 1024Mb profitieren, die Speicherbandbreite ist zwar kein Kracher, für die 1024Mb aber nichtsdestotrotz mehr als genug!
Die 1024er Benches sind fett rot umrandet, markante Unterschiede bei 512 vs. 1024 weiter rechts ebenfalls - die 256er ist so mies und grottig, das sieht eh jeder. Das die Unterschiede in CoH so gering ausfallen, liegt daran, dass die Engine nicht allzu anspruchsvoll ist und daher hohe Fps-Werte erzielt werden, das VRAM macht sich dann nicht so sehr bemerkbar.

cYa
Bist du dir da sicher?Grafikguru y33h@
@ cwe01
Ich habe es dir doch bereits vorgerechnet! Wenn man die GTX auf 524/1296/601 taktet, dann hat sie die gleiche Bandbreite, die gleiche Texturierungsleistung, weniger GFLOP/s und eine leicht höhere Pixelfüllrate - letzteres ist aber nicht limititierend bzw. bringt keinen Speed. Somit unterscheiden sich die Karter nur im VRAM, die runtergetaktete GTX ist sogar minimal langsamer aufgrund der geringeren Shaderpower. Daher ist meine heruntergetaktete GTX reproduzierbar dezent langsamer, so lange der VRAM nicht zum Tragen kommt! Deine Art und Weise die GTX zu takten ist an der falschen Stelle angesetzt. Warum etwa willst du den Shadertakt der GTX erhöhen, wenn sie ohehin schon mehr Shaderpower als die GT hat?!
Wenn du dich näher mit den G8x und dem G92 beschäftigst, wirst du feststellen, dass zwar Unterschiede vorhanden sind, diese in der Praxis aber zu keinen nennenswerten Unterschieden führen, vll 1-2% und dann nur in bestimmten Szenen. Der G92 ist ein minimal überarbeiteter G86, der G86 ein minimal überarbeiteter G80.
Ziemlich mager und ziemlich viele "soll" oder? Da ist rein gar nichts großartig verbessert worden, der G92 ist und bleibt ein G8x - daher auch mit VRAM-Bug.Modifiziert gegenüber dem G80 hat Nvidia die Textureinheiten beim G92, die nun identisch zu denen im G84 sowie im G86 sind [...] So kann der G92 nicht nur 56 Texel pro Takt filtern, sondern sie auch adressieren [...] Wer sich mit der G8x-Architektur auskennt, der weiß, dass durch die Deaktivierung einer ROP-Partition automatisch Einfluss auf den Memorycontroller genommen wird. Jede ROP-Partition ist direkt mit einem Framebuffer verbunden. Dieses Manko besteht auch beim G92 und ist ohne Zweifel sein mit Abstand größter Hemmschuh [...] Auf den ersten Blick nicht ersichtlich, hat Nvidia nach eigenen Angaben darüber hinaus einige interne Schaltungen im G92 optimiert. So soll der Scheduler (Zeitplaner) für die Shadereinheiten verbessert worden sein, was für eine effektivere Auslastung der ALUs sorgen soll. Darüber hinaus soll die Effizienz der GPU in Verbindung mit Anti-Aliasing sowie einer hohen Auflösung verbessert worden sein: Der Performanceverlust soll geringer ausfallen. Das SLI-Anti-Aliasing wurde zusätzlich optimiert, was in einer besseren Performance resultieren soll.
Zwischen VRAM-Bug und dem gewöhnlichen Auslagern einer GPU bei vollem VRAM gibt es einige Unterschiede, vor allem in der Performance. Solange der VRAM bei einer GF8 nicht voll ist, verhält sie sich ganz normal. Zwar läuft der Speicher wie bei allen anderen Karten schlicht voll, wenn mehr Platz für Texturen, Filter usw. benötigt wird, allerings sinkt zB bei einer HD38x0 der Speicherbedarf an manchen Stellen wieder (sieht man im Rivatuner), bei der GF8 steigt der Bedarf nur oder stagniert, aber er sinkt nicht - der VRAM wird schneller voll und kann sich nicht "erholen". Eine normale Karte verliert dann etwa 10-30% an Speed im Vergleich zur gleichen GPU mit nicht vollem weil größeren Speicher. Die GF8 dagegen bricht sehr stark ein, das scheint ein Problem der Architektur zu sein.
Wenn du dir die Benches der GT mit 256 vs. 512 vs. 1024 bei expreview anschaust, erkennst du gewaltige Unterschiede. Die 256er kannst du bei den meisten Games knicken, die bricht voll weg. Bei den Spielen, die über 512Mb brauchen, ist die 512er auch weit abgeschlagen. Und die Karte kann sehr wohl von 1024Mb profitieren, die Speicherbandbreite ist zwar kein Kracher, für die 1024Mb aber nichtsdestotrotz mehr als genug!
Die 1024er Benches sind fett rot umrandet, markante Unterschiede bei 512 vs. 1024 weiter rechts ebenfalls - die 256er ist so mies und grottig, das sieht eh jeder. Das die Unterschiede in CoH so gering ausfallen, liegt daran, dass die Engine nicht allzu anspruchsvoll ist und daher hohe Fps-Werte erzielt werden, das VRAM macht sich dann nicht so sehr bemerkbar.
cYa
Zuletzt bearbeitet:
Timbase
Lieutenant
- Registriert
- Apr. 2006
- Beiträge
- 683
y33H@ schrieb:Bei den Spielen, die über 1024Mb brauchen, ist die 512er auch weit abgeschlagen.
"über 512MB"
Warum hast Du die 1024MB-8800GT eigentlich nicht im "Die beste Grafikkarte für jedes Budget - Thread" erwähnt ?
Das der Bug immer noch besteht ist ja schon schlimm/peinlich genug. (Es handelt sich ja nicht gerade um preisgünstige Karten.)
Aber dann noch die 8800GT mit 256MB rauszubringen setzt dem ganzen noch die Krone auf.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.688
Ist korrigiert, danke 
Die 1024er gibts aktuell nur in 3 Versionen, diese sind praktisch nicht erhältlich und wenn, dann mit um/über 300€ viel zu teuer - dann gleich 80€ drauf und ne GTX. Aufgrund der mangelnden Lieferbarkeit und des Preises ist sie als nicht gelistet, zudem bringen zwar 1024Mb mehr Speed, wenn aber Spiele mit über 512Mb Verbrauch der Standard sind, ist die GPU samt Bandbreite zu schwach.
cYa
Die 1024er gibts aktuell nur in 3 Versionen, diese sind praktisch nicht erhältlich und wenn, dann mit um/über 300€ viel zu teuer - dann gleich 80€ drauf und ne GTX. Aufgrund der mangelnden Lieferbarkeit und des Preises ist sie als nicht gelistet, zudem bringen zwar 1024Mb mehr Speed, wenn aber Spiele mit über 512Mb Verbrauch der Standard sind, ist die GPU samt Bandbreite zu schwach.
Sag ich ja, man sieht ja wie gnadenlos die untergeht. Selbst ohne Bug sind 256Mb zu wenig, eine HD3850/512 ist 10-25% schneller als die 256er Version.Aber dann noch die 8800GT mit 256MB rauszubringen setzt dem ganzen noch die Krone auf.
cYa
Zuletzt bearbeitet:
@y33h
Nochmals danke für die weitere Erklärung. Ich bin weiterhin anderer Meinung und finde deine Herleitung des VRAM Bug falsch. Call of Juarez benötigt meines Wissens den meisten VRAM
256 MB
Viel RAM auszulagern -> langsamer
512 MB
Weniger auszulagern -> etwas schneller
1024 MB
Gar nicht auszulagern -> schneller
Schau dir mal die Testwerte bei ältere Spiele (weniger VRAM Bedarf), geringerer Auflösung (weniger VRAM Bedarf) und ohne AA/AF (weniger VRAM Bedarf) an wie HF2
1280 x 1024 ohne AA / AF
256 MB
161 Frames
512 MB
162 Frames
1024 MB
162 Frames
Sollte nicht auch hier dann dein VRAM Bug auftauchen
Wird dann massive der Speicherbedarf erhöht - wieder am Beispiel HF2 -, dann wird die 256 MB Variante deutlich langsamer, weil meiner Ansicht eben viel in den RAM des Rechners ausgelagert werden muss (und das ist einfach sehr sehr langsam im Vergleich zum GPU VRAM).
1920 x 1200 bei 8 x AA und 16 x AF
256 MB
22 Frames
512 MB
51 Frames
1024 MB
50 Frames
Wir wissen, der G80 hat den VRAM Bug und vielleicht auch der G92. Nur deine Herleitungen des VRAM Bug finde ich falsch. Nicht mehr und nicht weniger.
Für dich ist das der Beweis des VRAM Bug - andere Meinung. Auch gut.
Nochmals danke für die weitere Erklärung. Ich bin weiterhin anderer Meinung und finde deine Herleitung des VRAM Bug falsch. Call of Juarez benötigt meines Wissens den meisten VRAM
256 MB
Viel RAM auszulagern -> langsamer
512 MB
Weniger auszulagern -> etwas schneller
1024 MB
Gar nicht auszulagern -> schneller
Schau dir mal die Testwerte bei ältere Spiele (weniger VRAM Bedarf), geringerer Auflösung (weniger VRAM Bedarf) und ohne AA/AF (weniger VRAM Bedarf) an wie HF2
1280 x 1024 ohne AA / AF
256 MB
161 Frames
512 MB
162 Frames
1024 MB
162 Frames
Sollte nicht auch hier dann dein VRAM Bug auftauchen
Wird dann massive der Speicherbedarf erhöht - wieder am Beispiel HF2 -, dann wird die 256 MB Variante deutlich langsamer, weil meiner Ansicht eben viel in den RAM des Rechners ausgelagert werden muss (und das ist einfach sehr sehr langsam im Vergleich zum GPU VRAM).
1920 x 1200 bei 8 x AA und 16 x AF
256 MB
22 Frames
512 MB
51 Frames
1024 MB
50 Frames
Wir wissen, der G80 hat den VRAM Bug und vielleicht auch der G92. Nur deine Herleitungen des VRAM Bug finde ich falsch. Nicht mehr und nicht weniger.
Für dich ist das der Beweis des VRAM Bug - andere Meinung. Auch gut.
paxtn
Captain
- Registriert
- März 2007
- Beiträge
- 3.694
Man kriegt doch auch ne 8800GTS (G92) schon für 300€: von Zotac, Leadtek, Sparkle (sogar auf Lager bei Alternate) und Palit.
Die neue 8800GTS (G92) ist wesentlich schneller als eine HD3870 und auch immer einige fps besser als eine 8800GT und vor allem kühler als eine 8800GT, wesentlich kühler.
Bei mir IDLE: 48°C - 49°C , Last: 55°C - 57°C bei 19°C Raumtemperatur.
MfG paxtn
Die neue 8800GTS (G92) ist wesentlich schneller als eine HD3870 und auch immer einige fps besser als eine 8800GT und vor allem kühler als eine 8800GT, wesentlich kühler.
Bei mir IDLE: 48°C - 49°C , Last: 55°C - 57°C bei 19°C Raumtemperatur.
MfG paxtn
y33H@ schrieb:Ruckelfrei läuft Crysis auf der HD3870 in 1280*1024 "high" schon, allerdings oft mit unter 30fps - wenn dir das reicht, greif zu.
Die GT ist hier etwa 30% schneller, bei den meisten anderen Spielen nur rund 10%.
cYa
crysis schafft es sogar, mit 22-25 fps noch ziemlich ruckelfrei auszusehen. also wers mit 30 spielt, sollte eig keine probs haben... bei mir fängt das merkliche ruckeln bei ca 17-20fps an (bei 1920x1200 auf 15,4").
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.688
@ KnoXel
Stimmt, wie die meisten aktuelleren Engines ruckelt Crysis erst unter 20fps, flüssig spielbar ist es imo aber erst mit über 35-40fps. Darunter finde ich es sehr zäh, Aiming und Movement sind schwammig.
@ cwe01
Ein Beweis ist es leider nicht, ich kann keinen erbringen - wie auch. Mich machen eben nur die Benches sehr stutzig und warum hat nVidia beim G92 nichts von etwaigen Korrekturen an der Speicherverwaltung bekannt gegeben? Wenn sie den Bug der G8x (welcher ja offiziel bestätigt wurde) behoben hätten, dann hätte die PR Abteilung das wohl zumindest durchblicken lassen. So richtig groß und offiziell natürlich nicht, so hätte man ja wieder sagen müssen, das die G8x verbuggt sind - darüber schweigt man (verständlicherweise) lieber. Kein Beweis, aber mehr als auffällig, vor allem wenn man sich die Benches anschaut:
Eine GTS/512 hat 20.5% mehr GFLOP/s als eine GTX, dafür verfügt die GTX über 39,2% mehr Bandbreite.
In einigen Benches klaffen nun Unterschiede von +461% (Colin McRae Dirt 1600x1200 4xAA/16xAF), +69% (Call of Juarez 1600x1200 4xAA/16xAF), +53% bis +84% (Company of Heroes DX10) und +65% (Lost Planet DX10 1600x1200 4xAA/16xAF). Bei kaum fps (unter 20) ist die GTX schon mal mehr als doppelt mal so schnell (Clive Barker's Jericho 2560x1600 4xAA/16xAF und Crysis 1600x1200 4xAA/16xAF).
Benches, in denen die GTX nur zwischen 30-40% schneller ist, finden sich deutlich häufiger - man könnte es hier auf die Bandbreite schieben, allerdings bringen beispielsweise 20% mehr Bandbreite keine 20% höhere Performance! Ich lasse das aber mal so stehen, vorerst:
Rechnen wir nur bei den oben genannten Werten die 39% höhere Bandbreite herraus, d.h. wir gehen hypotetisch davon aus, dass 39% mehr Bandbreite ebensoviel mehr Fps bringen - auch wenn es nicht stimmt. Dann blieben immer noch 14% bis 45% mehr Speed, in Extremfällen über 100%!
DAS ist der VRAM-Bug - solche Löcher klaffen bei keiner anderen Architektur! Schließen wir alles bis auf den Speicher aus, dann passen meine Werte von 30-40% zuunsten der GTX wunderbar.
Bei den älteren Spielen wie HL2 werden einmal nicht zwangläufig über 256Mb genutzt (expreview macht hier ja leider keine Angaben). Weiterhin sind die Unterschiede bei Spielen, die die GPU kaum fordern und daher problemlos über 100fps erzielt werden, viel geringer. Ist die GPU aber schon am Ende, werden die Unterschiede viel größer, wenn der VRAM noch zur Performanceminderung beiträgt - dies lässt sich bei allen GPUs beobachten. Eine höhere Auflösung erhöht im Übrigen den Speicherbedarf kaum, AA/AF auch nicht extrem, allerdings belastet gerade AA den VRAM stark, da die Berechnungen hierfür so lange im Speicher gehalten werden, bis das komplette Bild geglättet ist - erst dann wird es ausgegeben.
Der VRAM-Bug äußert sich imo nur in zwei Punkten:
Aktuell verbrät imo PT Boats das meiste an VRAM, sieht man von Texturmods ab.
cYa
Stimmt, wie die meisten aktuelleren Engines ruckelt Crysis erst unter 20fps, flüssig spielbar ist es imo aber erst mit über 35-40fps. Darunter finde ich es sehr zäh, Aiming und Movement sind schwammig.
@ cwe01
Ein Beweis ist es leider nicht, ich kann keinen erbringen - wie auch. Mich machen eben nur die Benches sehr stutzig und warum hat nVidia beim G92 nichts von etwaigen Korrekturen an der Speicherverwaltung bekannt gegeben? Wenn sie den Bug der G8x (welcher ja offiziel bestätigt wurde) behoben hätten, dann hätte die PR Abteilung das wohl zumindest durchblicken lassen. So richtig groß und offiziell natürlich nicht, so hätte man ja wieder sagen müssen, das die G8x verbuggt sind - darüber schweigt man (verständlicherweise) lieber. Kein Beweis, aber mehr als auffällig, vor allem wenn man sich die Benches anschaut:
Eine GTS/512 hat 20.5% mehr GFLOP/s als eine GTX, dafür verfügt die GTX über 39,2% mehr Bandbreite.
In einigen Benches klaffen nun Unterschiede von +461% (Colin McRae Dirt 1600x1200 4xAA/16xAF), +69% (Call of Juarez 1600x1200 4xAA/16xAF), +53% bis +84% (Company of Heroes DX10) und +65% (Lost Planet DX10 1600x1200 4xAA/16xAF). Bei kaum fps (unter 20) ist die GTX schon mal mehr als doppelt mal so schnell (Clive Barker's Jericho 2560x1600 4xAA/16xAF und Crysis 1600x1200 4xAA/16xAF).
Benches, in denen die GTX nur zwischen 30-40% schneller ist, finden sich deutlich häufiger - man könnte es hier auf die Bandbreite schieben, allerdings bringen beispielsweise 20% mehr Bandbreite keine 20% höhere Performance! Ich lasse das aber mal so stehen, vorerst:
Rechnen wir nur bei den oben genannten Werten die 39% höhere Bandbreite herraus, d.h. wir gehen hypotetisch davon aus, dass 39% mehr Bandbreite ebensoviel mehr Fps bringen - auch wenn es nicht stimmt. Dann blieben immer noch 14% bis 45% mehr Speed, in Extremfällen über 100%!
DAS ist der VRAM-Bug - solche Löcher klaffen bei keiner anderen Architektur! Schließen wir alles bis auf den Speicher aus, dann passen meine Werte von 30-40% zuunsten der GTX wunderbar.
Bei den älteren Spielen wie HL2 werden einmal nicht zwangläufig über 256Mb genutzt (expreview macht hier ja leider keine Angaben). Weiterhin sind die Unterschiede bei Spielen, die die GPU kaum fordern und daher problemlos über 100fps erzielt werden, viel geringer. Ist die GPU aber schon am Ende, werden die Unterschiede viel größer, wenn der VRAM noch zur Performanceminderung beiträgt - dies lässt sich bei allen GPUs beobachten. Eine höhere Auflösung erhöht im Übrigen den Speicherbedarf kaum, AA/AF auch nicht extrem, allerdings belastet gerade AA den VRAM stark, da die Berechnungen hierfür so lange im Speicher gehalten werden, bis das komplette Bild geglättet ist - erst dann wird es ausgegeben.
Der VRAM-Bug äußert sich imo nur in zwei Punkten:
[*] der Speicher läuft voll, weil neue Texturen usw. hinein kommen, altes aber drin bleibt
[*] der Performanceverlust ist extremst hoch, viel viel höher als bei anderen nVidia oder ATI Karten
Aktuell verbrät imo PT Boats das meiste an VRAM, sieht man von Texturmods ab.
cYa
Zuletzt bearbeitet:
Zumindest was World in conflict anbelangt muss ich dir widersprechen, Auf einer Auflösung von1600*1050 kann ich seit dem neusten treiber( catalyst 7.12) ruckelfrei spielen mit DX10 und alles auf sehr hoch (37 Fps im internen Benschmark). Im Spiel sind es durchschnittlich ca 40-50 fps was absolut ruckelfrei ist.
Bei crysis kann ich mit einem Schnitt von ca 25-30 Fps alles auf High bis auf die Schatten (medium) ruckelfrei spielen ( Auflösung 1600*1050). Das einzige was die Grafikkarte bis jetzt in die Knie zwang, ist crysis auf very high. Alle anderen Spiele konnte ich bis jetzt ruckelfrei geniessen.
Bei crysis kann ich mit einem Schnitt von ca 25-30 Fps alles auf High bis auf die Schatten (medium) ruckelfrei spielen ( Auflösung 1600*1050). Das einzige was die Grafikkarte bis jetzt in die Knie zwang, ist crysis auf very high. Alle anderen Spiele konnte ich bis jetzt ruckelfrei geniessen.
Zuletzt bearbeitet:
Scex
Ensign
- Registriert
- März 2005
- Beiträge
- 251
Ich kann leider nur für die Crysis spdemo ("prerelease")sprechen, aber ich denke, die Vollversion wird ungefähr gleich sein, perfomance-mäßig. graka 3870 treiber .12 und kein crysis hotfix auflösung 1400x900 alles auf high kein aa winxp dx9
Es läuft eigentlich durchgehend flüssig und ich sehe subjektiv auch kein ruckeln. beim benchen waren es dann meißtens um die 30fps was mich aber auch gar nicht gestört hat.
mfg
Es läuft eigentlich durchgehend flüssig und ich sehe subjektiv auch kein ruckeln. beim benchen waren es dann meißtens um die 30fps was mich aber auch gar nicht gestört hat.
mfg
Zuletzt bearbeitet:
Timbase
Lieutenant
- Registriert
- Apr. 2006
- Beiträge
- 683
zu Crysis
Hab es mit einer HD3870 OC alles auf high durchgespielt. Ruckler gabs keine, manchmal wars aber bisschen zäh, doch durchaus gut spielbar.
Aber COD4 wirkte danach viel flüssiger.
zum 8800 G92 Bug
Wer anhand der Benchs und y33H@ Ausführungen nicht sieht, dass "da was nicht in Ordnung" ist, hat ne rosarote NVidia-Brille auf.
Hab es mit einer HD3870 OC alles auf high durchgespielt. Ruckler gabs keine, manchmal wars aber bisschen zäh, doch durchaus gut spielbar.
Aber COD4 wirkte danach viel flüssiger.
zum 8800 G92 Bug
Wer anhand der Benchs und y33H@ Ausführungen nicht sieht, dass "da was nicht in Ordnung" ist, hat ne rosarote NVidia-Brille auf.
pampelmuse
Admiral Pro
- Registriert
- Juni 2005
- Beiträge
- 7.211
Na ich sag doch Grafikguru 
Jedenfalls hast du Ahnung, obs zum Guru reicht, entscheide nicht ich^^
Post #56 hat meine volle Zustimmung.
Jedenfalls hast du Ahnung, obs zum Guru reicht, entscheide nicht ich^^
Post #56 hat meine volle Zustimmung.
!"§$%&/()
Ensign
- Registriert
- Juli 2006
- Beiträge
- 137
1.) RAM- Bug :
Der RAM- Bug tritt bei allen 88 Karten auf auch bei der GT. Bei Karten mit mehr Speicher aber erst in
Höheren Auflösungen.
Bei denen die Karten eh keine spielbaren Frames mehr vorhanden sind. Daher fällt er hier nicht so auf.
2.) Das ist hier ein Hardwareforum und nicht das Forum der Deutschen rechtschreibung !
3.) Die 88 er Gt ist was für Leute die auf hohe Framzahlen wert legen erste Wahl.
Die 3870 bietet die bessere Bildqualität (mit AA und AF).
Beide Karten sind erher schlecht zu bekommen daher eher zu Teuer besser noch mit dem Kauf warten
bis sie in ausreichender Stückzahl zu erhalten sind (dann wird der Preis sicher noch sinken)
Der RAM- Bug tritt bei allen 88 Karten auf auch bei der GT. Bei Karten mit mehr Speicher aber erst in
Höheren Auflösungen.
Bei denen die Karten eh keine spielbaren Frames mehr vorhanden sind. Daher fällt er hier nicht so auf.
2.) Das ist hier ein Hardwareforum und nicht das Forum der Deutschen rechtschreibung !
3.) Die 88 er Gt ist was für Leute die auf hohe Framzahlen wert legen erste Wahl.
Die 3870 bietet die bessere Bildqualität (mit AA und AF).
Beide Karten sind erher schlecht zu bekommen daher eher zu Teuer besser noch mit dem Kauf warten
bis sie in ausreichender Stückzahl zu erhalten sind (dann wird der Preis sicher noch sinken)
- Registriert
- Jan. 2008
- Beiträge
- 76
Hatte schon jemand ein Problem mit der HD3870 auf einen Mainboard mit PCI-E 1.0/1.0a und welches Netzteil ist aussreichend für die HD3870?
Ich besitz zurzeit ein Netzteil "xilence 350 Watt"
Ich besitz zurzeit ein Netzteil "xilence 350 Watt"
Ähnliche Themen
- Antworten
- 43
- Aufrufe
- 4.457
- Antworten
- 20
- Aufrufe
- 2.899
- Antworten
- 51
- Aufrufe
- 6.261