News Im Test vor 15 Jahren: GeForce 9800 GX2 mit viel Leistung und wenig VRAM

Ich hatte die damals in meinem Anfgang 2008 angeschafften PC.
Samt dem ebenso "brandneuen" Core 2 Duo E8500.

Tatsächlich habe ich den entsprechenden Rechner dann auch über 5 Jahre ohne update benutzt.

Die Lautstärke fand ich, stand damals, gar nicht so schlimm, gefühlt nicht lauter als alles was ich vorher hatte. Und im Antec 900 mit den ganzen Lüftern war es auch immer gut gekühlt... ;)

Auch Mikroruckler etc hab ich nicht "aktiv" festgestellt, aber gut, da waren meine Ansprüche und Erwartungen auch deutlich geringer.
 
Tja, Nvidia und der vram

Wenn ich so die letzten Jahre überlege, gab es nur einmal eine Situation, wo Nvidia besser aufgestellt war mit dem vram.
Das war zur Zeit der 980ti mit 6gb vram
Zur fury mit 4gb (hbm2)

Ansonsten:
780ti 3Gb, viel chipleistung wenig vram
970 3,5gb nvidias Test, ob man den Kunden verarschen kann, ja kann man inkl. Stockhausen Syndrom.
1000er Serie, ein Nvidia untypischer vram Traum.
Dann zur 3000er Serie hat der Nvidianismuss wieder zugeschlagen:
2080ti Leistung mit vram aus der vier Jahre alten Mittelklasse: 3070 mit 8gb.
Die 3080 war da aber nicht viel besser.

Jetzt zur 4000er Serie wollte man einen dann allen Ernstes 12gb in einer 80er Karte verkaufen.

Nvidia ist für mich ein Meister im minimal Prinzip und schafft es immer wieder ein Produkt am Markt zu platzieren, was im hier und jetzt gut da steht, morgen aber bereits irgendwo krankt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli, eXe777, NJay und eine weitere Person
GERmaximus schrieb:
Nvidia ist für mich ein Meister im minimal Prinzip und schafft es immer wieder ein Produkt am Markt zu platzieren, was im hier und jetzt gut da steht, morgen aber bereits irgendwo krankt
Absatz!!!!!!!!!!!!
Niemand möchte dir langlebige Produkte verkaufen^^.
Wie du willst die Karte länger wie zum nächsten Release nutzen? Hackts?!

Spaß beiseite... VRAM echt ein Drama.... nur bei den Utopiekarten (halt vom Preis) wie den 90ern gibts unnötig viel...

So mies hatte ich die 9800GX2 aber gar nicht in Erinnerung, war anscheinend doch Schrott, der Gerät.

Aber was ich lustig finde: 397W Verbrauch fürs Gesamte System :lol:
Wie süß, da braucht die 4090 ja mit angezogener Handbremse fast mehr Saft - also allein, für sich, ohne was abgeben zu wollen. :D
 
Nureinnickname! schrieb:
Mit mehr VRAM könnte der Kunde die Karte aber viel länger nutzen und würde seltener Aufrüsten, was wiederum schlecht für Nvidia wäre. Eine vermutung warum das so war/ist.
Bei meiner 8800GTS 320MB lief z.b jedesmal nach einiger Zeit der VRAM voll und das Spiel fing an zu Ruckeln, damals Trackmania Nations, einmal Alt Tab auf den Desktop und wieder zurück, lief es wieder einige Zeit.
Ja, alle G80 Chips bis hin zum G92 hatten diesen VRAM Bug. Erst der G92b (warum gab es den wohl?^^) war fehlerbereinigt.
 
VRAM war bei meiner Anwendung damals - Oktober 2009 - kein Problem. ;)
https://www.computerbase.de/forum/threads/cougar-cm-1000-user-test.646745/

Aber ich hatte Probleme die dritte Grafikkarte neben den zwei 9800GX2 ansprechen zu können. Deshalb waren meine Netzteil Effizienz Tests leider nur abgespeckt.
Erstaunlich im Nachhinein, das 550-Watt Netzteil konnte die 2x 9800GX2 tatsächlich unter Last falten lassen.

Screenshot aus dem Test mit den Last-Verbräuchen:

2x9800GX2.PNG
 
Wechsler schrieb:
Und auf Röhrenmonitoren völlig unnötig.
Wer behauptet solchen Unsinn ?
Nur weil CRTs die Interpolationsproblematik von TFTs mit einer einzigen physikalischen Auflösung nicht haben, heißt das im Umkehrschluss nicht dass es keine Treppenstufen zum wegglätten mit AA geben würde.
 
  • Gefällt mir
Reaktionen: Dr@gonm@ster, up.whatever und kat7
gustlegga schrieb:
Röhrenmonitore haben Zeilen, keine Pixel. Geglättet werden auch nicht deren "Kanten", sondern die Ecken dieser Pixel, die man erst mal nur auf LCDs findet. Der analoge Kathodenstrahl zeichnet weich die Mattscheibe, da die Wechsel zwischen Hell und Dunkel analog (also in einem weichen Übergang) erfolgen und die Zeilen auch nicht beliebig scharf gegeneinander abgegrenzt sind wie auf dem LCD.

Sichtbare Ecken gibt es deshalb nur bei extrem niedrigen Auflösungen (der heute gern reproduzierte "Retro-Look"), diese waren jedoch zu Zeit der 9800GX2 schon lange kein Thema mehr. Wenn es zu "pixelig" war, ging's einfach eine Auflösungsstufe höher. Aufwendiges Supersampling war damit praktisch überflüssig.
 
  • Gefällt mir
Reaktionen: Zarlak
Jaja, der legendäre G92. War jemals eine GPU von Nvidia länger als Topmodell im Einsatz? Von 8800 GT bis 9800 GX2 waren jedenfalls einige Modelle dabei.

Gefühlt gab es den jedenfalls ewig, könnte mich aber auch irren. Man war jünger :D
 
Wechsler schrieb:
Röhrenmonitore haben Zeilen, keine Pixel.
Das Pixel was anderes sind als Loch&Streifenmaske ist mir schon auch klar. ;)
Wechsler schrieb:
Sichtbare Ecken gibt es deshalb nur bei extrem niedrigen Auflösungen
Und genau davon rede ich auch.
Etwa 2000 rum auf dem 19er Samsung den ich im Desktopbetireb mit 1280*1024 in 80Hz gefahren hab war das dann schon relevant ob du AA angemacht hast wenn du auf 1024*768 runter bist weil zB das Spiel gar nicht mehr anbot oder das Interface in 1280 nicht mehr lesbar war weils nicht skaliert hat.

Raucherdackel! schrieb:
Ja, die gute alte Röhre... 😍
Was ich früher mit der Röhre im Vergleich zu den heutigen LEDs mehr Strom verbraten hab ,muss ich jetzt mehr heizen. Effizienz ist also im Winter gar nicht mal sooooo wichtig. Lol
Da wurde es in der Bude dann manchmal schon gut warm wenn der 19er den ganzen Tag lief.
 
[wege]mini schrieb:
Das Transform and Lighting (oder so) war ein echter Fortschritt, als es in Hardware berechnet wurde. Wenn ich mich richtig erinnere, hatte die erste GForce das und mit der Gforce3 kam dann mit Pixel Shader 3.0 die neue Technologie richtig in Fahrt.

Später kamen dann unified Shader und heute redet man ja sowieso nur noch über CUs.

Waren spannende Zeiten und es war schön, sie miterleben zu dürfen.

Wenn kein OpenGL unterstützt wurde, waren die Voodoos sowieso "nutzlos" und eigentlich brauchte man eine Unterstützung von Glide. DirectX gab es damals noch nicht. :evillol:

Lang ist es her, aber immer wieder eine schöne Zeitreise.

mfg
Pixel Shader 3.0 kamen erst mit der GeForce 6000 Serie. GeForce 3 führte generell Shader ein und nutzte daher Pixel Shader 1.0
 
  • Gefällt mir
Reaktionen: soiz und [wege]mini
War eine geile Sache so eine Multigpu wenn Mann die Microruckler und Lautstärke mal außen vor lässt.

Meine erste Erfahrung hatte ich mit meinem beiden ATI HD 4870 im crossfire Modus. Nach zwei bis drei Wochen Einsatz habe eine wieder verkauft.
 
0x8100 schrieb:
die 2d-karte hat nie irgendein signal der voodoos bekommen.

Man schlauft das Signal der Voodoos durch die 2D Karte und von der 2D Karte geht das Signal an den Monitor. Da ich gerade nicht in Dresden bin, kann ich nicht genau schauen, ich bin mir aber 99% sicher.

Ohne 2D Karte kommt von den Voodoos gar kein Bild. Wenn ich mich richtig erinnere.

mfg
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Nur bei der Vodoo 1 und 2. Die Banshee und die Karten ab der 3000 Serie konnten auch 2D.
 
  • Gefällt mir
Reaktionen: [wege]mini
[wege]mini schrieb:
Man schlauft das Signal der Voodoos durch die 2D Karte und von der 2D Karte geht das Signal an den Monitor. Da ich gerade nicht in Dresden bin, kann ich nicht genau schauen, ich bin mir aber 99% sicher.
genau anders herum. eine 2d karte hat gar keinen eingang, um das bild der voodoo durchzuschleifen:

voodoo.jpg


war ja auch einer der nachteile an dem setup: das durchschleifen des vga-signals der 2d-karte durch die voodoo hat das analoge signal nochmals verschlechtert.
 
  • Gefällt mir
Reaktionen: rumpel01, [wege]mini und up.whatever
[wege]mini schrieb:
Man schlauft das Signal der Voodoos durch die 2D Karte und von der 2D Karte geht das Signal an den Monitor.
Nein, genau andersrum.
[wege]mini schrieb:
Ohne 2D Karte kommt von den Voodoos gar kein Bild. Wenn ich mich richtig erinnere.
Ohne 2D Karte kannst du den Rechner gar nicht booten. Aber du kannst problemlos im 3D-Betrieb das Kabel zwischen 2D Karte und Voodoo entfernen, da dieses nur das 2D-Bild durchschleift.
 
  • Gefällt mir
Reaktionen: [wege]mini
Zurück
Oben