News Im Test vor 15 Jahren: Nvidias GeForce 8800 GT war quasi perfekt

andi_sco schrieb:
Schade, dass die Riva 128 da nicht bei ist (ich weiss, die kann den 3D Mark nicht), war immerhin mein erster echter "3D Beschleuniger" in den 90ern. :D

Aber krasse Sprünge, die man da sieht wie sich die Leistung entwickelt hat, danke für die Aufstellung.
 
  • Gefällt mir
Reaktionen: andi_sco
Apocalypse schrieb:
Und dann hast du auch noch auf die 4670 verlinkt, die am Desktop schon 120W gefressen hat und unter Last schon mal über 200W gehen konnte.
Ja, es war natürlich die 4670 gemeint, das darüber war ein Tippfehler, der Link ist also korrekt.
120W kann nicht sein, die TDP der Karte ist mit 59W angegeben, hab sie damals ohne PCIe Stecker betrieben.
Man müsste sie schon massiv übertakten um sie auf 120W hoch zu kriegen. Du musst natürlich die Karte angucken, nicht das Gesamtsystem.

"Being a single-slot card, the ATI Radeon HD 4670 does not require any additional power connector, its power draw is rated at 59 W maximum." Quelle

Karte von 2007 vs Karte von 2008?
Beides wenigstens aus Legendären Serien, aber im Grunde zwei Generationen später. Vergleich hinkt glaube ich ein wenig.
Naja, ein Jahr ist jetzt keine gewaltig lange Zeit für eine so krasse Effizienzsteigerung. Die 8800er wurde ja von vielen auch viele Jahre verwendet, auch als sie von der Effizienz her schon lange völlig veraltet war. Ich fand es halt damals indiskutabel, dass die Karte sich im Leerlauf mehr Stom zieht als ein kompletter PC mit onBoard-Karte.
 
Die 8800 GT war eine tolle Karte, hatte aber dann doch langfristig zu wenig Grafikkarten RAM verbaut.
Ich wollte damit Fallout 3 mit Texturmod zocken, damit die Texturen etwas besser aussehen und Straßen z.B. nichts matschig, sondern die raue Oberfläche und die Risse im Teer dann ansehnlich aussehen.
Leider ist die Karte damit voll in die Knie gezwungen worden.
Eine schnell nachgekaufte Radeon 4850 mit 1GB RAM drehte dann sehr große Runden um meine alte Karte.
Fortan habe ich dann nur noch die Karten gekauft, die ordentlich Speicher geboten haben.
Wenn ich sehe, wie jetzt schon z.B. 2060er und 3070er aus allen Nähten platzen, weil das Streaming nicht mehr ordentlich funktioniert, bin ich froh, dass ich nicht so viel Geld ausgegeben habe.
 
UrlaubMitStalin schrieb:
Naja, ein Jahr ist jetzt keine gewaltig lange Zeit für eine so krasse Effizienzsteigerung.
Zwei Generationen sind aber aber eben schon gewaltig viel und die 8800GTX war ja schon Ende 2006 erschienen, als Konkurrenz zur X1950XTX, die sogar wenn zwei X1950XTX genutzt wurden von der 8800GTX bequem zersägt wurden.
Nach der 1950XTX (80nm) kam dann HD2000 (65nm) und HD3000 (55nm) in 2007 und HD4000 (40NM) in 2008.
Da ging also schon ziemlich viel weiter in der kurzen Zeit, sowohl bei der Fertigung als auch beim Design.
Bei Nvidia ein ähnliches Bild. 8800GTX in 2006 in (90nm) zur 9000er Serie in 2008 (55nm) und 200er in 2008 (40nm).
Und jede Generation hatte dann noch ein paar Chips in schlechterer Fertigung, in der Regel für günstigere Chips oder auch gleich relabels. Der G80 der 8800GTX/GTS wurde ja dann zum Bespiel noch ewig weiterverwendet. In dem Sinne sehe ich jetzt auch kein Problem das Nvidia noch 3080er lange weiterverkaufen möchte, früher hätten sie die selben Chips halt als 4070er oder 4060ti relabeled.

Aber der Preis wäre halt deutlich niedriger gewesen. Der Versuch den Preis der alten Generation zu halten und die neue einfach eine Stufe drüber aufzustellen ist das, was eben wirklich dreist von Nvidia ist. Und das während dessen 6800 und schon mal 6900 für 650€ verkauft werden.
 
  • Gefällt mir
Reaktionen: Intruder
Die 8800gt hatte ich in einem Komplettsystem mit nem Q6600 drin, damals noch bei MM geholt :D. Ein echter Meilenstein..
 
  • Gefällt mir
Reaktionen: av4l
  • Gefällt mir
Reaktionen: MortyMcFly
Und ich hatte damals im Komplett-PC von meinem Vater ne GeForce 8600GS, die war ja sowas von langsam...
Ich war da schon so sehr an 20fps Gaming gewöhnt (in so Titeln wie Schlacht um Mittelerde und Runes of Magic), dass ich mir gar nichts anderes vorstellen konnte.
Einfach enorm, wie groß damals der Unterschied zwischen 8800GT und 8600GT war und die GS war ja nochmal um einiges langsamer.

Dann kam irgendwann ne GeForce 9600GT, damit ging das 20fps-Gaming dann bei Skyrim weiter 🤣

Bis ich dann meinen ersten eigenen PC gebaut habe mit einer HD7950. Das war einfach ne komplett andere Erfahrung. So schade, dass ich damals die ordentlichen Karten nicht kennenlernen konnte
 
Hanfyy schrieb:
Man wurde ich damals auf der LAN beneidet :D
Wir haben unsere erst vor zwei Stunden beendet und nebenbei zwei alte Rechner mit einer HD 4870 X2 und eben auch einer 8800 GT wieder fit gemacht :smokin: für das Alter immer noch gut unterwegs :D

(Jetzt muss nur noch meine alte 8800 GTX genau gecheckt werden)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco
Vor 15j hat Radeon HD 2900 XT 512Bit Speicher Anbindung gehabt 😳

Und die RX 6950XT "nur" 256Bit🙄

Wäre schön wenn 512Bit wieder in Higt-End zurück kehrt, das würde wenigstens hohe Preise in Higt-End rechtfertigen
 
Ja, und HBM lag noch höher.
Es dürfte aber günstiger sein, hoch taktenden Speicher zu nutzen, da das Board Layout und co. einfacher sind.
 
  • Gefällt mir
Reaktionen: ITX17x17
ja schön waren die alten Zeiten...
und alles schon so lange her 😏 da merkt man mal wieder, wie alt man selber wirklich schon ist.

Die 8800 GTS war in meinem vorletzter Rechner gewesen, den ich mir komplett neu zusammen gebaut hatte.
  • Asus A8N32-SLI Deluxe
  • AMD Athlon 64 x2 4800+
  • 4GB RAM
  • Nvidia 8800 GTS 640MB
bis dann irgendwann - nach Treiberupdate, die Karte draufgegangen war. Unterm Grafikchip haben sich einige Lötstellen aufgrund Hitze verabschiedet.
Fast zeitgleich ist auch mein Acer Aspire Notebook mit seiner 8600M GT mit identischem Fehler nach Treiber Update gestorben.

Weg werfen wollte ich die kaputte 8800 GTS nicht aber selber reparieren konnte ich sie auch nicht. Dachte ok... kannste ja mal einfach so aus Fun bei Ebay rein stellen und ich staunte nicht schlecht für was die damals noch weg ging. Gegenprobe mit der defekten 8600M GT aus dem Notebook und die ging für noch mehr Geld weg.
Hab dann das komplette Notbook in seine Einzelteile zerlegt und jedes Teil einzeln bei Ebay angeboten und hab über die Hälfte der Neupreises von dem Ding wieder raus bekommen 😂

Als Ersatz für die 8800 GTS gab es dann eine Sapphire ATI Radeon HD 5770, weil Cyberport zu dem Zeitpunkt nichts anderes "brauchbares" sofort zum mitnehmen anbieten konnte. Noch nicht mal ein Jahr später wurde sie gegen eine ATI Radeon HD 5870 ersetzt welche dann auch irgendwann in einem heißen Sommer ebenfalls das zeitliche segnete und ich wieder Cyberport besuchen musste und mir dann mein GTX 980 SLI Gespann kaufte und es war endlich die Zeit gekommen um mir eine neue Plattform (Z87 - Xeon E3-1230 V3) zu bauen, mit dem ich noch heute unterwegs bin.

Die 5870 ist, bis auf den GPU Lüfter, wieder bei Ebay gelandet und das 3er Gespann Lüfter vom Kühler verrichtet noch heute seinen Dienst in meinem Tower zum kühlen der Festplatten.

Aus den beiden GTX 980 SLI ist nach Ausfall einer Karte nun eine RTX 3090 geworden, welche ins neue zukünftige System mit umziehen darf.
Die alte 5770 verrichtet noch immer ihren Dienst in einem Server.

Wenn man sich das so überlegt, sind GPU´s fast die einzigen Komponenten, die des öfteren mal ausgetauscht werden müssen und man kann bzw. könnte Mainboard und CPU ewig nutzen, wenn diese nicht irgendwann zu langsam für die Grafikkarten wären.

Mal schauen, wie lange ich die neue kommende Plattform (Z790) schlußendlich wieder nutzen werde. Ob es auch wieder auf ca. 10 Jahre Laufzeit hinauslaufen wird?
 
MortyMcFly schrieb:
Ob wir in 15 Jahren dann gucken: "Can it run Cyberpunk?" 🤔
Die einfache Antwort lautet nein, weil Cyberpunk ohne Raytracing gut genug ist und selbst mit Raytracing in niedrigeren Auflösung schon auf Midrange Hardware läuft. Die Minimum Anforderungen schafft ja sogar ne Karte von Anno dazumal.
 
Zurück
Oben