News Im Test vor 15 Jahren: Die GeForce 7600 GS war für 125 Euro eine Wucht

catch 22 schrieb:
P/L Hits vermeidet Nvidia und enorme Leistungssprünge werden von Generation zu Generation unwahrscheinlicher.
Für GTX970 war bei Release auch ein ziemlicher Hit, weil man für 300€ plötzlich High End Leistung bekommen hatte. Der Sprung von der vorherigen Generation war riesig und die Leistung war kaum hinter den teureren High End Karten.
Wenn man mal die UVP betrachtet ist sich die 3070 gar nicht so schlecht.
 
  • Gefällt mir
Reaktionen: Vitec
Ach war das eine schöne Zeit, wo man gefühlt alle paar Monate seinen PC umbaute, weil es ne neue CPU oder GraKa gab.... und die auch ohne Probleme überall zu haben war
 
[wege]mini schrieb:
Immer wieder dieses Problem mit Ursache und Wirkung.

Weil es Idioten gibt, denen die Gier komplett das Hirn vernebelt hat und sie unbedingt mit wenig Aufwand schnell "reich" (was sie darunter verstehen) werden wollen, steigt der Preis für GPUs ins obszöne.

Jeder Penner, der irgend wo irgend welche "Coins" kauft, ist schuld. Ganz sicher nicht die Min0r oder die Hersteller von Hardware.
So ich oute mich Mal hier. Ich habe in 2017 ETH geschürft. Waren nur drei Monate bis der Preis abgestürzt ist. Und schon damals sind die Preise explodiert. Eine 1070 hatte über 500 Euro gekostet gebrauchte R9 290x gut 300 Euro. Und auch damals war das Geschrei über die Preise groß.
Aber als Turing erschien hatten sich die Preise wieder normalisiert nur nvidia verlangte plötzlich für die 2080ti ab 1249 Euro aufwärts. Die 1080ti kostete noch deutlich unter 1000 Euro zur Markteinführung und selbst das war zur Generation vorher ein kleiner Preissprung. Seit dem sind die Preise kaputt. Und das hat nichts mit Mining zutun gehabt. Da bei Turing Einführung der ETH Kurs sich bei etwa 300 Euro bewegte.
Und jetzt kommt zur den Problemen in der Fertigung noch der ETH Preis. Und zur Zeit würde man sich die Preise aus 2017 wünschen.
Ergänzung ()

SavageSkull schrieb:
Wenn man mal die UVP betrachtet ist sich die 3070 gar nicht so schlecht.
Ich glaube die UVP bei Turing war nur Marketing. Da man genau wusste dass die Preise aufgrund der Knappheit steigern werden. Und leider macht AMD da fröhlich mit.
 
Zuletzt bearbeitet:
ThePlayer schrieb:
Seit dem sind die Preise kaputt.

Meine Geforce 3 kostete 2001 stolze 999 DM.

Das sind in der heutigen Zeit locker 999 Euro. Egal wie man die "Inflation" berechnet.

Der Unterschied zwischen den UVPs und den gezahlten Preisen, kommt durch die hohe Nachfrage. Hier sind die Hersteller ganz sicher nicht schuld.

Ob letzten Endes wirklich ein "Fertigungsproblem" besteht, mag mal noch dahin gestellt sein. Die Menge an Karten für Min0r ist einfach nur unglaubwürdig hoch.

mfg
 
  • Gefällt mir
Reaktionen: Klever und ThePlayer
Das war meine erste Grafikkarte, damit hab ich dann auch direkt XIII gespielt, meinen ersten Shooter, dass waren noch Zeiten.
 
ThePlayer schrieb:
Ich glaube die UVP bei Turing war nur Marketing. Da man genau wusste dass die Preise aufgrund der Knappheit steigern werden.
Ernsthaft? Nvidia wusste 2018 schon dass Corona und Mining 2020 aufblühen werden und hat dem entsprechend die Preise angesetzt, aha ok..... MFG Piet
 
Hatte damals eine 7600GT und war so glücklich damit. Gut bezahlbare und sehr leistungsstarke Mittelklasse!
 
[wege]mini schrieb:
Meine Geforce 3 kostete 2001 stolze 999 DM.
Wieso war die so teuer?

Du hast ja mit deinem Kommentar von heute morgen ja nicht unrecht. Aber trotzdem hat nVidia ohne Grund bei Turing die Preise angehoben. Und das nicht zu knapp. Die 1080ti kostete nur 819 Euro zum Start. Und die 2080ti 1259 Euro das sind 440 Euro mehr also über 50% mehr, sowas habe ich noch nie erlebt. Das hat auch nichts mit Inflation zutun. Und 2019 gab es seitens der Miner kaum Nachfrage nach Karten.

@sNiPe ja die war damals günstig. Ich habe sie gebraucht gekauft für 50-60 Euro in 2007.
 
Zuletzt bearbeitet:
3faltigkeit schrieb:
Was in den 2000er Jahren extrem war, war auch die grafische Entwicklung der Spiele und damit auch der Hardware Anforderungen. Alleine 2003 bis 2005. Oder auch die 3 Jahre von Far Cry zu Crysis. Wenn man sich heute die Entwicklung anschaut, von z.B 2018 oder 2019 bis heute ist das dagegen eher marginal. Damals waren die großen Sprüngein in einer Preisklasse von Generation zu Generation einfach notwendig. Heute gibts die sprünge nur beim Preis :D vermutlich hängt es auch damit zusammen, dass Gaming ein gigantischer Massenmarkt ist. Zur Jahrtausendwende war man (ich und ein paar Freunde) eher Außenseiter.
Da gebe ich dir voll recht. 2000 bis 2010 große Sprünge und von 2010 bis jetzt nicht so extrem wie damals. Aber allein der Sprung von farcry zu Crisis und das erste bioshock waren gewaltig.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
ThePlayer schrieb:
Wieso war die so teuer?

Damals hat Nvidia den Big-Chip zeitgleich mit den Brot und Butter Karten rausgebracht.

Erstmals gab es dann bei der 680er Reihe den 102er Chip nicht zum Launch zu kaufen. Damals haben sie sogar eine 680er rausgebracht und später dann den großen Chip als 780Ti.

Die 1080Ti kam fast 1 Jahr nach der 1080. Da hatte man genug Zeit, Käufer für eine Titan zu finden und genug Chips vorzuproduzieren.

Die 2080Ti (102er Chip) und die 2080 kamen fast zeitgleich. Hier hat man einfach die early birds gut versorgt, da es ja auch keinerlei Konkurrenz gab und durch den hohen Preis die maximalen Stückzahlen eher bescheiden waren.

Wenn heute die Menschen gewillt sind, für den 102er Chip bis zu 1000 Euro und mehr zu bezahlen, ist das nichts ungewöhnliches. Die Tatsache, dass Nvidia nicht genug liefern kann zeigt einfach nur, dass zu viele Menschen diese Preise zahlen wollen.

Nvidia hätte auch 2000 Euro drauf schreiben können. Dann hätten sie aber den schwarzen Peter und nicht die bösen Skalper und Min0r.

Niemals ist der Käufer schuld. :D

mfg
 
  • Gefällt mir
Reaktionen: ThePlayer
OiOlli schrieb:
Selbst mit einer Inflationsrate von 3 % wären von 2006 bis 2021 die Preise auf 200 € gestiegen.

Die böse Inflation ist also nicht der Grund für die rasant gestiegenen Preise.

Da lasse ich mal weg, dass man Monster wie die 8800 GTS für unter 300 € anbieten konnte. Und das obwohl sie wesentlich schneller waren, als ihr nicht mal 9 Monate vorher erschienener Vorgänger.

Von Zeiten, als die 60er noch ein leicht abgespeckter Highendschip waren und nicht wie heute ein Mittelklassechip, lasse ich mal weg (Man vergleiche mal die 260er mit der 660er).
Auch interessant bei der 8000 Reihe war, dass man genau das an Aufpreis bezahlt hat was man an Leistung bekommen hat. Die 8800 GTS 640 mb hat zu der Zeit, wo ich eine GPU kaufen wollte ziemlich genau 300€ gekostet. Eine 8800 GTX hat ~ 450€ gekostet also 50% mehr , lieferte aber auch bei den FPS nahezu diese 50% mehr Leistung.
Somit hat man als Enthusiast für das bezahlt, was man bekommen hat, ohne Aufpreis.

Daniel D. schrieb:
Gibt es heute überhaupt noch Preis-Leistungs-Kracher?

Ich würde die RX 470/RX 570 mit 8GB in diese Kategorie geben. Die 480/580 bedingt natürlich auch , aber hier hat man schon wieder das Problem mit dem Aufpreis ohne auch 100% FPS dafür zu bekommen. Hier ist halt auch die Frage , wo man die Grenze zieht bzw. was für einen minimum Anspruch man hat an die GPU.
Die 1070 Ti haben auch viele gefeiert, wobei ich die zu nahe von Leistung und Preis an der 1080 sah als wirklichen P/L Kracher.

Bei der RTX Reihe fand ich die 2060 Super preislich auch ganz ok, wenn man davon absieht, dass man RT kaum nutzen kann in AAA Titel (Quake / Minecraft und co. mal aussen vor. ), allerdings nur verglichen mit dem anderen Karten auf dem Markt. P/L Kracher würde ich sie nicht nennen, dass wäre sie mit an die 250€ gewesen.
Man muss auch bedenken, dass es unter normalen Bedingungen noch Preissenkungen gäbe. Eine RTX 3060 wäre hier wohl schnell unter 300€ und dafür verglichen mit den restlichen Produkten vom P/L ganz brauchbar.
Vielleicht schafft es noch eine RX 6600 XT mit 8 gb und 128bit si für 250€ auf den Markt. Das könnte ich mir als Nachfolger der 580 vorstellen. Aber die RX 5500 XT war preislich einfach nur lächerlich.

Vielleicht wenn man auf RT verzichten kann, sehen wir wieder einen reinen Rohleistungskracher bei Intel. Kommt darauf an welche Technik von DLSS,FSX oder Intel hier in Zukunft am besten/effektivsten arbeitet.
____________________________________________

Immerhin musste man als nicht Enthusiast immer abstriche machen bei der Qualiät. Lange Zeit halt SSAO off , weil das oft 20% gekostet hat anfangs. Dann gabs mit hbao, hbao+ pcss und co auch immer wieder Techniken die enorm Leistung gekostet haben.
Derzeit haben wir halt RT das noch nicht 100% nutzbar ist, ausser in indie games oder als Enthusiast, aber es gibt sicher genug die auch die nächsten 5-10 Jahre auf RT verzichten können und trotzdem an guten Spielen gefallen finden. Ich spiele 100x lieber noch mal ME 3 durch oder Witcher 3 oder Dragon Age als den 200 Aufguss von AC, FC und co. .
Wobei man bei AC noch argumentieren kann, dass man halt nicht jeden Titel mitnimmt, sondern nur die wo einem das Setting gefällt. Genauso bei FC.
Ergänzung ()


SV3N schrieb:
Selber hatte ich damals zwei 7800 GRX, die anschließend für zwei 7900 GTX im SLI weichen mussten, die anschließend zwei 8800 GTX im SLI weichen mussten, die anschließend zwei 8800 Ultra im SLI weichen mussten. :D

Das waren meine ganz wilden und nach heutigen Maßstäben völlig verrückten Zeiten. ^^

Die 7600 GS und die 7900 GTO waren ebenfalls richtig empfehlenswert damals. Danke @Robert für den Flashback.
Ach in Zeiten von Quad sli warst du da doch normales Mittelfeld bei den Enthusiasten :evillol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MilchKuh Trude, SVΞN und Daniel D.
Hatte selbst die 7600GS noch über AGP betrieben. War echt sehr lange zufrieden mit der Karte.
 
Ich hatte damals die Gainward BLISS 7600GS GLH mit DDR3 !!! die für den damaligen preis wirklich viel Dampf unter der Haube hatte.
 
Habe ich irgendwie letztlich noch einige als Elektroschrott entsorgt beim entrümpeln des Kellers, hach das waren noch Zeiten vor allem konnte man sich die Dinger leisten und sie waren vorrätig :)
 
Ach die guten alten Zeiten... hatte im Zweit PC eine 7600GS mit G73b Chip. Der wurde in 8nm gefertigt und hatte dadurch weniger Stromverbrauch. Übertakten lies der sich auch echt gut. Leider war der DDR2 Speicher darauf nicht so der Bringer. Zusammen mit einem Phenom 2 X2 550 auf einem DFI Lanparty JR790GX lief die Karte auch noch im Lan PC.
 
OiOlli schrieb:
...

Von Zeiten, als die 60er noch ein leicht abgespeckter Highendschip waren und nicht wie heute ein Mittelklassechip, lasse ich mal weg (Man vergleiche mal die 260er mit der 660er).
Ach. Wie ich meine BFG (Big f***in Gun) Geforce 9600 GT geliebt habe.
 
Hatte zwar keine 7600 aber ne 7300 GT, war ne passive mit nem riesen Kühler, da gabs dann nen Gehäuselüfter drauf und die lief auch auf 640 MHz core und 440 MHz Speicher. Und dann war da auch nicht mehr so viel Differenz zur 7600 GS. War oft überraschend was aus den kleinen Karten rauszuholen war.
OiOlli schrieb:
Von Zeiten, als die 60er noch ein leicht abgespeckter Highendschip waren und nicht wie heute ein Mittelklassechip, lasse ich mal weg (Man vergleiche mal die 260er mit der 660er).
Klassischerweise war die 60er ja immer ne halbe 80er (die highend Karte), das gibt es heute nicht mehr. Und preislich würde das bedeuten, dass ne 3090 (als heutige highend karte) bei ca 600-700€ liegen wurde, und die entsprechende 60er karte bei 300-350€ und von der Leistung her irgendwo zwischen 3060 Ti und 3070 (mit 40-42 shader clustern und 12 GB Speicher)
 
Eine 7600GS fliegt bei mir auch noch rum.
Mit inoffiziellen Treibern läuft sie sogar noch unter Windows 98.
Ist auch passiv gekühlt und dürfte als Bildausgabe selbst unter Windows 10 noch taugen.
 
  • Gefällt mir
Reaktionen: andi_sco
Zurück
Oben