News GeForce RTX 3000: Nvidia nimmt Founders Editions aus dem Verkauf

Ich habe meine zwar Anfang 2021 für 720 € auf NBB bekommen. Aber sich eine 3080 jetzt noch neu zuzulegen, wäre für die zuletzt auf 760 € erhöhte UVP nicht mehr sonderlich attraktiv gewesen. Die 4070 Ti kosten nicht wesentlich mehr und sind mit 12 GB Speicher zwar immer noch VRAM-Krüppel, aber minimal kleinere. Gibt alternativ die 7900 XT.

Unter einer Annahme von 10% Inflation kann man sich sogar den Preis einer 4070 Ti schön rechnen, sofern man ignorieren kann, dass die von den technischen Kennwerten eher eine 6 im Namen führen oder auf das Ti verzichten sollte.
 
Vitche schrieb:
...schließlich ist mit Ada Lovelace alias GeForce RTX 4000 bereits vor einigen Monaten die nachfolgende Generation gestartet und seitdem auch tatsächlich flächendeckend lieferbar.
Und wie man inzwischen vermittelt bekam (betraf allerdings Handys), ist die Bereitschaft, unverhaeltnismaessig viel fuer wenig Ertrag zu bezahlen, weltweit gigantisch gross...
Ergänzung ()

Exorbitantist schrieb:
..und sind mit 12 GB Speicher zwar immer noch VRAM-Krüppel
Wo musst du denn mit 12gb Hunger leiden?
Fuer 1080p voellig ausreichend, zumindest fuer mich und bei 4k+ sollte man sowieso fruehestens ab der 4080 anfangen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fenkel und Munkman
Wenn die kommende 80er Karte (RTX 5080) von nVidia wieder ueber 1000 Euro angesetzt werden sollte (Herbst bis Ende 2024 zum Abverkauf von Ada Lovelace) bzw. die RTX 4080 nicht deutlich unter 1000 Euro gefallen sein sollte, dann wird man wohl versuchen diese Grafikkartenhoechstpreise beizubehalten (evt. noch weiter auszubauen).

Diejenigen, die diese Produkte zu den Preisen kaufen, geben jeder Preiserhoehung durch nVidia recht, aber natuerlich fliegt das Gefuege bei den PC Gamern wegen der grossen Preis -und Leistungsunterschiede immer mehr auseinander.

Aus dem Grund werden modernere Spiele eben auch mittlerweile fuer eine "Drei-Klassen-Spielerschaft" in Full-HD, WQHD, und 4K/UHD produziert und demnaechst macht - wie erwartet - nVidia noch als Vorschau auf die naechste dGPU-Generation die Real Time Pathtracing (RT-PT) Tuer auf.

Es werden also noch mehr Ressourcen fuer (oft nachgepatchte) Grafikeffekte noetig und eventuell wird irgendwann nVidia auch die 50er Serie fuer den Desktop (im Laptop ist diese ja noch angekuendigt) abschneiden (das waere sogar schon jetzt mit Ada Lovelace moeglich, wenn man sich erinnert wie spaet fuer Ampere noch die RTX 3050 nachgeschoben wurde zu Mining-Startpreisen), weil man einen noch hoeheren Einstiegspreis bei Grafikkarten (dann mit den 60er Karten als Einstiegsklasse) erzielen will.

Hoffentlich stehen dann Intel und AMD bereit und machen das nicht mit oder Gaming mit Einschraenkungen bleibt durch deren APUs (siehe Steam Deck) dann noch halbwegs erschwinglich und fuer die grosse Mehrheit der PC Gamer (fuer die immer teurer werdende Grafikkarten und ein Umstieg auf Konsole keine Optionen darstellen) spielbar.

Die bisherige Preissenkung bei der RX 7900XT ist ermutigend und sorgt wohl auch dafuer, dass AMD/RTG (vermutlich leider erst im Fruehsommer, was m.M.n. viel zu spaet ist, aber das besagen einige Geruechte) die Navi 32 und 33 Karten zu relativ akzeptablen Preisen (ohne grossen Preisanstieg gegenueber der Vorgeneration, was krass im Gegensatz zu dem steht, was nVidia mit den RTX 4070Ti und besonders RTX 4080 Karten preislich veranstaltet hat) zum Marktstart anbieten koennte.

Ergo ist es da schwierig eine Prognose zu wagen, aber "good riddance" bzgl. der Ampere Founders Edition Karten, die fuer die meisten gefuehlt nur VaporWare waren (abseits von denen, die so "clever" waren Scalperpreise fuer diese klobigen Dinger zu bezahlen).

Fuer mich bleiben nach wie vor die soliden bis Top-Custom-Modelle erste Wahl, aber vermutlich wird man die nur noch guenstig im Abverkauf einer jeweiligen dGPU-Generation bekommen, aber jetzt (auch wenn es eigentlich schon ein Bisschen spaet ist bzw. die Topmodelle z.T. schon vergriffen sind) mit Glueck noch bei RDNA2 und evt. Ampere (in den USA wohl leider eher, wo auch die nVidia Founders Edition Karten vor nicht langer Zeit guenstig bei Best Buy abverkauft wurden als in Deutschland) und dann wie o.g. ab Herbst/Winter 2024 (RDNA3 und Ada Lovelace) wieder.

Da ich schon lange keine Spiele mehr zum Marktstart kaufe, sondern meist erst Jahre spaeter (in Sales von GOG, Steam, etc. oder eben per Humble Choice erwerbe) zugreife, finde ich das noch nicht problematisch auslaufende Grafikkartenmodelle zu kaufen, denn das spart viel Geld, man bekommt dann ausgereiftere (gepatchte) Spiele und nur mitreden (oder bei CB Tests mittesten/-benchen) kann man dann evt. nicht, aber das ist mir diese horrenden dGPU-Preise nicht mehr wert (da zumindest fuer mich nicht lohnend).

Als vorwiegender Online-Multiplayer Spieler oder Game Pass Besitzer sieht das womoeglich anders aus oder man muss eben entweder Abstriche machen oder finanziell bluten ... das einzige, was die Chipentwickler wie nVidia, AMD/RTG und Intel verstehen, ist, wenn deren Umsaetze und Gewinne einbrechen mangels Verkauf von deren Produkten.
Daher kaufe ich auch nur wenn noetig und idealer Weise zum bestmoeglichen Preis (nicht UVP/MSRP oder gar Scalper-Preisen).

Dass Ada Lovelace Grafikkarten von nVidia aktuell so in der Nachfrage hinken, liegt natuerlich an den Preisen, aehnlich wie damals Turing mit der unausgegorenen RTX Einfuehrung und massiver Aufpreiseinfuehrung von GTX 1080Ti zu RTX 2080Ti (vergleichbar zur aktuellen RTX 3080 zu RTX 4080 Preiserhoehung) und ob da bei nVidia noch Super Refreshs in der Mache/geplant sind, wer weiss (deutlich guenstiger duerften die voraussichtlich aber auch nicht wirklich werden)?
 
Zuletzt bearbeitet:
Biedermeyer schrieb:
Wo musst du denn mit 12gb Hunger leiden?
Fuer 1080p voellig ausreichend, zumindest fuer mich und bei 4k+ sollte man sowieso fruehestens ab der 4080 anfangen...

Bei 1080p ist es gewiss der Fall, das 12 GB ausreichend sind. Bei höheren Auslösungen, genau wie du sagst, teilweise schon nicht mehr. Das neueste Beispiel ist Hogwarts Legacy, aber es gab davor schon andere und ältere Titel, die unter 16 GB Probleme machten. Deathloop aus 2021 z. B. Das liegt bei diesen Titel zwar eher an schlechter Optimierungsarbeit, als an bahnbrechender Grafik, ändert aber nichts an dem Umstand an sich.
 
  • Gefällt mir
Reaktionen: Wintermute
Exorbitantist schrieb:
Bei 1080p ist es gewiss der Fall, das 12 GB ausreichend sind. Bei höheren Auslösungen, genau wie du sagst, teilweise schon nicht mehr.
Dies. Außerdem geht's auch darum eben für Fortschritt zu sorgen. Natürlich reicht es noch für 1080p. Wird es auch in 20 Jahren noch, weil wenn die breite Masse nicht mehr hat, wird auch nicht dafür optimiert.

Mir persönlich fallen bei 1080p mittlerweile die Augen aus, egal wie man das AA hochdreht. Das ist jetzt schon so lange Standard, dass ich mich gar nicht mehr dran erinnern kann, wann es Standard wurde.
 
Exorbitantist schrieb:
Bei 1080p ist es gewiss der Fall, das 12 GB ausreichend sind. Bei höheren Auslösungen, genau wie du sagst, teilweise schon nicht mehr. Das neueste Beispiel ist Hogwarts Legacy, ...
Es ist bisher das einzige Beispiel aber jeder mit einer RTX4070Ti kann in WQHD 1440p mit DLSS Quality
und Frame Generation ganz entspannt mit 100FPS zocken. Für UHD/4K sollte man eh eine 4080 kaufen.
 
Vitali.Metzger schrieb:
Ich hoffe nur das der PC Markt weiter zusammen bricht, damit die Hersteller endlich gezwungen werden mit den Preisen runterzugehen. Hab mal wo gelesen das TSMC mittlerweile auch weniger Aufträge bekommt.

Was ein kruder Kommentar. Nicht jeder muss sich alles leisten können und was ist am Ende ein angemessener Preis? Nur weil ich mir nicht den Porsche oder die Villa am Meer leisten kann, muss für mich nichts zusammenbrechen. Gönne es jedem, der es sich leisten kann. Manche haben eine merkwürdige Denke. Diese „Neid“-Einstellung ist irgendwie typisch deutsch
 
  • Gefällt mir
Reaktionen: brthr_nemiel und Pro_Bro
@domian

Nö das ist nicht typisch deutsch das gibt es überall auf der Welt das hat rein gar nichts mit einer ethnischen Herkunft zu tun 🤦‍♂️
 
  • Gefällt mir
Reaktionen: Coeckchen
Chismon schrieb:
Als vorwiegender Online-Multiplayer Spieler oder Game Pass Besitzer sieht das womoeglich anders aus oder man muss eben entweder Abstriche machen oder finanziell bluten ... das einzige, was die Chipentwickler wie nVidia, AMD/RTG und Intel verstehen, ist, wenn deren Umsaetze und Gewinne einbrechen mangels Verkauf von deren Produkten.
Klar versteht das jedes Gewinnorientierte Unternehmen, aber das wird nie zugunsten des Endverbrauchers ausgehen, sondern auf dem Rücken der Belegschaft ausgetragen. In der freien Marktwirtschaft wird einem nichts geschenkt. AMD sitzt da genauso im Boot wie das "böse" Nvidia. Egal wie schön man sich das reden mag sind beide genau gleich und haben zusammen den Bogen während der Mining-Blase überspannt, aber keiner der beiden wird zurückrudern was Preise angeht.
Wenn der Markt einbricht haben wir einfach weniger Karten aber genauso teuer...eher noch teurer. Die fetten Jahre sind einfach vorbei und das wird sich sicher erst wieder ändern wenn Intel eine ernste Konkurrenz zu den beiden darstellt oder sogar nen vierter player auf den Markt kommt.
Realistisch sehe ich in den nächsten 3-5 jahren keinen essentiellen Preisrückgang. Aber ich bin auch kein weises Orakel ^^
 
  • Gefällt mir
Reaktionen: Chismon
Cameron schrieb:
Mit den 3000er FE hat nVidia was traumhaft Schönes fabriziert.
hätten sie nicht bei Samsung sondern tsmc fertigen lassen würde ich zustimmen.. dann hätten wir wohl eine 3090 mit 275w tdp. 😬
 
Benni16it schrieb:
hätten sie nicht bei Samsung sondern tsmc fertigen lassen würde ich zustimmen.. dann hätten wir wohl eine 3090 mit 275w tdp.
Ja, und eben schon damals Ada-Lovelace-Preise. ^^

Klar, der Preissprung liegt auch in der Corona-Pandemie, Lieferkettenprobleme, dem Ukraine-Krieg, der niedrigeren Nachfrage und letztlich der hohen Inflation begründet - aber TSMC kostet einfach viel mehr als die olle 8nm-Samsung-Fertigung, die Ampere so schön günstig gemacht hat. Jetzt haben wir zwar technisch echt schöne Karten mit toller Effizienz und endlich mal wieder mehr Speicher (Turing und Ampere waren da ja eher Nullrunden), aber die Preise sind böse. Seufz.
 
  • Gefällt mir
Reaktionen: angband1 und Qyxes
Wenn ich so ein Unternehmen führen würde, ich hätte die 3080 schon viel früher vom Markt genommen.
 
GeleeBlau schrieb:
Aber so, dass mal ne Karte im Laden liegt bzw. bei Nvidia oder AMD im Onlineshop "in stock" ist, war es ja wirklich nie.
Doch, aber hauptsächlich bei der 3060 Ti.
Gab es vor einigen Wochen eine zeitlang.
Allerdings kosten mittlerweile viele Custom-Modelle genauso viel, so dass ein weiterer Verkauf wohl kein Sinn ergibt.
Zumal die FE ohne Bling Bling auskommen muss ;-)
 
domian schrieb:
Was ein kruder Kommentar. Nicht jeder muss sich alles leisten können und was ist am Ende ein angemessener Preis? Nur weil ich mir nicht den Porsche oder die Villa am Meer leisten kann, muss für mich nichts zusammenbrechen. Gönne es jedem, der es sich leisten kann. Manche haben eine merkwürdige Denke. Diese „Neid“-Einstellung ist irgendwie typisch deutsch
Warum soll es bei solchen Kommentaren immer um Neid gehen? und wer die Preise alle angemessen findet, scheint eh nie Probleme zu haben, sich sowas leisten zu können.
ich hab es auch schon oft begründet und bin es leid, aber Kritik üben kann ja noch erlaubt sein.

P.S. Die Preise vor 2020 waren halt so, dass sich VIELE der Pre-Enthusiasten sich gute Hardware (kein HIGH-END-was auch nie der Anspruch war) leisten konnten und dieser "Markt" fast weggebrochen ist. Vielleicht noch gebraucht oder ähnliches...
Also kann man das doch kritisieren, aber manche leben in diesen Tech-Foren in Ihrer Blase "Wer es sich nicht leisten kann ist nur neidisch", egal welcher Hintergrund dabei eine Rolle spielt.
Ja, es ist immer noch Hobby und nicht lebensnotwendig, aber darf ein jeder, der nicht >50K Einkommen hat keinerlei Hobby´s mehr haben, wenn es Vorher ja möglich war? Und bloß die Fresse halten, wenn man das kritisiert?

und was ich sekundär immer daraus ableite, dass man aus der "Ich kanns mir leisten"-Fraktion immer diese Neid-Kommentare hört/liesst, wobei ich mich frage, warum? Aber das sieht man ja auch bei ernsthaften Themen in sozialen Diskussionen... "von oben herab" wird oft argumentiert.

Man kann ja heutzutage froh sein, dass wenigstens die Sozialisierung so weit voran geschritten ist, dass nicht z.B. bei Corona damals das Toilettenpapier als Luxus deklariert wurde, weil es knapp&teuer wurde. Wäre sonst wohlmöglich auch nur Neid gewesen, dass sich das manche leisten können, obwohl es genug Alternativen gibt :freak: :evillol: :evillol: :evillol:

Aber zuviel des OT in diesen Bereich, nur diese Pauschalisierung nervt immer..

Zum Thema: Das war ja abzusehen und ich wundere mich eher, dass das so lange überhaupt drin war, bis auf die 3090er war ja eh keine mehr erhältlich ab ca. Herbst 2022
 
  • Gefällt mir
Reaktionen: Fenkel
Es gibt ja einen aktuellen Test von der PCGH wo bewießen wurde das 8Gb bis 12Gb mehr als ausreichend sind. Gerade mal 2 Spiele können mal mehr brauchen, also witzlos zu sagen 12Gb wären knapp. Nicht mal 8gb bekommen selbst aktuelle Spiele voll. Ausgenommen man verwendet abartige Mods, die das dann brauchen, aber die kann man einer Hand abzählen, wo es da nötig wäre. Daher bis WQHD reichen 8Gb bzw 12Gb locker aus. Bei 4K dann 12Gb bis 16GB. Alles, was mehr ist, ist unnötig.

Das Nvidia die FE rausnimmt, finde ich einen guten und richtigen Schritt. Ich kann mir auch gut vorstellen, das ab dem Sommer, wenn dann auch die 4050 zu haben ist, die Chipproduktion der 3000 komplett eingestellt wird, da diese dann keiner mehr braucht.
 
Exorbitantist schrieb:
Beispiel ist Hogwarts Legacy, aber es gab davor schon andere und ältere Titel, die unter 16 GB Probleme machten. Deathloop aus 2021 z. B. Das liegt bei diesen Titel zwar eher an schlechter Optimierungsarbeit, als an bahnbrechender Grafik, ändert aber nichts an dem Umstand an sich.

Was ist mit dem Umstand dass auf 2 verkorkste Spiele mit zu viel VRAM-Belegung vermutlich um die 100 Spiele kommen, die überhaupt keine Probleme bezüglich VRAM machen, und man bei den 2 betroffenen einfach einen Schalter 1 Stufe nach links schieben kann um das Problem zu fixen?

Dies müssen etwa 74% aller Spieler (Steam Hardware Survey) machen, deren Grafikkarten 8GB VRAM oder weniger haben. Und sie können trotzdem Spiele spielen und Spaß haben.

Schrotty74 schrieb:
Es gibt ja einen aktuellen Test von der PCGH wo bewießen wurde das 8Gb bis 12Gb mehr als ausreichend sind.

Man kann jeden Test so hindrehen, dass x GB RAM reichen oder eben auch nicht. Die Testergebnisse muss man immer im Kontext der Einstellungen sehen unter denen sie entstanden sind.

Hier kann man sehr gut sehen, dass man mit den richtigen/falschen Einstellungen in FHD schon auf 15GB VRAM Belegung kommen kann, und dass in 4K auch mal 500MB reichen.

Leider wird die Komplexität des Themas nicht wirklich aufbereitet. Hier liegt viel Artikelpotenzial brach.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fenkel, Schrotty74 und JMP $FCE2
BigLA schrieb:
Also kann man das doch kritisieren, aber manche leben in diesen Tech-Foren in Ihrer Blase "Wer es sich nicht leisten kann ist nur neidisch", egal welcher Hintergrund dabei eine Rolle spielt.
Ja, es ist immer noch Hobby und nicht lebensnotwendig, aber darf ein jeder, der nicht >50K Einkommen hat keinerlei Hobby´s mehr haben, wenn es Vorher ja möglich war? Und bloß die Fresse halten, wenn man das kritisiert?
Nur weil man sich etwas nicht kaufen will, heißt das ja nicht, dass man es sich nicht leisten könnte. Sich dafür rechtfertigen müssen überteuerte Ware zu kaufen, das ist nicht notwendig.
 
Davon war ja auch nirgends die Rede..!? ;)
 
ich frag mich jetzt was an einem EOL Computerteil, das aus dem Verkauf rausgenommen wird besonders sein soll.
 
BigLA schrieb:
P.S. Die Preise vor 2020 waren halt so, ...
Auch Ende 2020 konnte man mit Glück eine 3080FE für 699€ bekommen und dann kippte Alles.
Jetzt kostet eine 4080FE 1399€ und ist ausverkauft ! Da muss etwas in den Köpfen passiert sein.
Ich denke mehr Leute geben jetzt mehr Geld für Dinge aus von denen sie einen Nutzen haben.

Fenkel schrieb:
Nur weil man sich etwas nicht kaufen will, heißt das ja nicht, dass man es sich nicht leisten könnte.
Genau das ist der Punkt weil Jeder setzt seine Prioritäten anders. Ich war immer P/L Freak
aber nun steckt eine 4090FE im PC was eigentlich keinen Sinn macht aber irgendwie doch
weil mein Hobby PC Gaming damit mehr Spaß macht. Ich bereue den Kauf jedenfalls nicht.
 
Zurück
Oben