News Nvidia-Treiber-Update: Version 580 wird die letzte für GeForce GTX 900 und GTX 1000

Shio schrieb:
Was irrelevant ist, da man sich des Alters bewusst ist. Sorry aber ein neues Produkt und ein "uraltes" zu vergleichen und die gleichen Ansprüche an beide zu stellen ist absolut wild und fernab jeglicher Realität.
Sag das Denen die hier rumheulen das ihre Pascal GPUs nach 10 Jahren+ keiner neuen Treiberupdates mehr bekommen.
 
lash20 schrieb:
selbst die 5000er schwachen KArten sind doch viel zu teuer nach P/L
Die B580 mit 12 GB hast ne ganze Zeit lang für 259€ bekommen und hat das beste PL Verhältnis (siehe Anhänge).
Und was die so kann siehe #99
Ergänzung ()

kachiri schrieb:
Wenn NV jetzt mehr Geld für die Chipfläche bezahlt, muss da ja auch irgendwie eingepreist werden.
Und Du bist echt der Meinung, dass das Früher anders war ? :lol:
Dazu kommt noch das die kleineren Chips immer noch mehr verkrüppelter sind ... (siehe letzter Anhang)
 

Anhänge

  • B580 für 259€.jpg
    B580 für 259€.jpg
    263,6 KB · Aufrufe: 86
  • PL RR.jpg
    PL RR.jpg
    276,7 KB · Aufrufe: 85
  • PL RT.jpg
    PL RT.jpg
    281,1 KB · Aufrufe: 80
  • NV Chip Vergleich.png
    NV Chip Vergleich.png
    97,2 KB · Aufrufe: 86
Zuletzt bearbeitet:
Das passt ja.
Der Umstieg auf eine 9070 XT steht bevor, da kann ich meine GTX 1080 nun in den mehr als wohlverdienten Ruhestand schicken.
Hatte zuerst überlegt die zu verkaufen, aber ich glaube die stelle ich mir in die Vitrine.
 
  • Gefällt mir
Reaktionen: SweetOhm
1,2,3 und die Heulerei geht hier los :D
Ergänzung ()

Deimonos schrieb:
Bin von der 1080ti auf die 5070ti aber ich hab exakt die selbe Meinung dazu wie du.
Ich sehe es als Zwischenschritt an, der Generationensprung von der Grafik her finde ich ist noch nicht wirklich eingetreten.

Man sieht zwar ab und zu tolle Techdemos oder extrem gemoddete Spiele die in diese Kategorie passen würden, aber die zwingen auch aktuelle High-End Hardware in die Knie.

Es wird Zeit für die Nodeshrinks im GPU Sektor.
Danke das ich mir bei 2nm wieder einen neuen PC zusammenbauen werde, bis dahin muss er aushalten.
Allein dlss bringt doppelte Performance, mit FG noch mehr bewegtbildflüssigkeit, von RT und PT nicht zu reden.

Man kann's auch übertreiben...
Ergänzung ()

Der Nachbar schrieb:
Will man denn als Kunde einen letzten Treiber bei der derzeitigen Nvidia Treiberentwicklung?
Was passt den derzeit nicht?
Ergänzung ()

Yosup schrieb:
Schon witzig, einerseits gilt es als gesetzt, dass eine Graka mindestens 16 GB Speicher braucht um 2025 überhaupt noch mit-spielen (kleiner Wortwitz) zu können, aber wenn dann bei einer Generation ~8 Jahre nach Release angekündigt wird, dass nach 9 Jahren der Support eingestellt werden wird und sie damit nach ungefähr 10-12 Jahren langsam gammelig riecht - da ist hier Mord&Zeterio angesagt.

Lustigerweise wurde AVM immer dafür gelobt, so einen vorbildlich-langen Support für die Fritzboxen anzubieten. Der liegt aber meist auch nur in der Größenordnung von 10 Jahren.
Wie heißts so schön, gejammert wird immer. Zudem es ja trotzdem Security Updates gibt, da läuft vorher das OS aus. Aso da wird ja auch gejammert.
Ergänzung ()

Kangasplat schrieb:
Dafür klafft zwischen 1000er und 2000er Generation eine Lücke die Seinesgleichen sucht. Dank DLSS schlägt heute sogar eine 2060 eine 1080 Ti in einem Großteil von Spielen. Trotz halbem Speicher. Und das bei besserer Bildqualität.
Jap 2000er Karten werden als beste fine wine in die GPU Geschichte eingehen, die dinger werden bald 7 Jahre alt.
 
Zuletzt bearbeitet:
Da bin ich froh das ich keine aktuellen Games zocke und dementsprechend was vermisse. GTX 960 wird sicher noch bis Ende des Jahres laufen.
 
TechFA schrieb:
Vor allem "Dank" Nivida – AMD konnte sein Glück wahrscheinlich kaum glauben, tatsächlich in der Lage zu sein, erstmals in ihrer Grafik-Geschichte so dermaßen überteuerte Karten zu verkaufen, aber die sind auch nur Nvidia hinterher gelaufen …

Das eigentliche Problem ist die vollkommen verblendete Schar der Nvidia-Jünger, die Nvidia seit bald zwei Jahrzehnten ihrem Lieblingsverein jede noch so kaltschnäuzige Kundenverarsche durchgehen lassen, die ständigen Tier-Verschiebungen in immer nur eine einzige Richtung (und dadurch durch die Hintertür einführte verkappte Hochpreis-Inflation) gutheißen lassen und selbst den offensichtlichsten dreisten Kunden-Nepp auch noch aktiv mit dem Kauf von vollkommen überteuerten Nvidia-Karten belohnen.

… und natürlich der ebenso beklagenswerte Rest der mindestens dümmlichen (und offensichtlich noch immer viel zu solventen) Endkunden mit ihren durchgeschrubbten Erdnüssen, welche einfachste Markt-Prinzipien von Angebot und Nachfrage sowie Marktgleichgewichte schlicht nicht verstehen.

AMD trifft da deutlich weniger Schuld, weil sie da (vielleicht moralisch peinlich betreten aber unbescholten) unter ihrem Regenschirm stehen, während Jensen frivol-grinsend vom Dach seine Jubelperser nass macht und derweil schön die Kohle zählt, derer er nicht satt wird.

Das Traurige ist ja, daß die Nvidia-Jünger damit nicht nur höchstselbst ihr eigenes Lieblingsspielzeug preislich immer weiter ins Abseits gestellt und mittlerweile praktisch unerreichbar gemacht haben.
Diese Chaoten haben allen Computer-Kunden binnen wenigen Jahren den gesamten Grafikkarten-Markt zerstört und sind mittlerweile selbst schon noch schlimmer als die immer wieder und berechtigt viel-gescholtenen Apple-Jünger von Steve Jobs!

Weil selbst Apple (als das Paradebeispiel von willenloser, blinder Käuferschaft), hatte schon vor Jahren einbrechende Verkaufszahlen, weil die Kunden (oder zumindest eine kritische Masse davon, welche Apple wenigstens genug finanzielle Schmerzen verursachte, um einlenken zu wollen) sich schlichtweg geweigert haben, ihre iPhones zu kaufen – Apple mußte einlenken und ein preisgünstiges iPhone einführen, um die Verkaufszahlen wieder aufwärts und langfristig stabil halten zu können: Das iPhone 5c von 2013.

Für Nvidia-User müßten Grafikkarten wahrscheinlich mit +$1800 USD zum Einstieg, +2500 USD fürs Mainstream und +$5000 USD für das High-End zum absoluten Prestige-Objekt werden, bevor die ersten Pappnasen von denen mal anfangen über ihr schädliches Verhalten gegenüber Anderen nachzudenken …
Du übertreibst, und dies nicht mal zu knapp.

Z.B. in den 90igern kostete ein Computer, der nach 2 Jahren noch als Beschwerer oder Stuhl zu gebrauchen war, locker 3000 Euro. Die heutigen Grafikkarten und Computer kann man generell viel länger behalten und kommt damit sehr gut zurecht. Die Hardware war noch nie nur annähernd so langlebig. Dies wird immer aussen vor gelassen. In den "goldenen" 00er Jahren kaufte man sich alle 2 Jahre einen komplett neuen Computer.

Es wurde also nicht wirklich teurer. Man muss auch nicht das teuerste kaufen.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli und Grimba
Mxhp361 schrieb:
Die 1080 / 1080 Ti ist doch noch kein altes Eisen..
Naja... doch. Dass die locker ausreichen für vieles, darüber herrscht kein Zweifel, das sehe ich auch so. Aber wo in der Computerwelt sind 10 Jahre bitte nicht alt außer in ganz speziellen Szenarios.... und der öffentlichen Verwaltung :D

Es ist doch so, wir wünschen uns doch alle, dass neue Hardware gut funktioniert. Neue Hardware finanziert die Treiberentwickler. Diese bearbeiten den Code, der mit jeder neuen Generation auch neue Probleme bringt. Irgendwann ist es einfach vom Aufwand und von der Wirtschaftlichkeit her nicht mehr sinnvoll, alte Hardware weiter im vollen Umfang zu supporten. Das frisst irgendwann unnötig Ressourcen. Selbst Linux schmeißt irgendwann alte Hardwarezweige raus.

10 Jahre finde ich für rein-proprietär gar nicht so schlecht. Zumal die ja noch einige Jahre Sicherheitsupdates bekommen, bis die endgültig EOL gehen. Und selbst dann kannst du die noch herunterladen und verwenden. Hier ist dann mehr die Frage, ob die dann noch mit dem Betriebssystem klarkommen. Also du kannst auch trotz dieser Nachricht noch SEHR lange Freude mit deiner 1080ti haben.

Der 580er ist für diese Karten nicht EOL, sondern es kommen nur keine neuen Features mehr. Bis zum EOL wird der weiter gepflegt.
 
Zuletzt bearbeitet:
1,2,3 und die Heulerei geht hier los :D

Ergänzung (Heute um 17:39)


Deimonos schrieb:
Bin von der 1080ti auf die 5070ti aber ich hab exakt die selbe Meinung dazu wie du.
Ich sehe es als Zwischenschritt an, der Generationensprung von der Grafik her finde ich ist noch nicht wirklich eingetreten.

Man sieht zwar ab und zu tolle Techdemos oder extrem gemoddete Spiele die in diese Kategorie passen würden, aber die zwingen auch aktuelle High-End Hardware in die Knie.

Es wird Zeit für die Nodeshrinks im GPU Sektor.
Danke das ich mir bei 2nm wieder einen neuen PC zusammenbauen werde, bis dahin muss er aushalten.
Allein dlss bringt doppelte Performance, mit FG noch mehr bewegtbildflüssigkeit, von RT und PT nicht zu reden.

Man kann's auch übertreiben...
In fast allen Spielen reichen mir 60 FPS außer online Multiplayer.
Ich benutz die Extraleistung dann lieber für mehr Eyecandy wie die Kombinations aus DLSS + DSR.
 
Nach ~zehn Jahren ist auch mal gut, verständlicherweise. Fester eingeplante Obsoleszenz könnte zumindest bald auch ein ernsthaftes Thema für Grafikkartenhersteller werden. Auf Enthusiasten, die es chronisch alle 24 Monate im Geldbeutel juckt, kann man sich nicht alleine verlassen. Und auch die Vorzugs-Bemusterung der Upgrade-Influencer, die sämtliche Testprodukte mit Pathtracing auf Hyper testen, kommt irgendwann an ihre Grenzen.

Jedenfalls: Die 1080 Ti ist ja nicht mal vorwiegend deshalb "Fine Wine", weil sie selbst "Fine Wine" ist. Sondern deshalb, weil fünf Jahre alte Basiskonsolen mit gutbürgerlicher Mittelklasse-Hardware von Anno 2020 noch immer den AAAA-Grafikbling-Markt entscheidend mitbestimmen. Weil Duke-Nukem-Forever-Entwicklungszyklen in der Software keine Scherze mehr sind, sondern Realität. Und weil sich auf auf Hardwareseite allgemein was verlangsamt hat, was auch diese Konsolen betrifft: Switch 2 für 500 Euro und PS5 Pro doppelt so teuer wie die Basis -- obwohl im Kern noch immer Zen2-Hardware von 2019 steckt?

:)
 
Zuletzt bearbeitet:
erbärmlich. gaming ist am ende. die grafik wird nicht besser, sondern nur teurer. das gameplay dafür immer schlechter. aber anders als mit grafik-scamming lässt sich wohl kein geld mehr verdienen.
 
  • Gefällt mir
Reaktionen: lash20
Wilfriede schrieb:
Du übertreibst, und dies nicht mal zu knapp.

Z.B. in den 90igern kostete ein Computer, der nach 2 Jahren noch als Beschwerer oder Stuhl zu gebrauchen war, locker 3000 Euro. Die heutigen Grafikkarten und Computer kann man generell viel länger behalten und kommt damit sehr gut zurecht. Die Hardware war noch nie nur annähernd so langlebig. Dies wird immer aussen vor gelassen. In den "goldenen" 00er Jahren kaufte man sich alle 2 Jahre einen komplett neuen Computer.

Es wurde also nicht wirklich teurer. Man muss auch nicht das teuerste kaufen.
Genauso ist es und heute kann man selbst mit einer 4,5 Jahren alten 3090 alles noch gut zocken bzw sogar besser wegen dlss4 Upgrade. Das wär früher wie du schon sagst unvorstellbar gewesen.
Deswegen bekomme ich auch immer mehr graue Haare wenn ich immer irgendwelche Preisdiskussionen sehen muss
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
SweetOhm schrieb:
Und Du bist echt der Meinung, dass das Früher anders war ? :lol:
Früher hat man mit neuen Prozess weniger Kosten für die gleiche Chipfläche gehabt, damit ist aber spätestens seit 12nm Schluss.
Und bis dahin gabs auch entsprechend mehr Leistung zum gleichen Preis
 
Zuletzt bearbeitet:
Yosup schrieb:
Schon witzig, einerseits gilt es als gesetzt, dass eine Graka mindestens 16 GB Speicher braucht um 2025 überhaupt noch mit-spielen (kleiner Wortwitz) zu können …
Nvidia hält künstlich die VRAM-Größe klein, um die Halbwertszeit der Brauchbarkeit (bis zum hoffentlichen Neukauf) so kurz wie akzeptabel möglich zu halten – Das sollte heutzutage nun wirklich Jeder wissen.

Die Lebensdauer und Einsatzzeit über die stetig absichtlich viel zu knapp bemessenen VRAM-Größen drastisch zu verkürzen, betreibt Nvidia praktisch schon immer und seit ihrer erfolgreichen GeForce 8800 von anno 2007 (mit ihrer über zig Generationen immer wieder universal-verwursteten G8x/G9x-GPU), haben sie ungeniert meist die Hälfte an VRAM gehabt, wie damals noch ATI bei der HD 3000-Serie – So lange zieht Nvidia diese Nummer schon ab …

War übrigens einer der Hauptgründe, weswegen ATi's und AMD's Karten, insbesondere aber die nicht tot zu kriegende HD 7000-Serie deutlich länger benutzt werden konnte als die Nvidia-Pendants;
Während die AMD-Karten allesamt mindestens 1024 oder 2048 MByte VRAM hatten (und die späteren HBM-Modelle 390X/Fury/Nano gar 4096/8192 MByte, hatten selbst viele Top-Modelle von Nvidia bloß 512 oder 1024 MByte, maximal 2048 MByte.

Yosup schrieb:
… aber wenn dann bei einer Generation ~8 Jahre nach Release angekündigt wird, dass nach 9 Jahren der Support eingestellt werden wird und sie damit nach ungefähr 10-12 Jahren langsam gammelig riecht - da ist hier Mord&Zeterio angesagt.
Sowas liegt vor allem daran, daß die Leute grundsätzlich für ihre Investitionen von +500–1500 EUR und aufwärts, nun einmal eine entsprechend langlebige Nutzungsdauer voraussetzen erwarten zu können, wenn sie denn schon so viel Geld für eine Grafikkarte ausgeben müssen.

Aber der Großteil der Leute hat halt anscheinend noch immer nicht begriffen, daß sie damit bei Nvidia (welche die VRAM-Größe für 18–24 Monate effektive Brauchbarkeit auslegen) grundsätzlich an der vollkommen falschen Adresse sind …

Es heißt übrigens Zeter und Mordio, nicht 'Mord und Zeterio'. 😉
Die Nachsilbe -io wird an Mord angehängt, nicht an Zeter – Zeter bleibt unverändert.

Aber trotzdem ganz lieben Dank, daß Du zumindest schöne alte deutsche Formulierungen benutzt, um nicht den dämlichen DEnglischen Shitstorm bemühen zu müssen!
 
Precide schrieb:
Wenn man bedenkt, dass die letzten 1000er Karten im Jahr 2018 auf den Markt kamen, gibt es damit also effektiv 4 Jahre weniger Treibersupport gegenüber der 900er. Das finde ich schon ziemlich frech, vor allem wenn man bedenkt, dass gerade die ganzen 1050/1060-Abkömmlinge immer noch in vielen Budget Gaming-PCs stecken.
Sicherheitsupdates sollen doch weiterhin kommen. Was vermisst du denn beim Treiber für die 1000er Karten? Zumal Version 580 ja noch nichtmal erschienen ist und für die 1000er noch kommen soll.

Spiele werden den Treiber auch noch locker ein Jahr nach Veröffentlichung der Version 580 unterstützen. Wir reden also von 2027 frühestens, wo die ersten Triple-A Spiele kommen, die den Treiber ablehnen. Welche Triple-A Spiele sollen denn 2027 auf einer 1000er Karte noch vernünftig laufen? Abseits von der 1080 Ti ist das ja jetzt schon ein Abenteuer ;)
 
TechFA schrieb:
Nvidia hält künstlich die VRAM-Größe klein, um die Halbwertszeit der Brauchbarkeit (bis zum hoffentlichen Neukauf) so kurz wie akzeptabel möglich zu halten – Das sollte heutzutage nun wirklich Jeder wissen.
Vram ist nur ein Parameter einer Grafikkarte. Genauso könnte man sagen AMD hat bei rdna2/3 absichtlich die RT/AI fähigkeit zurückgehalten damit jeder jetzt rdna4 kauft
 
  • Gefällt mir
Reaktionen: Yosup
Mal ein Beispiel: Ich hab hier eine Kepler-Karte in einem Notebook von 2012. Eine Quadro K2000M, das Gegenstück wäre etwa eine GeForce 650M. Der letzte Treiber dafür ist weiterhin ganz einfach über die Nvidia Treiberseite installierbar und immerhin bis Windows 10 verfügbar, nämlich 415 (bei der GeForce sogar noch neuer). Ich kann also eine fast 15 Jahre alte GPU noch benutzen in einem aktuellen Betriebssystem (das Windows 10 EOL mal außen vor… das ist ein eigenständiges Problem, aber LTSC wäre js noch ein Weg).

Der Treiber bekommt schon lange keine Sicherheitsupdates mehr, etwaige Exploits beschränken sich aber eh in der Regel bei sowas auf Systeme mit bereits lokalem Zugriff, das Risiko hier ist also überschaubar.

Unter Linux sieht die Situation sogar noch besser aus, da geht‘s bis Treiber 470.

Ich weiß beim besten Willen nicht, wovor sich manche hier eigentlich gerade fürchten bei dieser Nachricht. Da geht nicht nach Treiber 580 plötzlich das Licht aus!?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wilfriede
Ich hab meine 1080 mit der 3070 beerbt (doppelte Leistung in meinen Spielen) und das für sogar etwas weniger Geld nach nur 2 Generationen! Heute undenkbar :) Heute hat die 5070 vielleicht 20% Mehrleistung zur 3080, wenn überhaupt.
 
isengard schrieb:
erbärmlich. gaming ist am ende. die grafik wird nicht besser, sondern nur teurer. das gameplay dafür immer schlechter. aber anders als mit grafik-scamming lässt sich wohl kein geld mehr verdienen.


Bist du auch einer derjenigen, die statt Kingdom Come 2 freiwillig diesen Lumen-Reskin eines zwanzig Jahre schimmelnden Bethesda-Vergnügungsparks spielen?

Und da wundert ihr euch? :D :freak:
 
Dass das vom Zeitfenster her nicht zu vergleichen ist (und mit Open Source), war nicht der Punkt. Schon im nächsten Satz sollte man drauf kommen. Aber es triggert vermutlich zu hart.
 
Zurück
Oben