Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRTX 3060 Comeback: Samsung fährt die 8-nm-Fertigung für Nvidia Ampere hoch
Der geneigte User der sich eine relativ billige Karte (aufrüsten/alte abgeraucht) nochmal ins Case zimmern will, kann dann mal schnell das 3-4 fache zahlen. Und wahrscheinlich ein neues Netzteil obendrauf.
icetom schrieb:
Die 3000er Serie war die letzte gute Nvidia Serie.
Ich nicht. Trotzdem ne 3060 geholt damals. Why? Für Indie (UND Indy), Kingdom Come, Resident Evil und Gedöns reichte die bis heute vollkommen. Ne Arc würde das sicher auch wuppen und wäre heute wohl meine Wahl. Selbst ne 5060 ist mittlerweile in Sachen Rohleistung deutlich besser bestückt als die Konsolen, quasi 2080Ti-Niveau. Der Speicher ist ne Einschränkung. Aber k.A. was die Bubble immer mit Internetcafes und Counterstrike will, das ist ein Klischee, völlig an den real existierenden Rechnern da draußen vorbei. Mal anschauen, was auch gerade bei uns in Fertig-PCs steckt... Und was auch an Einzelkarten in größeren Shops verkauft wird.
Vielleicht ist das auch bewusste Realitätsverweigerung. Vielleicht tuts manchem weh, dass alle Menschen in Abwesenheit von Wing Commander 6 gezwungenermaßen exakt die gleichen PlayStation2020-Games, Remakes, Remaster und Ports spielen -- und zwar anders als den Commander oder CANITRUNCRYSIS auf Hardware aller Klassen -- (oftmals) Steam Decks inklusive.
Weil die RTX4000 Karten in jeder Hinsicht besser und günstiger zu produzieren waren. Auch die Speicherausstattung war bei den meisten Varianten mager.
Man darf auch nicht vergessen, dass die RTX3000 technisch veraltet ist und früher oder später der Treibersupport eingeschränkt wird. Hoher Verbrauch, eingeschränktes Featureset, kein AV1 Encoder usw.
Eine arge Namenstrixerei war es trotzdem.
Die R200 Chips waren wesentlich weniger leistungsfähig, als die R 300er Serie.
Und die ATI R 9250 kam meiner Meinung nach 2 Jahre später, als die ATI R 9500.
Ich hatte die Radeon 9100 und als ich auf die Radeon 9500 umstieg gab es einen richtigen Ruck in der Grafikleistung.
Es fühlte sich alles flüssiger und schneller an, und das war es auch.
Und eine Art der R 9500 konnte man mittels Software (Rivatuner) auf R 9700 Niveau heben.
Das ging bei mir auch und die Karte war einfach nur Spitzenklasse.
Das ist doch Äpfel mit Birnen vergleichen.
Der von nVidia betriebene RAM Bullshit Bingo mit Chipkastration und dem Move 2 Generationen zurückzuspringen hat doch nix mit dem typischen Chiprelabel bei Genwechseln von beiden Playern zu dieser Zeit zu tun.
Nein nicht genauso... sie braucht GDDR6 nicht GDDR7. Sie teilen sich bei Samsung sicher auch kapazitätnen. Würden das aber nicht machen wen Samsung da nicht noch mehr rauspressen könnte. Problem sollen ja nciht die Wafer sein, sonder was man daraus belichten kann. Also das daraus GDDR7 / DDR5, HBM wird. GDDR6 ist aber nicht das gleiche. Es ist als, paar Arbeiter müssen Anfangs öfters zwischen en Gebäuden mehr hin und her pendeln. Aber eine alte GDDR6 liefer straße einschalten die ohnehin nicht für was neues genutzt werden soll, umgeht doch das Problem der lieferknapheit. man muss dort nur den Stecker einstecekn, computer an, und der rest läfut vom selbst und ist nur kurzfristig ein Personal problem, und in 1-2 Jahren setzt man sie wieder auf die Straße. Wobei warscheinlicher das sie sich dann um die höhen kapaztäten der Nachfolger Fertigungn kümmern. Daher macht es sogar doppelt sin. Wiel samung früher oder später sowieso mehr Personal braucht. Das weiß´dann auch grob schon wie das alles funktioniert.
Ich brauch bald Ersatz fuer meine GT 1030. Die wurd neulich endgueltig von Nvida unter Linux zum alten Eisen erklaert. Beim 580er Treiber ist Schluss fuer Pascal, wird freundlich auf den Nouveau verwiesen. 😢
Dabei is die fuer Multimedia noch voll gut.