News RTX 3060 Comeback: Samsung fährt die 8-nm-Fertigung für Nvidia Ampere hoch

-Ps-Y-cO- schrieb:
Dann lieber die 3090 zu hauf produzieren.
Aber Naja. Schrott produzieren ist wohl besser.
Der geneigte User der sich eine relativ billige Karte (aufrüsten/alte abgeraucht) nochmal ins Case zimmern will, kann dann mal schnell das 3-4 fache zahlen. Und wahrscheinlich ein neues Netzteil obendrauf.

icetom schrieb:
Die 3000er Serie war die letzte gute Nvidia Serie.
Wenn das nicht Ironie war kannst Du das sicher begründen.
Die 4000er Serie ist in allen Belangen überlegen.
 
latiose88 schrieb:
Vorallem zocken noch immer sehr viele counterstrike source.


Ich nicht. Trotzdem ne 3060 geholt damals. Why? Für Indie (UND Indy), Kingdom Come, Resident Evil und Gedöns reichte die bis heute vollkommen. Ne Arc würde das sicher auch wuppen und wäre heute wohl meine Wahl. Selbst ne 5060 ist mittlerweile in Sachen Rohleistung deutlich besser bestückt als die Konsolen, quasi 2080Ti-Niveau. Der Speicher ist ne Einschränkung. Aber k.A. was die Bubble immer mit Internetcafes und Counterstrike will, das ist ein Klischee, völlig an den real existierenden Rechnern da draußen vorbei. Mal anschauen, was auch gerade bei uns in Fertig-PCs steckt... Und was auch an Einzelkarten in größeren Shops verkauft wird.

Vielleicht ist das auch bewusste Realitätsverweigerung. Vielleicht tuts manchem weh, dass alle Menschen in Abwesenheit von Wing Commander 6 gezwungenermaßen exakt die gleichen PlayStation2020-Games, Remakes, Remaster und Ports spielen -- und zwar anders als den Commander oder CANITRUNCRYSIS auf Hardware aller Klassen -- (oftmals) Steam Decks inklusive. ;)

https://www.computerbase.de/artikel/gaming/crysis-test.731/seite-2#abschnitt_grafik_im_test
 
Zuletzt bearbeitet:
AMD-Flo schrieb:
Weil die RTX4000 Karten in jeder Hinsicht besser und günstiger zu produzieren waren. Auch die Speicherausstattung war bei den meisten Varianten mager.

Man darf auch nicht vergessen, dass die RTX3000 technisch veraltet ist und früher oder später der Treibersupport eingeschränkt wird. Hoher Verbrauch, eingeschränktes Featureset, kein AV1 Encoder usw.
„Veraltet“ klar, nur Marketing, AV1 nutzen nur die wenigen Auserwählten.

Für die Mehrheit würde die RTX 3080 locker ausreichen.

Aber man muss ja dem Kunden das Fell über die Ohren ziehen. 😁
 
Monarch2 schrieb:
Radeon 9100/9200 wurden aber nicht fünf Jahre und zwei Generationen nach Release der 9500/9700 auf den Markt gebracht.
Eine arge Namenstrixerei war es trotzdem.
Die R200 Chips waren wesentlich weniger leistungsfähig, als die R 300er Serie.
Und die ATI R 9250 kam meiner Meinung nach 2 Jahre später, als die ATI R 9500.

Ich hatte die Radeon 9100 und als ich auf die Radeon 9500 umstieg gab es einen richtigen Ruck in der Grafikleistung.
Es fühlte sich alles flüssiger und schneller an, und das war es auch.

Und eine Art der R 9500 konnte man mittels Software (Rivatuner) auf R 9700 Niveau heben.
Das ging bei mir auch und die Karte war einfach nur Spitzenklasse.
 
  • Gefällt mir
Reaktionen: OSx86
wuselsurfer schrieb:
Wir haben schon viel unsinnigeres Zeug gesehen:

Die ATI Radeon 9100 wurde mit dem Vorgängerchip R 200 der ATI 8500 statt mit dem in der 9xxx-Serie üblichen R(V) 300 versehen.
....
wuselsurfer schrieb:
... Eigentlich bedeutet die "9" vorne die DirectX-Version, was aber bis zur Radeoon 9250 nicht stimmt.
Das ist doch Äpfel mit Birnen vergleichen.
Der von nVidia betriebene RAM Bullshit Bingo mit Chipkastration und dem Move 2 Generationen zurückzuspringen hat doch nix mit dem typischen Chiprelabel bei Genwechseln von beiden Playern zu dieser Zeit zu tun.
 
wird bestimmt,
der heiße Tipp werden,
das man sich eine RTX 5050,

mit 9 GB und 96 Bit holen soll !!!

:daumen:
 
Locutus2002 schrieb:
Ich verstehe diese Wiederauferstehung einer völlig veralteten GPU einfach nicht. Die braucht doch genauso Speicher wie eine 5060

Nein nicht genauso... sie braucht GDDR6 nicht GDDR7. Sie teilen sich bei Samsung sicher auch kapazitätnen. Würden das aber nicht machen wen Samsung da nicht noch mehr rauspressen könnte. Problem sollen ja nciht die Wafer sein, sonder was man daraus belichten kann. Also das daraus GDDR7 / DDR5, HBM wird. GDDR6 ist aber nicht das gleiche. Es ist als, paar Arbeiter müssen Anfangs öfters zwischen en Gebäuden mehr hin und her pendeln. Aber eine alte GDDR6 liefer straße einschalten die ohnehin nicht für was neues genutzt werden soll, umgeht doch das Problem der lieferknapheit. man muss dort nur den Stecker einstecekn, computer an, und der rest läfut vom selbst und ist nur kurzfristig ein Personal problem, und in 1-2 Jahren setzt man sie wieder auf die Straße. Wobei warscheinlicher das sie sich dann um die höhen kapaztäten der Nachfolger Fertigungn kümmern. Daher macht es sogar doppelt sin. Wiel samung früher oder später sowieso mehr Personal braucht. Das weiß´dann auch grob schon wie das alles funktioniert.
 
Ich brauch bald Ersatz fuer meine GT 1030. Die wurd neulich endgueltig von Nvida unter Linux zum alten Eisen erklaert. Beim 580er Treiber ist Schluss fuer Pascal, wird freundlich auf den Nouveau verwiesen. 😢
Dabei is die fuer Multimedia noch voll gut.

Gebrauchtpreise ziehen auch wieder an. 😮‍💨
 
Zurück
Oben