News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

Jasmin83 schrieb:
Ehrlich gesagt ist die GPU sowieso das erste was an einem Rechner getauscht wird.
bei mir wird im Rechner am ersten das getauscht, was als erstes kaputt geht 😂
wie gut, das es sich dabei meistens um die Grafikkarte handelt, da die im Vergleich zum Rest der Hardware am meisten zu leisten hat
 
Exit666 schrieb:
4060ti - 12 GB
4070 - 16 GB
4070ti - 16 GB
4080 - 20 GB
4090 - 24 GB

Wäre doch zu einfach...
Und, wie stellst du dir das technisch vor? Auf die Busbreite hast du schon geschaut oder?
 
  • Gefällt mir
Reaktionen: Vitche
Wird nicht passieren. Genauso wenig wie die 3070 16gb und 3080 20gb passiert sind.
Ergänzung ()

pitu schrieb:
Denkt ihr die ist schneller als meine 3080 mit 10GB RAM?
niemals. Im bestfall 15% dahinter.
Ergänzung ()

Warum wird Twitter quacksalber so viel Aufmerksamkeit geschenkt. Ich meine ich verstehe es schon es verursacht Trafik auf der Seite. Aber gleichzeitig auch Fanboy Kriege. Bisschen wiedersprüchlich hier manchmal.
 
  • Gefällt mir
Reaktionen: DaHell63
Die Auflage von Sondereditionen mit doppelseitig bestückten Platinen ist aktuell die einfachste Möglichkeit für AMD und Nvidia, die Absatzzahlen ihrer Grafikkarten zu erhöhen, ohne auf die überzogenen Preise zu verzichten. Nur sollte das halt auch abseits von AD106 und Navi 33* geschehen...
*AMD wäre sehr dumm, wenn sie dort auf 16GiB-Modelle verzichten würden
 
DerRico schrieb:
Warum denn so provokant und angriffig?
Wo genau ist die Provokation und der Angriff ? Fühlt sich neuerdings jeder von allem angegriffen was nicht ins eigene Horn bläst ? Darf man noch "hallo" sagen oder kommt dann hier gleich eine Welle der Empörung ? 😂 Meine Güte. Warum denn so gefrustet ?

DerRico schrieb:
Die Fakten - und damit die Diskussionsgrundlage - sind doch bei der 4070ti / 80 12 GB:
Preise 899 Euro UND zum Zeitpunkt des Erscheinens der 12GB-Karten ist bereits bekannt, dass diese Speichermenge in bestimmten Spielen im Verhältnis zur Rohleistung die optische Qualität negativ beeinflussen kann. Die Karte bleibt zwei Jahre im Verkauf und wird dann mal mindestens zwei Jahre vom Nutzer als Karte zumindest mal in der von NV vorgegebenem Leistungsklasse (1440P) genutzt. Da ist heute absehbar, dass der Speicher für viele AAA-Spiele zu klein sein wird.
Und bei einer 4060 wird die Rohleistung für viele AAA Spiele schon bei Erscheinen zu klein sein, geschweige denn in ein paar Jahren. Aber da werden 16GB VRAM dann bejubelt. Seh ich halt irgendwie nicht so.

DerRico schrieb:
Das wissen wir aus echten Tests, wo der Bench nicht nur 4 Minuten läuft, wir wissen das von Entwicklern (MLID) und wir wissen, dass die von NV beworbenen Features RT und FG richtig viel Speicher fressen. Die Idee "wenn mir der Speicher ausgeht und die Karte dann langsamer wird nutze ich FG" läuft nämlich nicht.
Richtig viel Speicher fressen ? Also sind 2-700MB jetzt "richtig viel" ? Dann wäre also eine 12,5GB Karte perfekt, weil die hat dann ja (deine Worte) richtig viel Speicher ! Problem schon wieder gelöst. Hach es kann so einfach sein. :daumen:

PS: Das war jetzt provokant. Beispielhaft.

DerRico schrieb:
Bei der 80ti war das bei Erscheinen anders. Da war klar, dass die annähernd gleich schnelle 80er 10GB ein Problem mit dem SPeicher kriegen würde und die 80ti bzw. 80 12GB waren dann die sinnvolleren Karten. Und natürlich hat der Speicher bis heute in der Regel gereicht, gibt ja auch kein FG und die Spiele haben bei Erscheinen weniger RT und vor allem weniger Speicher genutzt.
Und dabei heisst es hier von AMD-Liebhabern immer dass RT unwichtig ist und eh kaum Titel existieren. Jetzt auf einmal bestätigst du das Gegenteil. Da machst du dich aber nicht beliebt.😂

Aber ja, du hast mit all dem Recht.

DerRico schrieb:
Wer aber 899€ für eine Karte ausgibt, darf aber wohl erwarten, dass sie bis zum Erscheinen der Nachfolgegeneration alle AAA-Spiele ohne künstliches Speicherbottleneck schafft.
Und wenn ein Spielehersteller nun ein Game rausbringt das 32GB VRAM braucht ? Ist der dann schuld oder nVidia weil ich hätte ja erwarten können 32GB VRAM zu kriegen ? 🤔

DerRico schrieb:
Der Wertreiber bei der Grafikkarte ist nämlich die GPU-Roheistung, also der GPU-Chip selber - der kostet in Herstellung und Entwicklung am meisten, dafür zahle ich das viele Geld, für dessen Leistungsklasse. Der Speicher ist eine im Verhältnis sehr günstige Komponente. Wenn der Output der Karte künstlich (absichtlich) durch zu wenig Speicher beschränkt wird, obwohl es den im Vergleich zu GPU fast gratis gibt, ist das einfach ein schlechtes Design und wenn man böse sein will geplante Obsoleszenz.
Valider Punkt. Ich weiss leider nicht was der Speicher/anderes PCB/Interface kosten würde. Vermutlich nicht viel. Aber statt zu motzen kann mans auch einfach nicht kaufen oder die Konkurrenzprodukte. Irgendwie hat mich das Thema nie betroffen. Nicht mit einer GTX285, nicht mit einer 580, 770 oder 970. Es wurde immer irgendwo gemotzt - ich hatte nie Probleme.

DerRico schrieb:
Das Argument, dass die Programmierer alles Deppen sind und zu faul zum optimieren greift da imho auch zu kurz. Ich kaufe Hardware, um eine bestimmte Anwendung zu nutzen und wenn meine neue Karte die Anwendung "AAA-Spiel in 1440P" nicht sauber darstellen kann, ist sie einfach nicht gut.
Also frei dem Motto "throw hardware(money) at the problem" ? Wär ja eklig wenn die einfach ein gutes Produkt abliefern. Wäre noch ekliger wenn man SELBST mal konsequent sein müsste und einen Titel nicht oder erst später kauft wenn er gereift ist. Das mag hier ja keiner. Bei den Karten ist man schnell mit dem Urteil und mit dem Boykott. Bei Spielen aber nie ? Spannend.

Schuld ist also immer die Hardware. Wie sagt Pispers doch ? Ist der Feind bekannt hat der Tag Format. :daumen:
 
Vitche schrieb:
Und der Knackpunkt ist: 12 GB reichen für 99,9 % der Spiele in WQHD und 99 Prozent der Spiele in UHD aus, selbst wenn man alle Regler nach rechts schiebt. Dass daraus binnen der nächsten Jahre nur 50 Prozent werden wage ich zu bezweifeln, solange es keine Next-Gen-Konsolen gibt.
Schön dass es jetzt reicht aber was ist in 2 Jahren? Man sieht es ja an der 3070 (da hats zu Beginn auch gereicht) was passiert ist und jeder weiß tendenziell wirds eher mehr als weniger. Wer 600€-900€ für ne Karte ausgibt will sie vielleicht länger nutzen zumal der VRAM im Vergleich geradezu nachgeschmissen wird. Wie das nicht kritikwürdig ist am Speicher zu knausern weiß ich auch nicht und hat nix mit"Meckern um des Meckerns Willen," zu tun. Ganz schwacher Kommentar.
 
  • Gefällt mir
Reaktionen: AI94, C0rteX und Stellarix
Neodar schrieb:
Auf entsprechend schwächere Karten unnötig viel Speicher raufzuklatschen, ist natürlich im Umkehrschluss totaler Quatsch.
Genau das tut NVidia hier aber einmal mehr. Und genau da liegt halt die Kritik begründet.
Das liegt eben daran, dass es hier nur die Wahl gibt zwischen 1. (eindeutig) zu wenig und 2. (unnötig) viel. Das war bei der 3060 schon so - da wären 6 GB zu wenig gewesen und so hat sie 12 GB bekommen. Wiederholt sich nun (wahrscheinlich) bei der 4060 Ti.

Die 4060 wird es nicht mit 16 GB geben!
 
Diese merkwürdigen Schieflagen und das Knirschen im Gebälk sind Ergebnisse des konsequenten Upsellings.
genau das!
Hätte man bei nVidia nicht noch mal eben schnell die Grakas eine Stufe höher angesiedelt um den fehlenden Gewinn, durch den Wegfall der Miner, zu kompensieren, hätte alles gepasst!
Andererseits wäre nVidia auch komplett auf die Nase gefallen, wenn AMD nicht auch gleichzeitig neue Wunderpreise für ihre überaus durchschnittlichen neuen Grakas aus dem Hut gezaubert hätten!
 
  • Gefällt mir
Reaktionen: conglom-o
Vitche schrieb:
Und der Knackpunkt ist: 12 GB reichen für 99,9 % der Spiele in WQHD und 99 Prozent der Spiele in UHD aus, selbst wenn man alle Regler nach rechts schiebt. Dass daraus binnen der nächsten Jahre nur 50 Prozent werden wage ich zu bezweifeln, solange es keine Next-Gen-Konsolen gibt.
Welche 99,9% der Spiele?
Alle jemals erschienenen Spiele bis jetzt? Das würd ich unterschreiben.
Oder alle ab jetzt? Insbesondere wo schon die ganzen letzten Triple A Spiele allesamt einen gewaltigen VRAM-Bedarf von deutlich über 12 GB hatten. Teils sogar 16GB oder 20GB und nur mit Patch in halbwegs gangbare Bereiche gebracht wurde.

Ihr selbst habt genug Technik-Tests veröffentlicht, in denen die Aussage eindeutig war, dass man sie erst mit 16GB sorgenfrei spielen könnte. Regler Rechts wohlgemerkt. Zu dem Ergebnis kommt auch jeder andere Test-Seite.
Und wenn Portierungskrücken jetzt zum Standard werden, dann sind 99% ein bisschen hochgegriffen.
 
  • Gefällt mir
Reaktionen: AI94 und C0rteX
Neodar schrieb:
Eine RTX 4070(Ti) hat durchaus eine Leistung, mit der man einige Jahre gut spielen können wird. Es hakt also nicht unbedingt an den FPS und man muss die Details mit ziemlicher Sicherheit in 1-2 Jahren auch nicht auf Low oder maximal mittel herunterdrehen um noch flüssig spielen zu können.
Aber der Speicher wird einem in so manchem Spiel definitiv ausgehen. Und dann muss man die Texturdetails reduzieren, oder die Auflösung runterschrauben usw. um den Speicherbedarf zu verringern.
Die Frage ist wie hoch wird der Impact sein. Darüber sollten wir dann in zwei Jahren nochmal reden, aktuell ist das Problem oft eher fehlende Optimierung und nicht Speicher weils einfach nicht anders geht. Jeder kann talentfrei Speicher zumüllen auch wenn das nicht nötig wäre.

Neodar schrieb:
Auf entsprechend schwächere Karten unnötig viel Speicher raufzuklatschen, ist natürlich im Umkehrschluss totaler Quatsch.
Genau das tut NVidia hier aber einmal mehr. Und genau da liegt halt die Kritik begründet.
Sicher. Verständlich. Einfach nicht kaufen. Kauft man halt AMD Karten. Oder man spielt das eine Spiel unter den 8000 gelaunchten Titeln halt erst wenns fünf Patches bekommen hat. Wo ist das Problem ?

Ich würde den Frust verstehen wenns gar keine Alternativen gibt, aber das tut es. Man muss halt selbst einfach mal konsequent sein - das hassen Deutsche halt.
 
für alle die sich fragen warum sich nvidia mit der 4000er generation so schwer in sachen speicherausstattung tut, der sollte sich anschauen wie die breite des spieicherinterface die größe des vram bedingt.
dadurch wird die diskussion zumindest "leichter".

natürlich wäre es besser gewesen wenn die 4070er karten gleich 24gb statt 12gb liefern würden...da würden sich viele über die 16gb der 4080 wundern....soll man da nun der konsistenz wegen 32gb dranklatschen??

nicht falsch verstehen - ich rechtfertige die vram knauserigkeit nvidias keinesfalls....aber ich weise darauf hin dass schmalere speicherinterfaces schlicht auswirkung auf speicherbestückung und teils auch performance haben.
irgendwann kann man auch fehlende speicherbandbreite nicht mehr doch caches ausgleichen...dann brechen karten mit kleinem interface und wenig vram umso deutlicher ein...
 
Inxession schrieb:
Eigentlich ist AMD gar nicht so schlecht aufgestellt.

Wenn man es offen kommuniziert hätte, würde man AMD sogar raten, die 6xx0er Karten weiter zu vertreiben und damit den Markt "von unten" her zu füllen.

RDNA3 dann darüber positionieren und im Hintergrund am Nachfolger werkeln.
Der dann hoffentlich auch die RDNA3 Problematiken nicht aufweist.

Insgesamt ist leider alles noch zu teuer.

Aber von "unten" her gesehen ist doch jede RX 6xx0 Karte attraktiver als der RTX 4x00 Gegenspieler

Du hast grundlegend Recht. Aber genau weil AMD nun auf RDNA 3 v.a. beim Encoden/Decoden endlich einen großen Schritt gemacht hat udn Nvidia mit der 4000er-Generation verrückt gut in der Effizienz ist, ist jeder Schritt extrem wichtig, diesen marketingtechnisch mitzugehen in der aktuellen Situation. Als hinterher rennender musst du diese Schritte ausschlachten, auch wenn sie nur klein sind.
 
4nanai schrieb:
Ich rede natürlich vom Heimgebrauch für Privatpersonen.
man kann auch Serverhardware im Heimgebrauch - also Privatpersonen - nutzen. Wird oder wurde bei CPU´s auch schon so gemacht. Z.B. Xeon CPUs in normale Gaming Rechner.
Und bei GPUs ist nicht anders. Nutzen zum Teil sogar identische Treiber und haben dazu öfters auch den vollen Chipausbau und nicht nur ein bisschen oder bisschen mehr 😁

die Frage ist halt, willst du die Preise dafür zahlen oder hast du eine Quelle wo du "günstig" dran kommst.

Hinzu kommt bei GPUs, das die öfters anderes Kühldesign haben. Da hat eine GPU keine 3 oder 3,5 Slots sondern 1 Slot und die Karte wird dennoch kühl gehalten. Die Frage ist nur, wie laut es wird
 
@cypeak

Nvidia ist doch nicht blöd, die hätten halt vorher dran denken können das Speicherinterface so zu gestalten dass man vernünftig austatten kann. Das Interface ist doch keine gottgegebene Größe. Nvidia will den Speicher knapp halten, das ist der Grund.
 
  • Gefällt mir
Reaktionen: suessi22, baizer, AI94 und eine weitere Person
Desmopatrick schrieb:
Das gibt es schon viel länger so und war eigentlich die Regel, dass AMD mehr VRAM verbaut hat und die Karten nach längerer Zeit (wegen dem Speicher?) noch mehr spielbar war!

RX 5700 8GB > RTX 3060
Sorry, aber der Gegenpart der 5700 war die 2070 (S). Und die hatten 8GB ;)
 
Gute Nachrichten. Macht mir mehr Hoffnung, dass die 5070 mit mind. 12GB daherkommt. Sie soll wenn es soweit ist als Ersatz für meine 1080ti gekauft werden, die ich bereits 6 Jahre besitze und mit 11Gb daherkam - irgendwie muss ich bei solchen VRam News deswegen immer ein wenig schmunzeln.
 
Zurück
Oben