News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

Falc410 schrieb:
Also du meinst wirklich, Entwickler wollen Spiele nur für 2,3% aller aktuellen Computersysteme spielbar machen?
Bei so manch einer Neuerscheinung bekommt man eher das Gefühl, dass die Entwickler es für 0% der PCs spielbar machen :D (Sehe die Verantwortung aber eher im Management, dass so viel Rotze releast wird)
 
  • Gefällt mir
Reaktionen: ThirdLife
Die 16 GB Midrange Karte könnte interessant sein als neue Brot und Butter Karte. Wenn die Effizienz gut wird, der Chip nicht an der Speicherbandbreite verhungert und der Preis stimmen sollte.

Wenn der Preis aber sehr weit über der AMD 6700xt / 7700 liegt oder fast die rtx 4070 erreicht wäre sie wahrscheinlich auch wieder uninteressant und eher so ein "Nvidia Grafikkarte mit sagenhaften 16 GB vram" Komplettsystem Werbeargument.
 
Poati schrieb:
Überhaupt der Gedanke die GPU mit 128 Bit Interface und 8GB zu bringen ist doch bescheuert.
wieso? wer sagt das?
der ad106 steht von der "größe" her aktuell an der vierten stelle des ada portfolios - wieso sollte diese gpu kein 128bit interface haben dürfen?
die gpu's werden lange bevor jemand konkrete grafikkarten und deren ausstattung definiert, geplant und designt. oft weiß man im vorlauf nur pi-mal-daumen wohin die performance, der verbrauch und ähnliche merkmale hingehen.
erst irgendwann bei der arbeit mit engineering samples kristallisiert sich heraus wo im erwarteten feld die jeweilige gpu einsortiert werden kann.

erst dann setzt sich entsprechendes personal und definiert taktraten, speicherbestückung und ähnliches unter berücksichtigung der angepielten herstellkosten. und ja, irgendwann spielt auch der markt eine rolle bei diesen entscheidungen, aber dann sind die würfel bezüglich eines gpu portfolios einer generation gefallen...
 
cypeak schrieb:
der ad106 steht von der "größe" her aktuell an der vierten stelle des ada portfolios - wieso sollte diese gpu kein 128bit interface haben dürfen?
die gpu's werden lange bevor jemand konkrete grafikkarten und deren ausstattung definiert, geplant und designt. oft weiß man im vorlauf nur pi-mal-daumen wohin die performance, der verbrauch und ähnliche merkmale hingehen.
Habe noch nie AMD oder Nvidia bei der Entwicklung von GPUs über die Schulter schauen dürfen, wo bekommt man entsprechende Informationen her? Ich stelle hier keine weiteren Vermutungen auf, aber eher fragwürdige Entscheidungen was Speichermenge oder Interface angehen passieren ausgerechnet immer Nvidia. Seltsamer Zufall oder? Bei AMD fällt mir jetzt primär die Fury ein, was aber einzig an der Entscheidung für HBM lag. Über 6500XT brauchen wir uns nicht unterhalten, die war nie für intensivere Nutzung gedacht sondern eher als kleine dedizierte Lösung für Notebooks.
 
Telechinese schrieb:
...wenn da nicht auch ein PCIe x16 Interface mit dazu kommt, dann brauch ich auch keine 16GB-VRAM.
Meine Maschine hat nur PCIe 3.0 - und nicht mehr.
Also was soll ich mit einem ollen PCIe x8 Interface anfangen? Genau NIX! 👎
Es ist genau andersrum
Du hast zu wenig Speicher (8GB), dann musst du viele Daten kopieren (PCIe Bus wird in Anspruch genommen)
Hast du viel Speicher, dann ist die Anbindung fast egal
 
  • Gefällt mir
Reaktionen: ThirdLife und Convert
...das kann mir aber keiner erzählen, dass sich die Halbierung der Tranferrate am PCIe-Bus von 15GB/s auf nurnoch 7,5GB/sek ned auswirkt auf die Performance - viel RAM hin oder her...
 
@cypeak der Technik in allen Ehren, aber nv geht es nicht darum, dem Kunden das möglichst beste zu dem möglichst niedrigsten Preis anzubieten, sondern möglichst viel Geld bei möglichst wenig Einsatz zu bekommen. Auf dieser Basis wird die Hardware designed und ist dieser Step einmal geschehen, dann interessieren mich als Kunde all die Begründungen, warum auf dieser Basis X nicht wachsen kann oder Y beschnitten ist, nicht.

Wenn du nach nem Rahmen für drei Lüfter suchst, ich dir aber einen Rahmen für zwei Lüfter anbiete, dann interessiert es dich doch auch nicht, wenn ich dir klar mache, dass du auf 2er Rahmen keine 3 Lüfter montieren kannst.

Mir geht es also nicht darum, warum etwas auf Basis des jetzigen nicht machbar ist, sondern darum, dass es überhaupt mit dieser Basis daherkommt.

Bisher konnte mich nur die 4090 und 4080 überzeugen. Die sind aber schlichtweg vieeeeeel zu teuer!
Der Rest des Lineups ist eine Mogelpackung nach der anderen.

NV verscherbelt eine 4060 Ti verpackt als 4070 zum Preis einer 4080.
Die ursprünglich als 4080 verpackte Karte benennt sie - was für ein Zufall - mal eben zur 4070 Ti um und senkt die UVP ganz zufällig um 200$ (diese Aktionen darf man halt nicht vergessen).

Was eine Packung die 4060 (Ti) sein wird, bleibt noch offen, doch in Anbetracht der bisherigen Vermutungen wird das keine tolle Packung sein.
 
bensen schrieb:
Was soll da aufgehen? Beziehungsweise nicht.
bzgl. der Performance. ich stelle mir schon vor dass es einen Unterschied macht, ob ich innerhalb eines bestimmten möglichst kurzen Zeitraums 2GB Daten über ein 32Bit SI schicke, oder die doppelte Menge, 4GB.
Alternativ würde sich die Frage anbieten, warum eine 4090 z.B. für ihre 24GB VRAM ein SI von "unnötigen" 384Bit hat, ein 32Bit SI würde ja auch ausreichen...
 
Falls es wirklich so kommen sollte, duerften die RTX 4070(Ti) Kaeufer, die dann ggf. am Speicher verhungern - die Gelackmeierten sein (egal in welcher Chipvariante, AD 104 oder AD 103).
Nun ja, 16GB Grafikkarten bei nVidia aber 1200 Euro aufwaerts klang (im Vergleich zur Konkurrenz, die mittlerweile deutlich weniger als die Haelfte dafuer verlangt) eben bisher auch schlecht.

Jedenfalls waere eine 16GB Version einer RTX 4060Ti mit Sicherheit deutlich interessanter fuer die Mehrheit der Gamer (nicht nur die ohnehin mittel- bis langfristig orientierten) als eine RTX 4070(Ti) fuer einen noch hoeheren Preis, auch wenn die Leistung etwas geringer ausfaellt.

Damit wuerde die 60erTi Serie (in einer 16GB Version) wieder (nach Ampere auch in der Ada Lovelace Generation) die lohnendste Grafikkartenklasse von nVidia werden.

Der lahmende Absatz bei den RTX 4070(Ti) Karten (wenn bei den US Microcenter Laeden schon 100 US$ Gutscheine im Bundle beim Kauf einer RTX 4000er Karte angeboten werden muessen (natuerlich per nVidia Subvention), damit diese sich noch halbwegs akzeptabel verkaufen) duerfte wohl auch dazu gefuehrt haben, dass man sich bei nVidia entgegen der eigenen Grundsaetze (der bewussten Speicherverknappung) dazu durchringen duerfte.

Wann man in Full-HD Aufloesungen - an welche sich die nur mit magerem 128Bit Speicherinterface bestueckten RTX 4060(Ti) Karten primaer richten duerften - aber dann 16 GB wirklich noetig/ausgereizt wird, ist natuerlich fraglich (bei der Ti-Variante in (U)WQHD Aufloesung noch eher als bei einer moeglichen 16 GB RTX 4060).
 
Zuletzt bearbeitet:
wie die leute twitter müll schon als fakten akzeptiert haben:lol:
 
  • Gefällt mir
Reaktionen: Convert
Also ehrlich - egal ob NV eine 4060Ti mit 16GB bringt oder nicht... Fakt wird sein: Das Teil wird "viel" zu teuer und keiner wird's kaufen - Fertig!
 
Convert schrieb:
Warum? Wenn du zufrieden bist, dann halt doch deinen Erguss zurück. Mein Textverständniss ist völlig intakt, dein Mitteilungsbedürfnis trotz Zufriedenheit ist aber offensichtlich zu hoch...
Mein Mitteilungsbedürfnis? Du hast das doch aufgegriffen. Wenn du ernsthaft nicht erfassen kannst was das "Geschmäckle" an der Sache ist, dass die 4060ti 16bg Vram hat und die davor auf den Markt geworfene 4070 12gb Vram, dann, so leid es mir tut, ist nicht nur dein Textverständnis getrübt. Manchmal will man es glaube ich auch einfach nicht verstehen.

95+% der Kommentierenden fällt auf, dass das ein "komischer" move ist von Nvidia...
 
  • Gefällt mir
Reaktionen: Killerluki und C0rteX
Vielleicht hat Nvidia die Auswirkungen eines größeren L2 Cache auch einfach optimistischer eingeschätzt und eine ähnliche Lösung wie AMD noch nicht realisieren können. AMD hat hier ja durch die Ryzen Architektur und die 6000er schon einiges an Erfahrung mit Bandbreitenlimitierungen und deren Minimierung durch zusätzlichen Cache sammeln können.

Grundsätzlich ist es ja genauso wie das Chiplet Design ein Kostenvorteil. Hier konnte und kann AMD ja bereits Intel unter Druck setzen.

Ich kann mir aber zumindest nur schwer vorstellen, dass eine Nummer größere Speicherinterfaces die Profitmarge völlig zunichte gemacht hätten. Das die 4070ti in 4k dermaßen viel Leistung in neueren Spielen verliert, war vielleicht gar nicht so gedacht, wenn es sogar eigentlich eine 4080 12 GB sein sollte.

Man kann echt nur hoffen das AMD weiter die Preise korrigiert bis wir ein erträgliches Maß erreicht haben und Intel mit der 2ten und 3ten Gen eine bessere Marktposition durch brauchbare Produkte erlangt. Corona und Mining haben den Markt demoliert und eine Korrektur ist längst überfällig.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Kay B., ThirdLife und Chismon
Telechinese schrieb:
Also ehrlich - egal ob NV eine 4060Ti mit 16GB bringt oder nicht... Fakt wird sein: Das Teil wird "viel" zu teuer und keiner wird's kaufen - Fertig!
Ganz bestimmt das wird wieder die erflogreichste karte bei weitem. wie immer mit den 60er karten
 
Telechinese schrieb:
Das Teil wird "viel" zu teuer und keiner wird's kaufen - Fertig!
Abseits der RTX 4090 bieten die anderen (eher enttaeuschenden) Ada Lovelace/RTX 4000er Karten eben zu wenig Leistungszuwachs, weswegen die Preise eben weiterhin nicht passen ... ergo, warten auf die RTX 5000er Serie, der ersten RealTime-PathTracing Marketing-dGPU-Generation von nVidia mit dann auch hoffentlich mehr Leistungszuwaechsen in den Leistungsklassen unterhalb des Flaggschiffs zu passenden Preisen oder alternativ eben auf RDNA4 (da RDNA3 auch eher mittelpraechtig bisher ausgefallen ist).
 
C0rteX schrieb:
Weil das eigene Selbstwertgefühl an eine Marke gebunden wurde und man Kritik daran nicht erträgt. Können sie doch machen, aber warum geht man dann täglich den Leuten damit auf den Sack?
Als hätte ich hier rum geschimpft.. ein bisschen übertreibt ihr aber schon :) ich stelle doch nur fest, dass es einen faden Beigeschmack hat.. nicht mehr, nicht weniger.
 
C0rteX schrieb:
Ich kann mir aber zumindest nur schwer vorstellen, dass eine Nummer größere Speicherinterfaces die Profitmarge völlig zunichte gemacht hätten.
Bestimmt haette es die Profitmarge nicht wahnsinnig geschmaelert, ebenso wie es die (ohnehin ueberlegene) Effizienz nicht ruiniert haette.
 
  • Gefällt mir
Reaktionen: ThirdLife und C0rteX
Ich hab keinen Schimmer was du geschrieben hast, also warst du auch nicht damit gemeint. 😉
 
  • Gefällt mir
Reaktionen: mazO!
Zurück
Oben