News Kritik zu groß?: Nvidia soll die RTX 4060 Ti nun doch auch mit 16 GB bringen

ThirdLife schrieb:
Also ich hatte eine 3080 Ti mit 12GB VRAM bis Ende 22 und in keinem EINZIGEN Spiel auch nur im Ansatz Probleme. Aber jetzt auf einmal hat jeder in allem ein Problem ? What ? 😂
Warum denn so provokant und angriffig?

Die Fakten - und damit die Diskussionsgrundlage - sind doch bei der 4070ti / 80 12 GB:
Preise 899 Euro UND zum Zeitpunkt des Erscheinens der 12GB-Karten ist bereits bekannt, dass diese Speichermenge in bestimmten Spielen im VerhĂ€ltnis zur Rohleistung die optische QualitĂ€t negativ beeinflussen kann. Die Karte bleibt zwei Jahre im Verkauf und wird dann mal mindestens zwei Jahre vom Nutzer als Karte zumindest mal in der von NV vorgegebenem Leistungsklasse (1440P) genutzt. Da ist heute absehbar, dass der Speicher fĂŒr viele AAA-Spiele zu klein sein wird.
Das wissen wir aus echten Tests, wo der Bench nicht nur 4 Minuten lÀuft, wir wissen das von Entwicklern (MLID) und wir wissen, dass die von NV beworbenen Features RT und FG richtig viel Speicher fressen. Die Idee "wenn mir der Speicher ausgeht und die Karte dann langsamer wird nutze ich FG" lÀuft nÀmlich nicht.

Bei der 80ti war das bei Erscheinen anders. Da war klar, dass die annĂ€hernd gleich schnelle 80er 10GB ein Problem mit dem SPeicher kriegen wĂŒrde und die 80ti bzw. 80 12GB waren dann die sinnvolleren Karten. Und natĂŒrlich hat der Speicher bis heute in der Regel gereicht, gibt ja auch kein FG und die Spiele haben bei Erscheinen weniger RT und vor allem weniger Speicher genutzt.

Welche Spiele man spielt, wie hoch das Texturlevel sein muss, wann Ruckler und Pop-Ins nerven ist sehr individuell. Du spielst LW-Simulator oder HL in +480FPS? 4060ti 8GB ist eine geile Karte dafĂŒr!

Wer aber 899€ fĂŒr eine Karte ausgibt, darf aber wohl erwarten, dass sie bis zum Erscheinen der Nachfolgegeneration alle AAA-Spiele ohne kĂŒnstliches Speicherbottleneck schafft.

Der Wertreiber bei der Grafikkarte ist nĂ€mlich die GPU-Roheistung, also der GPU-Chip selber - der kostet in Herstellung und Entwicklung am meisten, dafĂŒr zahle ich das viele Geld, fĂŒr dessen Leistungsklasse. Der Speicher ist eine im VerhĂ€ltnis sehr gĂŒnstige Komponente. Wenn der Output der Karte kĂŒnstlich (absichtlich) durch zu wenig Speicher beschrĂ€nkt wird, obwohl es den im Vergleich zu GPU fast gratis gibt, ist das einfach ein schlechtes Design und wenn man böse sein will geplante Obsoleszenz.

Warum kaufen 3070-KĂ€ufer ggf. eine 4070 neu? Weil die so viel schneller ist, oder weil die 3070er, die bei Erscheinen genug Rohleistung fĂŒr 4k hatte (gleich schnell wie die 2080ti) nur noch bestenfalls FHD ruckelfrei darstellen kann bei neuesten AAA-Titeln?

Das Argument, dass die Programmierer alles Deppen sind und zu faul zum optimieren greift da imho auch zu kurz. Ich kaufe Hardware, um eine bestimmte Anwendung zu nutzen und wenn meine neue Karte die Anwendung "AAA-Spiel in 1440P" nicht sauber darstellen kann, ist sie einfach nicht gut.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: TumorTorben, rumpel01 und C0rteX
BDR529 schrieb:
Weil eine 4060 Ti auch gerade so sehr von 16GB VRAM profitieren wĂŒrde.

Was ein Schwachsinn.

Wieso profitiert man mit einer 4060 nicht von höher aufgelösten Texturen?
 
  • GefĂ€llt mir
Reaktionen: DerRico
Simanova schrieb:
128bit Bus bleibt? Na da bin ich ja mal gespannt.
Ja klar, sonst brÀuchte man ja einen neuen Chip. Und den entwickelt man nicht mal eben in ein paar Monaten.
 
ThirdLife schrieb:
Aber wÀre eine 6800 nicht der Gegenpart zu einer 3080 und eine 6800 XT zur 3080 Ti, genauso wie eine 6900XT zur 3090 Ti steht ?
Nein, die gab es bei Erscheinen noch nicht.

Die 6800 ging bei etwas höherem Preis in Konkurrenz zur 3070 und war minimal langsamer damals (heute umgekehrt wegen RAM) und die 6800xt war zum niedrigeren Preis und mit weniger Leistung die Konkurrenz zur 3080.
Die 6900xt war zwischen 3080 und 3090 und brachte 90% der 3090er Leistung fĂŒr 66% des Preises. Die 3090ti kam ĂŒber ein Jahr spĂ€ter und spielte preislich und von der Leistung her noch weiter oben.
 
MelbarKasom schrieb:
Ich rede von Verbrauch, nicht von Effizienz.
Ähm ja - und die nvidia Karten verbrauchen bei gleicher Leistung eben weniger als AMD oder Intel. Und bei mehr Leistung sogar weniger als ihre VorgĂ€ngergeneration. Es gibt sicher vieles zu mĂ€keln an den Karten - der Verbrauch ist es sicher nicht!
 
Was ist mit meiner 4080 12 GB? Gibt's da auch ein Update auf 24 GB? MĂŒssen 4070 TI Nutzer dann vielleicht einen Aufpreis von 100 Euro bezahlen um die Karte mit der 24 GB Version zu tauschen?

In unrealistischen Szenarios wird die 4060 TI dann meine 4070 TI BĂŒgeln.
 
  • GefĂ€llt mir
Reaktionen: InsideInfinity
HardcoreGaymer schrieb:
Ich wĂŒrde es feiern, wenn es zukĂŒnftig nur noch 3 Modelle einer Grafik-Generation geben wĂŒrde: Low, Mid und High. Das wird "langsam" unĂŒberschaubar.
Ich wĂŒrde mir fĂŒr die kommende Generation an Karten die Zeiten zurĂŒckwĂŒnschen, wo es wieder eine gewisse sinnvolle VarietĂ€t nach unten gĂ€be. FrĂŒher gab es mal Karten wie ne 8400 oder 8500 GT, die waren fĂŒr die Einstiegsklasse erschwinglich und auch dafĂŒr in Ordnung. Oder die GTX 750 Ti, die war gefĂŒhlt ĂŒber Jahre am Markt etabliert und gĂŒnstig.

MelbarKasom schrieb:
Hab kein Mitleid mit Konsumenten der 4000er Serie (explizit 4070). Jeder kauf adelt die GeschÀftspolitik dieses Ladens und schÀdigt damit auch alle anderen grundsÀtzlich interessierten Konsumenten.
Welche Wahl hat man denn, wenn man leistungsstarke Karten will? AMD? Da muss ich grad mal laut lachen. Hatte frĂŒher immer mal ab und an zu ATI Karten gegriffen, aber das ist schon locker 10, 15 Jahre her.

Mit der RX 400er bzw. 500er Reihe war man dann vor wenigen Jahren mal wieder perfekt in der Einstiegs- und unteren Mittelklasse unterwegs, aber das Feld scheint aufgegeben worden zu sein.
 
  • GefĂ€llt mir
Reaktionen: Intruder
Neodar schrieb:
Wer sich angesichts dieser Nachrichten fĂŒr 600€+ jetzt eine 12GB Karte kauft, die die Leistung einer RTX 3080 hat, welche spĂ€testens in WQHD auch schon an ihren nur 10GB verhungert (ja, ich weiß, es gibt auch eine 12GB Version), der hat doch den Schuss nicht gehört.
Das stimmt halt einfach nicht. Die 3080 kommt nach wie vor in den allermeisten FĂ€llen auch in UHD mit ihren 10 GB aus. Klick.

Abseits dessen: Ich bin wirklich amĂŒsiert von diesem Thread. Unter unserer 4060-Ti-GerĂŒchte-News finden sich hunderte Kommentare, in denen die 8 GB moniert werden. Und unter dieser News ist der Tenor nun: "Das braucht man doch nicht, das ist zu viel, aber was ist denn mit 4070". Meckern um des Meckerns Willen, ganz ehrlich.

Ja, klar, freilich: Der 4070 hĂ€tten 16 GB auch gut gestanden, aber das geht halt mit deren Interface nicht und 24 GB bleiben eben dem Topmodell vorbehalten. NatĂŒrlich hĂ€tte man das ganze Ada-Lineup in dieser Hinsicht von Beginn an anders konfigurieren können, hat man aber nicht.

Und der Knackpunkt ist: 12 GB reichen fĂŒr 99,9 % der Spiele in WQHD und 99 Prozent der Spiele in UHD aus, selbst wenn man alle Regler nach rechts schiebt. Dass daraus binnen der nĂ€chsten Jahre nur 50 Prozent werden wage ich zu bezweifeln, solange es keine Next-Gen-Konsolen gibt.

8 GB wiederum reichen schon jetzt nicht mehr immer fĂŒr Full HD aus, geschweige denn WQHD oder gar UHD in den nĂ€chsten Jahren. Beim Grafikspeicher ist's eben oft ein einfaches "reicht" oder "reicht nicht". Und 12 GB reichen bei der 4070 eher als 8 GB bei der 4060 Ti.

Insofern: Ja, ich verstehe 4070-KĂ€ufer, die dann in einigen Monaten ein wenig neidisch auf den Speicherausbau der 4060 Ti schielen. Aber abseits des GPU-Z-Screenshots wird sich das in der absehbaren Zukunft doch ohnehin nicht bemerkbar machen. Und ohnehin: Das sind alles GerĂŒchte. Erstmal abwarten.
 
  • GefĂ€llt mir
Reaktionen: ComputerJunge, ZeusTheGod, Wan900 und 3 andere
ruthi91 schrieb:
Aber 16GB GDDR6 an 128bit passt grundsÀtzlich, schau dir mal die Anzahl der Shader an in der 4000er Generation.
Die 4060 hat nur ein Viertel der 4090, wird auch ein Viertel der Speicherbandbreite kein Problem sein.
Ich denke das auch. NV hat ja den Cache massiv erhöht, wie AMD bei der 6000ern. Damit wird die Bandbreite weniger relevant.
Speicher OC hat bei den bisherigen Adas kaum etwas gebracht, obwohl bei allen das VerhÀltnis von Bandbreiten zu Rohleistung massiv gesunken ist, selbst bei der vielgelobten 4090.

Ob der Cache dann irgendwann - wie bei der 6600xt - irgendwann an seine Grenzen kommt, da er mit der Chipgrösse mitschrumpft, weiss man bei der 4060ti noch nicht.
 
danyundsahne schrieb:
Ist doch schon das komplette RTX30 Lineup Quatsch gewesen, was NV VRAM-technisch abgezogen hat.
Das gibt es schon viel lÀnger so und war eigentlich die Regel, dass AMD mehr VRAM verbaut hat und die Karten nach lÀngerer Zeit (wegen dem Speicher?) noch mehr spielbar war!
HD 6970 2GB > GTX 480/580 1,5GB
HD 7970 3GB > GTX 680 2GB
RX 480/580 8GB > GTX 1060
R9 290 >GTX 780 TI 3GB
RX 5700 8GB > RTX 3060
 
  • GefĂ€llt mir
Reaktionen: danyundsahne
Denkt ihr die ist schneller als meine 3080 mit 10GB RAM?
 
Vitche schrieb:
Und der Knackpunkt ist: 12 GB reichen fĂŒr 100 % der Spiele in WQHD und 99 Prozent der Spiele in UHD aus, selbst wenn man alle Regler nach rechts schiebt. Dass daraus binnen der nĂ€chsten Jahre nur 50 Prozent werden wage ich zu bezweifeln, solange es keine Next-Gen-Konsolen gibt.

DANKE, endlich jemand der Ahnung hat ! Dem stimme ich zu 100% zu
 
  • GefĂ€llt mir
Reaktionen: Wan900
ThirdLife schrieb:
Okay, was bringt es denn dann ? Es reden doch alle von VRAM und Langlebigkeit. Du selbst ja auch. MĂŒsste es dann hier nicht auch der Langlebigkeit dienen ?
Wenn die GPU selbst entsprechend hohe Leistung hat, dann ist die Karte ja auch langlebiger.
Eine RTX 4070(Ti) hat durchaus eine Leistung, mit der man einige Jahre gut spielen können wird. Es hakt also nicht unbedingt an den FPS und man muss die Details mit ziemlicher Sicherheit in 1-2 Jahren auch nicht auf Low oder maximal mittel herunterdrehen um noch flĂŒssig spielen zu können.
Aber der Speicher wird einem in so manchem Spiel definitiv ausgehen. Und dann muss man die Texturdetails reduzieren, oder die Auflösung runterschrauben usw. um den Speicherbedarf zu verringern.

Auf entsprechend schwĂ€chere Karten unnötig viel Speicher raufzuklatschen, ist natĂŒrlich im Umkehrschluss totaler Quatsch.
Genau das tut NVidia hier aber einmal mehr. Und genau da liegt halt die Kritik begrĂŒndet.

Ist doch nun wahrlich nicht so schwer zu verstehen, oder?
 
  • GefĂ€llt mir
Reaktionen: ThirdLife und C0rteX
Und weder 4070 noch 4070 Ti gibt es mit 16 GB?
Glaube ich nicht.
 
DerRico schrieb:
Warum denn so provokant und angriffig?
Vielleicht weil ihr nur immer schwarz oder weiß seht?
DerRico schrieb:
Ich kaufe Hardware, um eine bestimmte Anwendung zu nutzen und wenn meine neue Karte die Anwendung "AAA-Spiel in 1440P" nicht sauber darstellen kann, ist sie einfach nicht gut.
Dann hĂ€tte ich meine RX 6800 auch nicht kaufen dĂŒrfen...da war von Anfang an nix mit max drin.
...wenn wir von AMD max reden, ohne Raytracing, dann sollte man auch das VRam Problem in der Auflösung stecken lassen.
 
Vitche schrieb:
Das stimmt halt einfach nicht. Die 3080 kommt nach wie vor in den allermeisten FĂ€llen auch in UHD mit ihren 10 GB aus. Klick.
NOCH!
Wir sprechen hier aber verdammt nochmal ĂŒber Karten, die gerade erst kĂŒrzlich in den Verkauf gingen und fĂŒr die Zukunft gekauft werden.
In 1-2 Jahren sieht der Speicherbedarf doch mit Sicherheit nochmal anders aus als aktuell. Weniger wird es definitiv nicht werden.
Also kauft man sich doch jetzt nicht fĂŒr 600-900€ eine Grafikkarte, die auf absehbare Zeit höchstwahrscheinlich mit einem zu geringen Speicher zu kĂ€mpfen haben wird.

Und wie du ja selbst sagst, sind die 10GB lediglich in "den allermeisten FĂ€llen" ausreichend. Aber eben nicht in allen. Das wird sich in den kommenden Spieletiteln noch ausweiten.

Es ist einfach "unklug", fĂŒr so viel Geld eine bereits jetzt beim Speicher auf Kante genĂ€hte Karte zu kaufen.
 
  • GefĂ€llt mir
Reaktionen: anarchie99, AI94 und C0rteX
Inxession schrieb:
Aber gut ... es ist nVidia.
Das Schlimme daran ist, das es trotzdem noch massig KĂ€ufer gibt fĂŒr diesen HW-Fail.
tja... die einen sprechen so ĂŒber nvidia, die anderen sprechen genauso ĂŒber AMD. Ich kann dem Gebashe eh nichts abgewinnen.

Ich hatte Nvidia Karten - eine im Desktop und eine des selben Typs im Notebook - beide aufgrund identischen MÀngeln verreckt (GPU Chip hat wohl aufgrund zu viel Hitze kalte Lötstellen bekommen - ich war kein Einzelfall) und ich hatte die Nase voll und bin zu ATI (nun AMD) gewechselt. Hatte 3 ATI Karten zeitgleich in 3 Systemen im Einsatz, einer wurde so gut wie nie gebraucht und lÀuft heute als W2K8R2 Server - inkl. der GPU und die anderen beiden Karten sind beide kurz nach Ablauf der Garantie im Sommer mit Grafikfehler (Streifen, Pixel) drauf gegangen. Hatte Nase voll von so nen Mist und bin zu Nvidia gewechselt (1x GTX 980 SLI + 1x GTX 970) sowohl die GTX 970 wie eine GTX 980 aus dem SLI System laufen Stand heute noch immer und weil die Dinger seit 10 Jahren ohne Probleme und Macken liefen, habe ich dankend wieder diesen W-Fail gekauft.

Was man hat, weiß man. Was ich allerdings bei AMD bekomme und was mich da erwartet, weiß ich nicht.
Also bleibe ich erst mal bei deinem besagtem HW-Fail und warte bis ich nach ĂŒber 10 Jahren mal wieder auf die Nase falle đŸ€·â€â™‚ïžđŸ™‚

Ich hatte schon massig Intel/AMD - Matrox/S3/weiß der Geier noch alles/ATI/Nvidia gehabt. Irgendwo hat jedes System so seine Schwachstellen. Ich schĂ€tze mal das Milliarden von Menschen mit AMD Systemen noch nie in ihrem Leben Probleme hatten, das die 100% fehlerfrei perfekt laufen.
Die letzten 3 AMD Systeme, die ich hatte, haben mich regelmĂ€ĂŸig mit BSODs, Freezes und andere Dinge genervt. Ich habe es nicht auf die Reihe bekommen diese Dinger stabil zum Laufen zu bewegen.
Erst, als ich durch Zufall einige Sockel 775er Boards in die Finger bekam und ich damit herum teste, war mir klar das ich zurĂŒck zu Intel sollte und die ganzen Sockel 775er Systeme, die ich mir aufbaute, sind noch heute im Einsatz was man von den AMD Systemen nicht sagen kann und dann hatte ich ĂŒber 10 Jahre Sockel 1150 mit dem Xeon E3-1230 v3, der noch heute einwandfrei lĂ€uft und mit dem hatte ich, bis auf das Problem vom GTX 980 SLI System und dem anfĂ€nglich zu wenig Arbeitsspeicher nie großartig Probleme gehabt. Von Windows 7 nach Windows 8, 8.1 zu Windows 10 = perfekt. Konnte mich nie beklagen.

Und so wurde es wieder ein Intel System. Warum? Zufriedenheit wĂŒrde ich sagen. Bleibe bei dem womit du die wenigsten Probleme und Sorgen hattest.

Was ich damit sagen möchte ist, das man sowohl mit AMD wie auch mit Intel auf die "Fresse" fliegen kann. Jedes System hat seine Vor- und Nachteile. NatĂŒrlich hat auch jeder von uns seine Vorlieben. So what?
Wie bei Autos. Der eine steht auf Mercedes, der nĂ€chste auf BMW und ein anderer tippt sich auf die Stirn und schwört auf Audi und dann kommt einer daher, lacht sich ĂŒber die 3 Deppen kaputt, setzt sich in seinen 2 Jahre jungen geleasten Dacia und freut sich ĂŒber 5€ monatliche Kosten fĂŒr die Rappelkiste auf RĂ€dern.

Jeder so, wie er mag und vor allem sich auch leisten kann.
 
Nvidia muss halt nun den Shitstorm ausshalten, und eingestehen, daß es ein Fehler war, daß man halt in den letzten Jahren, nur die TOP GKs mit ausreichend Speicher bestĂŒckt hat.

Wobei 8 GB schon vor mehr als 5 Jahren Standard war, und absolut absehbar war, das das in Zukunft nicht reichen wird (Richtung 4k geguckt), weil jetzt halt wahrscheinlich die 4070/ti Benutzer die A-Karte gezogen haben, da ne 4060ti mit 16GB die bessere Alternative ist.

Und an die, die hier rummaulen das ne 4060 zu schwach fĂŒr 16 GB ist, das ist ersten nur der Neid, und zweitens wird es wahrscheinlich ne 8 und ne teurere 16 GB Variante geben, die man ja beide nicht kaufen muss.

Und zusĂ€tzlich angemerkt ist das ne Einsteigerkarte fĂŒr 500€!!!!!
Der Preiswahnsinn ist zwar etwas abgeflacht, aber wenn ich ne komplette aktuelle 4k fĂ€hige Konsole fĂŒr weniger € bekomme als ne Einsteiger GK, dann halt immer noch viel viel zu hoch.
 
Wie viele hier gegen die Karte schießen. Es ist doch leider so, dass die xx60 Reihe die Mainstream Karte des normalen Konsumenten ist. Viele scheinen zu vergessen, dass nicht alle bereit sind, so viel Geld zu bezahlen. Ich hĂ€tte es auch lieber, wenn die besseren Karten auch mindestens so viel Speicher als die schwĂ€chere Karte hĂ€tte, aber so ist es leider jetzt nicht, und war es auch zur 3000-Serie nicht.
Aus der Sicht finde ich es also berechtigt, der Mainstream Karte so einen Bonus zu geben.

Auch das die Laien hereingelegt werden kann ich nicht verstehen. Zum einen sollte man als Laie schon mal gar nicht so eine Grafikkarte, oder generell fĂŒr so viel Geld, kaufen, sondern Berichte, Videos sehen oder sich von einem MM-MA z.B. beraten lassen.

Also mein erster Gedanke war "GEIL!".
 
ZurĂŒck
Oben