News GeForce RTX 5060 Ti: Gibt es zum Start nur Tests der 16-GB-GDDR7-Version?

Die Nachfrage nach Karten für 400-500 Euro wird ziemlich hoch sein. Nicht jeder kann und will sich Karten für 600-1000 Euro kaufen. Durch solche Krüppelkarten mit 8GB wird den nicht-wissenden Kunden vorgegaukelt, dass man eher rund 800 Euro ausgeben sollte/muss, um ein gutes Gaming-Erlebnis zu bekommen.

Wenn hier die Hersteller schon so tricksen und in diesem Fall mit NVidia das sogar massiv forciert wird, sollten vor allem die Tester das massiv kritisieren.

Die 5000er Serie von NVidia ist extrem frech aufgestellt. Aus meiner Sicht verdient nur die 5090 Ihren Namen.
Hier mal eine Tabelle. In der ersten Spalte ist die aktuelle Bezeichnung. In der zweiten habe ich "meine" Bezeichung für die Karten von der ersten Spalte eingetragen.
Ist-ZustantSoll-ZustandInfoPreis
RTX 5090RTX 5090Ok, könnte aber etwas schneller sein1800
RTX 5080mit 24GB1000
RTX 5080RTX 5070 Ti800
RTX 5070 TiRTX 5070600
RTX 5070-einstampfen
RTX 5060 Ti 16GBRTX 5060 Ti20% schneller500
RTX 5060 Ti 8GBRTX 5060mit 12GB350
RTX 5050RTX 5050200
So wäre ein Release mal angemessen und man würde einen Fortschritt erkennen, damit man mehr Power zum gleichen Preis bekommt. Aktuell muss man gefühlt immer nur mehr zahlen, um mehr Power zu bekommen.

Natürlich würde das auch den Preis von AMD Karten drücken. Die neue 9070 (XT) müsste dann natürlich auch eher 400-550 Euro kosten. Also so, wie es viele ursprünglich erwartet haben, aber vermutlich war der Leistungssprung bei NVidia so klein, dass die Preise dann nach oben korrigiert wurden.
 
GUN2504 schrieb:
Ich verstehe das ganze Lineup nicht...
It's all about Marketing and Influencing


Eigentlich ist es einfach. Nvidia wollte seit eigentlich immer schon, dass du regelmäßig neu kaufst. Schau dir die 970 an, oder eine 1080. Man hat den Halo Produkten damals und heute ausreichend RAM gegeben und der Rest hat eben Pech.

Mit einer 5060ti mit 16G steht man dann auch besser dar. Kann ja nicht sein, dass die 5060ti wieder nur mit ach und Krach an einer 3060Ti vorbeiziehen kann.

Spätestens jetzt, sollte man über den Kauf eines AMD Produktes nachdenken. Mit einer 5070/16 hätte Nvidia ja Mal zeigen können, ob man wirklich für die Gamer ist. Schade, Chance vertan
 
  • Gefällt mir
Reaktionen: Ituran, JarlBallin, martin_m und 2 andere
Rickmer schrieb:
Ein Test der GTX 1060 6GB gab's zum Launch, CB hatte dann einen Test der 3GB Version 2 Monate später nachgeschoben.
Das wird daran liegen, dass die 1060 3GB auch erst einen Monat nach der 6GB auf den Markt kam.

Wobei das natürlich ebenso zur Strategie Nvidias gehört haben wird, so die schlechten Reviews zur 3GB weitgehend zu vergraben.
Ergänzung ()

Vitche schrieb:
Dass das aber keine gute Idee ist, konnten die Tester ohne Muster nicht gut veranschaulichen.
Können sie eigentlich schon, immerhin wird die 5060Ti sich da ähnlich verhalten wie die 4060Ti.

Jedes gute Review sollte daher mit großem Zeigefinger genau diesen Vergleich ziehen und klar benennen, dass eine 8GB 5060Ti mindestens genauso stark in Probleme rennen wird.
Ergänzung ()

Boimler schrieb:
Theoretisch möglich, werden sich aber viele Redaktionen nicht beteiligen. Und dann sieht sich standhafter Journalismus gegenüber Wegfall wichtigen Umsatzes. Das können sich leider die wenigsten Redaktionen leisten.
 
  • Gefällt mir
Reaktionen: Rockstar85
Vitche schrieb:
der breiten Masse aber den billigeren 8-GB-Krüppel andrehen.
Die "breite Masse" kauft dann sowieso den "Gaming" PC mit RTX 5050 und Intel CPU
:evillol:

Aber schon schade, dass nvidia anscheinend genau weiß, dass die 8GB Version zerrissen wird obwohl die Karte an sich richtig gut ist, wenn sie ausreichen VRAM hat. Wieso dann nicht gleich nur eine TI mit 12GB!?:freak:
 
waer nicht das erste Mal, dass jmd "gezwungen" wird RAMzellen entfernt fuer einen "TEST"
 
Negative Tests sind schlecht fürs Marketing. So what? NV wird die 8GB Version am besten ganz ruhig ohne irgend welche Testexemplare in den Markt entlassen. Der Pöbel bekommt bei OEM eine Box mit "fetter RTX Power" und alle freuen sich.

Die Diskussion hier ist auch seltsam. Speicher ist eine Minimalanforderung und hat nichts mit der Leistungsfähigkeit einer Grafikkarte zutun. Alles unter 16GB ist inzwischen Abfall ohne Existenzberechtigung.
 
  • Gefällt mir
Reaktionen: Ituran, JarlBallin und martin_m
CDLABSRadonP... schrieb:
Für die 5060 Ti wird der Workaround genutzt, dass man auch an ein Interface mehr als ein DIE dranhängen kann. Der Chip hat zwar nur vier 32bit-Interfaces, aber an jedem hängen zwei DIEs dran. Somit sind es auch dort acht 2GiB-GDDR7-DIEs, aber eben als zwei mal vier mal 2 GiB aufgeteilt.

Oh; das ginge auch bei der 5070 - wären dann aber 24GiB VRAM... :mussweg:

CDLABSRadonP... schrieb:
Prinzipiell könnte Nvidia später auch noch eine 5060 Ti 12 GiB bringen.

Oder - bei Verfügbarkeit der 3GBiB-Chips so etwas wie eine 18GiB-Version der 5070 (oder eine 24GiB 5080; die wäre ja glatt interessant...)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ituran, JarlBallin und Rockstar85
Floppy5885 schrieb:
Also eine 5070 12Gb kann man noch empfehlen
na ich weis nicht, eine FHD Karte für 600€ ist schon arg übertrieben. die GPU sollte genug leistung haben um die eigenen Games gut spielen zu können, das hat die 5070 definitiv, nur wenn ich schon bei Kauf in Games wie Indi die details runter schrauben muss weil der Vram nicht reicht, no go. es gibt auch schon 3Gbs chips GDDR7 also wieso wird der nur mit der 5090mobil verbaut wo er mehr wie unnütz ist, und nicht bei der 5070ti mobil oder Standard 5070 wo er mehr wie benötigt wird.

in meinen Augen ist die 5070 das schlechteste Angebot das es gibt
5060ti $429 ist $130 günstiger bei wohl ~30% weniger Leistung keine Option für WQHD oder mehr
9070 gleicher Preis 5% mehr Leistung aber bei der Software noch Nachteile
5070ti $200 teurer und ebenso ~30% schneller
will mann WQHD oder mehr Zocken bleibt eigentlich nur die 9070+ oder eben 5070ti + oder auf die 5070S-16GB warten die sicher kommt, sobald es genügend 3GB chips GDDR7 gibt dazu wird der Preis wohl auch noch sinken
Bei AMD verzichtest Du auf die Nvidia Software zugaben sparst aber 200$ bei Nvidia zahlst Du halt 200$ mehr muss jeder für sich entscheiden
 
  • Gefällt mir
Reaktionen: JarlBallin
wahli schrieb:
So wäre ein Release mal angemessen und man würde einen Fortschritt erkennen, damit man mehr Power zum gleichen Preis bekommt. Aktuell muss man gefühlt immer nur mehr zahlen, um mehr Power zu bekommen.

Das ist so. Nicht nur für PC-Grafikhardware... Siehe PS5 Classic. PS5 Pro. Jetzt selbst ne Switch 2. Oder: 7:38.

 
  • Gefällt mir
Reaktionen: Rockstar85
DAU123 schrieb:
Lt. nVidia sind dank RTX Neural Texture Compression 8GB mit Sicherheit genug.
Wenn das funktioniert, kann man sich drauf einstellen, dass es keine 5080 mit mehr als 16GB geben wird.
nVidia macht eben, was nVidia macht.
Lieber Software statt Hardware ^^
Es kann ja nicht sein, dass man eine Normale GPU für KI Aufgaben nutzen könnte. Die restlichen paar Bytes müssen Vergoldet mit 200.000% Marge verkauft werden.
 
  • Gefällt mir
Reaktionen: JarlBallin
Frei nach James Bond:

Der VRAM ist nie genug!

Vergesst alle Tests bezüglich VRAM. Diese können die Spielrealität nicht wiedergeben, denn sie sind Momentaufnahmen. Da werden (prinzipbedingt) nur Momentaufnahmen bewertet, bestimmte ausgewählte Spielstände u.ä., das kann aber einfach nicht den Gaming-Alltag wiedergeben.

In der (Gaming-)Realität sind Games aber nunmal voller Bugs. Sehr viele dieser Bugs sind sogenannte Speicher-Leaks. Kurz gesagt in Programmen werden Variablen benützt, diese werden vom Programm deklariert, d.h. für sie wird Speicherplatz reserviert. Diese Variablen-Deklarationen sind häufig in Sub-Routinen organisiert die zudem auch gerne mal rekursiv (sich selbst aufrufend) aufgebaut sein können. Wenn solche rekursive Deklarationen oft genug aufgerufen werden, aber nach Gebrauch der dafür reservierte Speicherplatz nicht ordnungsgemäß vom Programm wieder freigegeben wird, dann crasht irgendwann der Grafik-Treiber/das Game/schlimmstenfalls Windows.

Einfaches Beispiel aus der bekannten Gaming-Welt: Gothic 3/4, alle Risen Teile, einschließlich Elex: Man steht vor der Truhe speichert mit F5 und lädt solange mit F8 neu bis etwas brauchbares in der Truhe ist. Wenn man zu oft neu lädt, stürzt das Game ab (alle oben genannten gleichermaßen). Wie oft man neu laden kann bevor das Game abstürzt, ist direkt proportional zum VRAM-Ausbau der GraKa. Kann man o.g. Verhalten in einem Test nachvollziehen? Absolut gar nicht! Aber jedem Spieler der o.g. Games, der gerne mal 8 oder mehr Stunden am Stück gezockt hat wird das kennen.

Beispiel 2: Anno 2280. Hat man zu Spielbeginn noch annehmbare 60 FPS, sind es nach etlichen Stunden dauerzockens irgendwann noch 5 FPS, oder auch nur 1 FPS. Lädt man das Spiel neu und den letzten Speicherstand sind es wieder 60 FPS. Die Abnahme der FPS ist hierbei direkt proportional zum verbauten VRAM. Warum? Eindeutig eine Speicher-Leak!

Normale (Benchmark-)Tests können solche Probleme, die es schon vor 20 Jahre gab, und in 20 Jahre noch geben wird weder erfassen noch beurteilen. Deshalb gilt obere Regel nicht nur für den VRAM, sondern ebenso für den RAM und ganz, ganz wichtig für jede Form von Cache-Speicher einer CPU.

Genau aus diesem Grund würde ich z.B. X3D CPUs den Vorzug geben, den FPS-Vorteil in 4K mit einer bezahlbaren GraKa kann man getrost vergessen. Aber mehr Cache-Speicher lohnt sich für Dauerzocker immer. Doppelter Speicher bedeutet halt oft, daß ein Game das abstürzt, weil es diesen Speicher zwar reserviert, aber nicht korrekt wieder freigibt, doppelt solange läuft bis es abstürzt.

Nachtrag: Zu 486-Zeiten konnte man nicht nur sowohl Intel wie AMD (und andere) CPUs aud dem selben MB verbauen, sondern den Cache-Speicher, der damals auf dem MB und nicht in der CPU verbaut war wechseln. Hat man damals die Cache-Speicher-ICs ausgebaut und durch doppelt so große ICs ersetzt, war der gefühlte Mehrwert in Gaming, jenseits aller Benchmarks, mehr als der Austausch einer DX2-66 CPU durch eine AMD DX2-133.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ErnstHaft99
Die kleinen Chips bekommen genug Vram mit schlechter Anbindung nein Danke Nvidia und das läuft nicht erst seit der Gen so.
 
  • Gefällt mir
Reaktionen: Ituran und JarlBallin
Araska schrieb:
Oh; das ginge auch bei der 5070 - wären dann aben 24GiB VRAM... :mussweg:
Für den Desktop verrückt, für Notebooks war sowqs hingegen früher gang und gäbe und zwar auch, weil sich dort Grakas so schlecht tauschen lassen.
Araska schrieb:
Oder - bei Verfügbarkeit der 3GBiB-Chips so etwas wie eine 18GiB-Version der 5070 (oder eine 24GiB 5080; die wäre ja glatt interessant...)
Über beide habe ich bereits geschrieben.
 
Holzinternet schrieb:
Moin,

ich mag das Marketing von Nvidia auch nicht, aber man sollte die Kirche im Dorf lassen. Karten mit weniger als 16GB VRAM sind nicht gleich Elektroschrott. Man sollte sich vor Augen halten das nicht jeder der spielt ein UltraProGamer ist.

Auch Karten mit 8GB VRam reichen für sehr viel aus. Heute, morgen und auch in ein paar Jahren. Was man monieren kann und auch sollte ist das Marketing und allgemeine Verhalten von Nvidia. Man muss das auch nicht unterstützen.
Es geht um sauteure, neu angeschaffte Grafikkarten. Die sollen auch eine Weile halten.
Wer jetzt noch 8 GB kauft, der ist selbst schuld. Die reichen "jetzt" noch für sehr viel aus. Aber auch schon schon für so einiges nicht mehr. Unter 12 GB sollte man nicht mehr kaufen.

PS: Für die angesprochenen UltraProGamer können auch 16 GB so langsam knapp werden. Die Karten werden ja nicht nur dieses Jahr verwendet werden. Gerade eine 5080 ist son Ding mit Ansage...
 
DAU123 schrieb:
Lt. nVidia sind dank RTX Neural Texture Compression 8GB mit Sicherheit genug.
Bis Neural textures in Spiele flächendeckend Einzug finden, sind wir drei Generationen weiter.
Und bis dahin werden 8GB Karten weiterhin mit angezogener Handbremse laufen.
 
  • Gefällt mir
Reaktionen: JarlBallin
Kommando schrieb:
Es geht um sauteure, neu angeschaffte Grafikkarten. Die sollen auch eine Weile halten.
Wer jetzt noch 8 GB kauft, der ist selbst schuld. Die reichen "jetzt" noch für sehr viel aus. Aber auch schon schon für so einiges nicht mehr. Unter 12 GB sollte man nicht mehr kaufen.

PS: Für die angesprochenen UltraProGamer können auch 16 GB so langsam knapp werden. Die Karten werden ja nicht nur dieses Jahr verwendet werden. Gerade eine 5080 ist son Ding mit Ansage...

Da hast Du absolut Recht. Und mittlerweile sind fast alle Grafikkarten teuer. 600 Euro für Mittelklasse ist nicht günstig. Und gehobene Mittelklasse liegt bei 1000 Euro aufwärts.

Da kann man gern schimpfen. Mache ich auch. Auf der anderen Seite muss man aber erwähnen und erkennen das die Karten für dieses Geld gekauft werden. Und das nicht zu wenig. Wird sich vermutlich also nichts ändern. Denke eher das es noch teuerer wird.

Muss man sich arrangieren und eigene Wege gehen. Ich kaufe daher fast ausschließlich gebraucht. Verändert nicht die Welt aber schont meinen Geldbeutel.

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: Kommando
Es wird keinem Reviewer verboten sich eine 8GB Variante selbst zu besorgen.
 
Fakt ist doch, die aussage 8GB sind nicht mehr genug, trifft auf 5% der high end Grafik Monster Spiele zu, 95% aller Spiele laufen aber, ich hatte bis vor kurzem eine 2070RTX, 5 Jahre lang habe ich damit problemlos alle Titel die ich wollte, Diablo4, Red Dead 2, und wie sie alle heisen Spielen können. Nur weil Ultra Texturen in einem Diablo 4 die 8GB sprengen, oder ein neues Indiana Jones, aufgrund seiner Ray Tracing only beleuchtung mehr als 8GB frisst, sind 8GB nicht zu wenig, es liegt wohl eher an fehlenden optionen in neueren titeln, wie ebend erwähnt, das zwingende Ray Tracing.

Ich sehe hier die schuld nicht wirklich bei Nvidia, viel mehr bei den Spiele Herstellern, die immer weniger Optimieren, aufgrund von DLSS, FG und wie die neuen KI technologien auch immer heisen, die Entwickler werden faul, missbrauchen diese Techniken und Sparen halt Geld, und das ist ebend mit einer der gründe, warum selbst bei niedrigsten details, wo ein Indiana Jones schlechter aussieht als ein 10 Jahre altes Crysis, das hervorragend läuft auf einer 8GB Karte, dann plötzlich 12GB VRAM und mehr braucht.

Ich weis ja nicht ob das mal irgendwie jemanden auffällt.
 
  • Gefällt mir
Reaktionen: 2Fast2Jump
Es gab inzwischen mehr als genug Beispiele bei denen es nicht nur um "Ultra Texturen" geht.
Hogwarts, irgendein Halo, da kann man sich genug Beispiele über YouTube raussuchen. ;)
 
  • Gefällt mir
Reaktionen: Powl_0 und Alphanerd
Zurück
Oben