News GeForce RTX 5060 Ti: Gibt es zum Start nur Tests der 16-GB-GDDR7-Version?

GerryB schrieb:

Nein, das funktioniert nicht, weil Windows, Treiber und Spiele den VRAM verwalten und zuweisen.

Du kannst nicht einfach fest 8 GB auf der Karte reservieren. Wenn ein Spiel den Speicher braucht, dann wird der Speicher einfach auf der Karte freigemacht und die alten Daten in den RAM ausgelagert. Das kann dann entweder zu schlechterer performance führen, weil der PCIe stärker belastet wird oder zu besserer, weil sich das Spiel dann doch mehr als die 8 GB genehmigen kann. So ein Test wäre absoluter Pfusch.
 
  • Gefällt mir
Reaktionen: Quidproquo77
GUN2504 schrieb:
Und eine 5060ti bekommt viel VRAM - wird diese womöglich kaum auslasten können.
LOL. Meine fast 10 Jahre alte RX470 hat 8GiB an Ram und nutzt diese auch immer gut aus. Da macht es bestimmt sehr viel Sinn eine doppelt so schnelle GPU mit dem Stand von vor 10 Jahren auszustatten. Es könnte ja passieren, dass Leute für mehr als drei Jahre nutzen könnten.
 
  • Gefällt mir
Reaktionen: Ituran und Alphanerd
Wenn deren Einsteigerkarte schon 16GB hat, warum die 5080 auch nur so wenig? Im Jahr 2025 kaufe ich ab der oberen Mittelklasse keine Karte mit 16GB mehr
 
Wenns nicht genug GDDR7 Speicher gibt bzw. der zu teuer ist, könnte Nvidia auch einfach günstigeren GDDR6 verbauen und ein doppelt so großes Speicherinterface her nehmen. Das was das Interface mehr kostet spart man beim GDDR6 Speicher wieder ein.

Und dann z.b. ne 5060 mit 192 Bit interface und 12 GB GDDR6 machen und ne 5060ti mit 256 Bit Interface und 16 GB Speicher.
Und die 5050 als Einsteigerkarte bekommt dann nen 128 Bit Interface und 8 GB GDDR6
 
Das funktioniert so nicht. Es gibt genug Tester, die sobald, verfügbar einfach eine kaufen.
 
GUN2504 schrieb:
Eine 5080 hat genug Power mehr als 16 GB VRAM zu nutzen.
Nur das die Menge des VRAMs nicht in direkter Korrelation mit der Leistungsfähigkeit der GPU steht, sondern die Aufgaben am Ende bestimmen, wie viel VRAM benötigt wird.

Und die Menge des VRAMs hängt von der Breite des Speicherinterfaces ab. Bei 256 Bit sind es eben 8 oder 16 Chips, die benötigt werden. Sind eben 16, 24, 32 oder 48 GB VRAM.
GUN2504 schrieb:
Eine 5070 genug für 16 GB VRAM.
Klar kann eine 5070 auch die 16 GB auslasten. Nur:
GUN2504 schrieb:
5060ti bekommt viel VRAM - wird diese womöglich kaum auslasten können.
Wieso sollte es eine 5060 Ti nicht mehr können?

Am meisten Speicher ziehen bis heute die Texturen und anschließen die Polygon-Modelle.

Texturen benötigen einfach nur Platz und quasi keine Rechenleistung. Mit HDR steigt der Bedarf noch mal etwas an, benötigt aber quasi auch keine Rechenleistung aber Platz.

Vollkommen unabhängig ob es eine 5060, 5070 oder 5080 ist.
GerryB schrieb:
[Tool die 16 GB auf 8 GB verringern]
Kurz Anmerkung, das SmartPhone und XenForo haben das Zitat zerschossen, daher nur in eckigen Klammern aus Transparensgründen!

Funktioniert nur bedingt. Klar kann man das machen, nur verhält sich die 8 GB Karte im Limit anders als die 16 GB Karte, auch wenn man diese künstlich auf 8 GB limitiert.

Das ist das gleiche wie mit dem Test des „fiktiven“ 9600X3D. Es könnte nach oben verfälscht sein.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und GUN2504
Mit allen Tricks...
Ich verstehe da ja auch Nvidia nicht. Warum wird die 8GB-Version nicht einfach ein oder zwei Monate später released? Dann kommen auch alle Tests mit der 16GB-Version, und die der 8GB-Version gehen ein wenig unter.

Dass der VRAM in Tests unbedingt künstlich verkleinert werden muss denke ich nicht. Aber vielleicht hilft ja eine Spalte, in der die maximale Auslastung während des Benchmarks abgegeben ist, oder auch, wenn möglich, der zeitliche Verlauf der Auslastung. Das sollte dem informierten Käufer mehr als genug helfen.

Aber der informierte Käufer ist ja auch nicht das Problem...
 
Lt. nVidia sind dank RTX Neural Texture Compression 8GB mit Sicherheit genug.
Wenn das funktioniert, kann man sich drauf einstellen, dass es keine 5080 mit mehr als 16GB geben wird.
nVidia macht eben, was nVidia macht.
Lieber Software statt Hardware ^^
 
  • Gefällt mir
Reaktionen: JarlBallin
NVIDIA doing NVIDIA things...
 
  • Gefällt mir
Reaktionen: eXe777, Alphanerd und Kommando
Die 16 Gb Variante wird getestet werden und nicht verfügbar sein. Dafür gibts dann die 8 GB Variante mit langsamerem Speicher. Und zu aller Überraschung dann die Hyper-Variante mit 4 GB. For the players!
 
  • Gefällt mir
Reaktionen: JarlBallin und Icke-ffm
DevPandi schrieb:
Texturen benötigen einfach nur Platz und quasi keine Rechenleistung.
Das ist nicht ganz eindeutig. Schon in den 2000er gab es Texturen, die mehrere Layer verwendeten. Neben Bump Maps kamen weitere wie Normal Maps, Environment Maps, Specular Maps und Cube Maps. Heute wird PBR genutzt, darunter werden physikalische Lichtbrechungen simuliert. Es kann daher schon sein, dass da der Karte vorher der Saft ausgeht.

Was ich leider nicht verstehe, warum eine 5070 wieder weniger Speicher bekommt. Man hätte doch hier sich auch auf eine 12GB Version einigen können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, Quidproquo77 und ErnstHaft99
Warum tun immer viele so als ob NVIDIA Leute verarscht? Schaut euch Tests an (auch von 4000er Modellen mit 8GB), wenn noch keine vorhanden sind wartet und macht euch selbst ein Bild davon. Jeder der lesen kann sollte daher wissen ob eine 8GB Karte ausreicht oder eben nicht. Wer 8GB kauft und dann rumjammert ist selbst schuld
 
  • Gefällt mir
Reaktionen: JarlBallin und Desmopatrick
Was hat die schon völlig überteuerte 4060 Ti 16 GB zu ihren besten Zeiten gekostet? Ich meine 450€. Für das Geld gab es damals (und heute immer noch) schon die ersten 2 Slot 7800 XT, die Kreise drum drehen. Und nun soll die 5060 Ti 16 GB ernsthaft 600€ kosten? Der grüne Saftladen kennt wirklich keine Grenze in seiner Gier.
Ergänzung ()

RedDeathKill schrieb:
Das ist faktisch falsch. Schon in den 2000er gab es Texturen, die mehrere Layer verwendeten. Neben Bump Maps kamen weitere wie Normal Maps, Cube Maps und Specular Maps. Heute wird PBR genutzt, darunter werden physikalische Lichtbrechungen simuliert. Es kann daher schon sein, dass da der Karte vorher der Saft ausgeht.
Kann ich so bestätigen. Selbst im Studium gemacht.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Moin,

ich mag das Marketing von Nvidia auch nicht, aber man sollte die Kirche im Dorf lassen. Karten mit weniger als 16GB VRAM sind nicht gleich Elektroschrott. Man sollte sich vor Augen halten das nicht jeder der spielt ein UltraProGamer ist.

Auch Karten mit 8GB VRam reichen für sehr viel aus. Heute, morgen und auch in ein paar Jahren. Was man monieren kann und auch sollte ist das Marketing und allgemeine Verhalten von Nvidia. Man muss das auch nicht unterstützen.

Aus eigener Erfahrung kann ich sagen das auch Karten mit 8GB oder gar 6GB Vram noch voll spieletauglich sind. Und auch noch in ein oder zwei Jahren sein werden. Ich habe in meinem Haushalt, der nicht exemplarisch ist, 6 PC stehen. Da sind dann eine RX7900XTX, eine RTX4070, eine RTX3060 12GB, eine GTX1080, eine Vega56 und eine GTX1060 6GB dabei. Und jeder Rechner erreicht mindestens 60 FPS mit ordentlichen Einstellungen.

Eine unserer Töchter (GTX1060 6GB) spielt sehr gern mit der Frau Mama (RTX4070) 7Days to Die. Und beide PC erreichen in 1080p immer 60fps mit guten bis sehr guten Details. Meine RX7900XTX ist eigentlich absoluter Overkill und wurde lediglich für VR angeschafft. Die RTX3060 12GB werkelt im Gartenrechner und die Vega56 und die GTX1080 reichen den anderen Mädels für Fortnite und Genshin mehr als gut.

Wenn ich heute neu kaufen würde muss es nicht unbedingt 16GB VRam sein. Ich würde da sehr genau abwägen. Ab 8GB Vram ist alles in Ordnung.

Möchte aber nochmals aufführen das das Geschäftsmodell von Nvidia Asche ist ! Die Jungs und Mädels haben die vergessen die sie groß gemacht haben. Uns Spieler...

Gruß
Holzinternet
 
  • Gefällt mir
Reaktionen: Ituran und Sappen
Dass Nvidia sowohl die High-End-karte 5080 als auch die Mittelklassekarte 5060 Ti mit 16GB anbietet, sagt ja schon alles über das völlig unsinnige Vorgehen des Unternehmens. Niemals können drei (die 5070 Ti dazugerechnet) so unterschiedliche Karten mit 16GB optimal ausgestattet sein.
 
Da fragt man sich, was Nvidia machen würde, wenn nicht permanent, überall und ständig diese krasse Kritik auftauchen würde. Die Tech bubble ist ja noch relativ (!!!) rechtschaffend, sozial und ehrenvoll. die Ansprüche an die Unternehmen sind relativ hoch, die Fachmedien relativ kritisch, also jetzt im Vergleich zum Beispiel zur Supplement oder Lebensmittelindustrie.
Trotzdem machen die immer solche miesen Nummern, ist einfach ein scheißladen und ja ich habe seit 15 Jahren keine anderen Grafikkarten mehr benutzt.
 
Jan schrieb:
dass der Hersteller aktiv nur die 16-GB-Variante verteilt und möglicherweise sogar versucht zu unterbinden, dass Boardpartner eine 8-GB-Version unter NDA bereitstellen.
Sollte dem so sein, würde ich mich sehr freuen, wenn ihr den Test verschiebt, bis ihr 2 Karten aus dem Handel gestellt bekommt.
GUN2504 schrieb:
Ich verstehe das ganze Lineup nicht...
Upselling.
Ergänzung ()

Stefan1200 schrieb:
Oder das 16 GByte ganz normal testen, in den Benchmarks auch auf die VRAM Auslastung hinweisen
Vram Auslastung ist nicht einfach zu testen. Sind 16gb vorhanden belegen die meisten engines sas auch. Ob benötigt oder nicht.
 
Nuklon schrieb:
Einfach keine Kaufempfehlung aussprechen bis das 8 GB Modell getestet wurde.

Für die 8GB Version kann jeder Experte bereits schon seit 1 Jahr eine absolute KAUFWARNUNG aussprechen!
Dazu bedarf es keinerlei Tests mehr, das ist Basiswissen in der Szene.
Bereits die 3070 war auf Kante genäht und stinkt nun gewaltig ab.
Die 4060 verliert bis zu 2/3 ihrer Leistung im direkten Duelle zu 16GB.
 
  • Gefällt mir
Reaktionen: JarlBallin
GUN2504 schrieb:
Eine 5080 hat genug Power mehr als 16 GB VRAM zu nutzen.
Eine 5070 genug für 16 GB VRAM.
Und eine 5060ti bekommt viel VRAM - wird diese womöglich kaum auslasten können.
Da es beim VRAM vorrangig um die eingesetzten Texturen geht, ist die GPU Leistung davon eher unabhängig.
Es macht also Sinn immer soviel Speicher zu verbauen, wie er von den Texturen der aktuellen Spiele ausgenutzt werden kann, völlig unabhängig von der Leistungsklasse.
Typischerweise würde man im Budget Bereich den Speicher dann etwas reduzieren, um die Kosten zu drücken.

Ein Problem was Nvidia hat, ist die Anbindung an die GPU was dann zu komischen Speichergrößen führt.
Hier kann man dann entweder sehr teure Chips mit "mehr Speicher pro Anbindung" nutzen oder man greift auf so Tricks wie bei der GTX970 (oder davor der 660Ti) zurück um überhaupt mehr Speicher unterzubringen.
 
  • Gefällt mir
Reaktionen: GUN2504
Zurück
Oben