Test Nvidia GeForce RTX 4060 Ti im Test: 8 GB sind in dieser Klasse für 439 Euro nicht mehr genug

JMP $FCE2 schrieb:
Im Prinzip verlängert die Speicherknauserei bei der 4060 und RX7600 die Lebensdauer der alten Grafikkarten, weil es die Spielehersteller dazu zwingt, sich noch länger mit 8 GB auseinanderzusetzen.
True that.

RDNA2 wäre auch noch eine Option, die ließen sich ja auch sehr effizient betreiben. Aber wenn mans nicht wirklich "braucht" (und das tut man selten ehrlicherweise) kann man das noch ein bisschen aussitzen.
 
Ich sag immer wieder, dass Nvidia was Speicher + Preise angeht einen auf Apple macht :)

Und wie viele schon sagten: die 4070 mit 12GB hätte die neue 4060(Ti) sein sollen, die 4060 Ti wiederum die neue 4050(Ti)...

Aber solange AMD auch nur halbgare neue Karten liefert, sind sich scheinbar alle einig...
 
  • Gefällt mir
Reaktionen: Peter_01, BorstiNumberOne und FrankN84
F1Freak schrieb:
Ich sag immer wieder, dass Nvidia was Speicher + Preise angeht einen auf Apple macht
Ja das wollen ja manche einfach nicht wahrhaben. Dabei hat es Nvidia schon selbst zugegeben:

https://www.3dcenter.org/news/news-des-9-juni-2023

"WCCF Tech zitieren einige nVidia-Aussagen, welche im Rahmen einer Analysten-Konferenz gefallen sind. Aufhänger ist hierbei die nVidia-Aussage, wonach der finanzielle "Ramp" der Ada-Lovelace-Generation um 40% besser als bei der Ampere-Generation verlaufen sein soll. Dies ist auf den ersten Blick irritierend, wenn die vorhergehende Ampere-Generation zum einen in den Cryptomining-Boom hineinlief, wo nVidia die Chips ergo aus den Händen gerissen wurden – und gleichzeitig der nVidia-Vertreter gegenüber den Analysten auch zugab, dass der zeitliche Ramp der Ada-Lovelace-Generation länger benötigte als es bislang bei nVidia normal war. Der Gund dafür, dass der rein finanzielle Ramp von "Ada Lovelace" derart erfolgreich ist, wurde dann allerdings in seltener Ehrlichkeit angegeben: Der Grafikkarten-Käufer bezahlte schon bei Ampere und nun verstärkt bei Ada Lovelace einfach deutlich mehr."

Und beim Thema vRAM ist das einfach mehr als schäbig, denn:

Grafikkarten: GDDR6-RAM sinkt auf Spottpreis-Niveau - 8 GiB für 27 US-Dollar

https://www.pcgameshardware.de/Graf...R6-RAM-Spottpreis-8-GiB-27-US-Dollar-1421668/

Und da wird Nvidia nochmal weniger für löhnen müssen als Großabnehmer.

Nvidia zieht alle Register es noch teurer zu machen und wird dafür auch noch abgefeiert. Verkehrte Welt.
 
  • Gefällt mir
Reaktionen: Verak Drezzt, LamaMitHut, FrankN84 und eine weitere Person
Zum Link zuvor:
"So etwas wäre zu früheren Zeiten innerhalb der 200-Dollar-Klasse realisierbar gewesen – und kostet nunmehr offiziell 399 Dollar für einen mageren Performance-Gewinn gegenüber der Vorgänger-Generation."

Pure Absicht das Ganze. Im Mining Boom wurde alles gekauft, egal zu welchem Preis.
Natürlich kann man die Preise über die Jahre nicht mehr vergleichen. Aber selbst durch Inflation etc. müsste die Karte 300-350 € kosten. Etwa 400-450 € würde nann für die 16GB Variante ansetzen müssen. Aber da liegt die UVP "noch" bei Preisen von 550 € (US$ 499).

Man hofft immer noch, dass AMD mit weiteren Karten, bspw. der 7700 XT wieder für etwas Konkurrenz sorgt. Leider hilft das nicht, wenn auch diese einen zu hohen Preis aufrufen. Nvidia hat weiterhin die Vorteile mit DLSS 3 sowie der hohen Effizienz. Das Marketing für die 4060 Ti scheint gut zu funktionieren. Die Karte ist ja "Mehr als schnell". Für ahnungslose Kunden dürfte das ein Anreiz zum Kauf sein, selbst in Fertig-PCs.
 
brabe hatte die Frage hier schon gestellt
https://www.computerbase.de/forum/t...icht-mehr-genug.2145100/page-47#post-28261132
und ich möchte sie hier spezifizieren.

Wie sieht es eigentlich mit Anwendersoftware, z.B. Blender, Davinci Resolve etc. auf einem PCIe 3.0er System mit einer RTX4060(TI) aus?
Dort müsste der Leistungsverlust durch die fehlenden Lanes eigentlich minimal sein oder nicht?
Die Daten werden zur GPU "hochgeladen" und dann wird mit Cuda oder OptiX gerendert.
Also ein "kleiner" Zeitverlust beim hochladen.

Oder kommen noch andere (negative) Eigenschaften von dem Gespann RTX 4060(TI) und PCIe 3.0 zum tragen?
 
cool wir bekommen eine XX50Ti chip als 4060 Ti xD

kein wunder das sie nichtmal die 3070 schafft ihr ziel ist auch nur die 3060ti

Das Spiel geht jetzt schon die ganze zeit mein die 4080 mit dem 103 las ich mir noch einreden wen eine 4080 ti dann mit 102 chip kommt.

aber Nvidia Übertreibt es richtig.

128 bit und 8 lanes ist Einsteiger und nichts für eine 4060ti
 
An sich ist es keine schlechte Karte, nur der Preis stimmt nicht.

Die Karte sollte unterhalb 300 Euro liegen. Wer noch mit Inflation rechnen mag, meinetwegen auch bis 330 Euro, aber mehr nicht. Bei den 330 Euro soll allerdings die nochmals kleinere 4060 liegen. Das wäre dann höchstens nur 4050 Niveau.
 
im endefekt richtig
das ding wäre normal eine 4050 vom chip.

aber so kann man die Preise erhöhen wen man den Golf als Passat verkauft.

Nvidia wollte uns ja eigentlich noch mehr verarschen mit einem XX70 chips als 4080 light
Jetzt wurde es halt nur eine 4070 Ti trotzdem wider um 1 größe Verarscht.

Leider Kommt AMD nicht aus dem Quark hoffe wen meine mall zu alt ist hat AMD endlich gleichgezogen
dann starte ich nochmal einen versuch auf Radeon umzusteigen.

hab ja eine 6700 2 Wochen Testen dürfen und war an sich Begeistert für mich war aber nach der 2080 Super klar es kann nur eine 3090/6900XT oder mehr werden.
 
Arnie schrieb:
brabe hatte die Frage hier schon gestellt
https://www.computerbase.de/forum/t...icht-mehr-genug.2145100/page-47#post-28261132
und ich möchte sie hier spezifizieren.

Wie sieht es eigentlich mit Anwendersoftware, z.B. Blender, Davinci Resolve etc. auf einem PCIe 3.0er System mit einer RTX4060(TI) aus?
Dort müsste der Leistungsverlust durch die fehlenden Lanes eigentlich minimal sein oder nicht?
Die Daten werden zur GPU "hochgeladen" und dann wird mit Cuda oder OptiX gerendert.
Also ein "kleiner" Zeitverlust beim hochladen.

Oder kommen noch andere (negative) Eigenschaften von dem Gespann RTX 4060(TI) und PCIe 3.0 zum tragen?
Würde mich auch interessieren... ich arbeite mit Kreativsoftware (Blender, Adobe 3D Suite), spiele gar nicht.
Bisher tut eine 2060 mit 12 GB ihren Dienst. Mit welchen Performance-Zuwächsen könnte ich hier rechnen?
nach Games-Benchmarks im Schnitt +70 / 80 % zur 2060?
Wäre die 4060 TI mit 16 GB hier eine Überlegung wert?
VRAM spielt hier teils noch eine deutlich größere Rolle als bei Spielen.
Natürlich nicht zum angepeilten Release-Preis von 550 €, aber für max. 480 € könnte ich schwach werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnador
Hatte eigentlich mal jemand getestet wieviel vram noch abgezogen wird wenn man den av1 encoder anschmeißt?
 
Ich habe Ende 2020 glücklich eine 3060ti geschossen und bin immer echt zufrieden gewesen.
Der Performancesprung war riesig und hat laut Benchmarks hier auf Computerbase sogar eine 2080 übertroffen (ich glaube sogar eine S). Mit der 4060ti sind 10% Leistungszuwachs bezogen auf den Vorgänger lächerlich... Zumal die höhere Speicherbandbreite der 3060ti die 8GB sogar noch schneller füttern und es deshalb weniger schlimm ist.

Klassischer NoBrainer: Nicht kaufen!
 
(...)Starte Dein Gaming Erlebnis
Die NVIDIA® GeForce® RTX™ 4060 Ti ermöglicht Dir Gaming. Egal ob spannende Story-Abenteuer oder rasante Duelle – mit ihr Du schnelles Gameplay und immersive Grafiken in bis zu 4K-Auflösung. Die effiziente Grafikkarte sorgt mit zweimal mehr Raytracing-Leistung für atemberaubende Lichteffekte, die Dich staunen lassen. Tauche ein in die immersiven Welten Deiner Lieblingsspiele: die NVIDIA® GeForce® RTX™ 4060 Ti macht es möglich.

https://www.medion.com/de/shop/p/co...-1-tb-ssd-16-gb-ram-core-gaming-pc-10025121A1

Ja super... Macht dann 1700 Euro für die Full HD Daddelkiste. Es handelt sich übrigens um die 8GB Variante.
 
Völlig überteuertes und fehlkonfiguriertes Angebot.

Ich hab's nicht nachgerechnet, aber übern Daumen gepeilt sollte das selbst mit 32 GB, 2 TB und Win11pro noch günstiger gehen. Den überteuerten Intel braucht niemand für so eine Spargrafikkarte, da reicht ein AM4-System mit 5600X/5700X oder 5800X3D.
 
@Wolfgang mal eine Frage hier wird in der Tabelle geschrieben die 4070 hätte 1 NVENC im 4070 in der Tabelle steht die in der Spalte mit 2X Hardwareencodern was ist denn nun der korrekte Wert?
 
Zurück
Oben