News Nvidia GeForce RTX 4060: Gerüchte und Benchmarks umreißen Leistungsniveau

Easy1991 schrieb:
Aha, ein Spiel ist also Maßstab für die Leistung einer Grafikkarte...
Zumindest die Spiele mit DLSS 3.
Komme spielend auf 100 FPS in 4K, das ist gut die doppelte Leistung einer 7900XTX, bei gleicher Bildqualität und extrem smoothen Gameplay.
Easy1991 schrieb:
Und es ging hier nicht um nvidia und amd im Vergleich, sondern nvidia mit nvidia verglichen...
Und da ist der Sprung durch Frame Generation halt extrem. Wo ich mit der alten Generation noch Probleme hatte, zieht die 4000er Generation einfach davon.

Easy1991 schrieb:
Doppelt so schnell beim selben Preis, wo bitte?
In allen Spielen mit FG ( DLSS3) und RT.
 
NoNameNoHonor schrieb:
wird das für viele DIE Karte werden, und das wird sich auch im Steam Hardware Survey wiederspiegeln.
...
Es sei denn es kommt eine AMD 7700 Karte heraus, die preislich in ähnlichen Regionen sich bewegen wird, aber mehr leistet.

Insbesondere für SFF wird das für viele DIE Karte werden. So genial effizient Navi 23 auch war es gab nur ein schlecht verfügbares Model <180mm (unseriös? 480€ oder direkt Amazon 800€ xD) ...die mit Abstand teuerste 6600XT während die <180mm RTX 3060 zu den günstigsten gehören und gut verfügbar sind! Und jetzt wird die NV Option auch noch sparsamer als Navi 33. Wenn man ein Upgrade zur R9 Nano (2015/28nm) will bleibt einem nur die völlig überteuerte 6600XT (500-800€) oder halt NVIDIA. Also sorry, wenn es von Navi 33 wieder nur aufgeblasene Plastikbomber gibt... Die RTX 4060 klingt gut und ist vorgemerkt.

@latiose88 ,also z.B. eine 6500XT würde ich jederzeit auf 75W drosseln. Verglichen mit dem Auslieferungszustand (Kotzgrenze 110W) macht das wahrscheinlich so gut wie gar nichts aus. NUR wird sie dadurch nicht zur LP-Karte. Die A2000 wird glaube ich ziemlich viel gekauft ( 500-650€?! xD ) weil LP und <75W... dazu dann ein Single-Slot Mod (~100€?). Die 160€ 6500XT sieht man selten...
 
In 2023 sind 8GB in FHD echt ein Witz. Ist doch lächerlich, wenn der Spieler an den Reglern fummeln muss, weil Nvidia so geizig ist.
Wenn ich hier lese, 8GB reichen für FHD locker aus usw. Tut es nicht. Es ist eine RTX Karte und da soll diese gefälligst in FHD max. Details in Texturen mit RT können, sowie DLSS usw. ohne dass VRAM Probleme nur in Nähe kommen. Wir reden hier von einer kommenden Karte, welche mindestens zwei Jahre in FHD alles schaffen sollte, und nicht von einer Billigkarte von 2020 aus einer Grabbelkiste.
 
  • Gefällt mir
Reaktionen: _roman_, Bänki0815, +++ und 4 andere
+++ schrieb:
Zumindest die Spiele mit DLSS 3.
Komme spielend auf 100 FPS in 4K, das ist gut die doppelte Leistung einer 7900XTX, bei gleicher Bildqualität und extrem smoothen Gameplay.
Nur steigen mit DLSS3 und FG die Latenz massiv, des weiteren wird nicht für jedes alte Game DLLS 3 angeboten und wie viele sind es zurzeit mit DLLS3.

Wirklich interessant wird die GEN GPUs erst ab RTX4060/50/40 da könnte massive Ernüchterung eintreten grade bei NV dort werden einfach Mobile GPUs benutzt wie bei der RX6500. ;)
 
  • Gefällt mir
Reaktionen: .Snoopy.
+++ schrieb:
Zumindest die Spiele mit DLSS 3.
Komme spielend auf 100 FPS in 4K, das ist gut die doppelte Leistung einer 7900XTX, bei gleicher Bildqualität und extrem smoothen Gameplay.

Und da ist der Sprung durch Frame Generation halt extrem. Wo ich mit der alten Generation noch Probleme hatte, zieht die 4000er Generation einfach davon.


In allen Spielen mit FG ( DLSS3) und RT.

Du kannst mit Grafikfehlern und absurdem Inputlag leben? Ich hoffe du erlangst nie einen Führerschein, da deine Ampeln immer grün sind!
 
  • Gefällt mir
Reaktionen: vti, Bänki0815, anarchie99 und 6 andere
GeForce RTX 4070 Laptop = RTX 4070 Desktop (mit mind. 18Gbits Vram?)
GeForce RTX 4060 Laptop = RTX 4060 Desktop (mit 18Gbits Vram)

klingt logisch!

Ansonsten bin ich fasziniert, dass die mobile RTX 4090 mit Raytracing so schnell ist wie die ausgewachsene RX 7900XTX :stacheln: - ja es ist ein RTX 4080 Ti Chip - aber dennoch.

Könnte man bitte die Notebook Varianten als "RTX-U" GPUs verkaufen?!
 
Mcr-King schrieb:
Nur steigen mit DLSS3 und FG die Latenz massiv, des weiteren wird nicht für jedes alte Game DLLS 3 angeboten und wie viele sind es zurzeit mit DLLS3.

DLSS3 und FG ist ja dasselbe. Du meinst wahrscheinlich DLSS2 aka Upsampling (was ja weiterhin entwickelt wird) und FG. Und während bei Frame Generation alleine die Latenz tatsächlich steigt, senkt DLSS2 die Latenz auf ein noch niedrigeres Niveau, deswegen ist da beides gut kombinierbar.
 
k0n schrieb:
@latiose88 ,also z.B. eine 6500XT würde ich jederzeit auf 75W drosseln. Verglichen mit dem Auslieferungszustand (Kotzgrenze 110W) macht das wahrscheinlich so gut wie gar nichts aus. NUR wird sie dadurch nicht zur LP-Karte. Die A2000 wird glaube ich ziemlich viel gekauft ( 500-650€?! xD ) weil LP und <75W... dazu dann ein Single-Slot Mod (~100€?). Die 160€ 6500XT sieht man selten...
meinst du mit LP etwa Low Played oder Lets Play Karte damit?
Und joa die ist echt sehr stark.Also tests zeigten da bis zu 75% teilweise mehr leistung als bei der gtx 1650 an.

Das ist durchaus echt beeindruckend.Aber auch der Preis ist nicht ohne. Und joa bis zu 70 Watt von 95 Watt ist echt nicht viel,das merkt man wirklich nicht mehr.Wäre durchaus eine Alternative,nur halt das der Geldbeutel ganz schön dick sein muss,um das zu Finanzieren.Sonst ist es ja gut.Und so gut kann die rtx 4050 ti bzw 4060 garnicht sein.ALso zumindest auf Full HD ebene.DIese GPU wird gewiss auch nicht Preiswert,das kann man jetzt schon sagen.
 
kachiri schrieb:
Gegenüber einer 2060 hat die 3060 auch nur ~20% zugelegt.

Im CB Test waren es 26% in WQHD. Und sie wurde um 10% MSRP günstiger.
Dazu gab es noch 12GB Vram.

Aber wie gesagt- alles gut. Einfach kaufen und glücklich werden.
 
  • Gefällt mir
Reaktionen: vti
scheru schrieb:
Im CB Test waren es 26% in WQHD. Und sie wurde um 10% MSRP günstiger.
Dazu gab es noch 12GB Vram.
Die 2060 gab es später Jan22 mit einem leicht besseren Chip auch als 12GB+192bit und die war wirklich gut.

8GB und 128bit pfui NV, am besten noch für schlanke 649€ :P

mfg
 
JanMH schrieb:
Das hört sich für mich nicht so gut an. Es wäre schöner wenn die Karte, sollten sich die Gerüchte bis hier hin als wahr erweisen, 12GB oder noch besser 16GB RAM haben. 25 Prozent schneller als die 3060 wären auch toll. Mal sehen wie es am Ende dann wird.

du glaubst doch nicht ernsthaft das sie mehr Ram haben wird als eine 4070ti, lol
 
Gortha schrieb:
Warum? Wenn die Leute FullHD spielen, ist das vollkommen ausreichend.
Also beim Benchmark bei meinem The Division 2 ,Alles auf Max, zeigt er 11.5 GB belegten Speicher an, bei Full HD, könnte also für die 12GB Besitzer in Zukunft etwas eng werden.
Ergänzung ()

McFly76 schrieb:
Wer ist bereit für eine FullHD Grafikkarte > 500 € zu bezahlen ?
Die letzten 7 Grafikkarten ( für 1080p / WQHD ) die ich gekauft habe kosteten neu nie mehr als 300 € und haben auch schon 8 GB VRAM.
Es geht darum dass man nicht mehr GPU Leistung bekommt wie in den letzten 5 Jahren aber dafür fast das doppelte bezahlen soll.
Meine Nicht-FullHD Karte hat mich vor einigen Tagen 379 Euro + Versand gekostet. Kommt immer darauf an, welche Ansprüche man hat, ob man den ganzen Tests glaubt oder sich dann in der Realität positiv überraschen lässt. Und für welche Anwendungsszenarien die Karte gedacht ist. :heilig:
 
PTS schrieb:
du glaubst doch nicht ernsthaft das sie mehr Ram haben wird als eine 4070ti, lol
Die 3060 hatte auch mehr speicher (12GB) als die 3070ti. Würde also nicht ausschließen dass nvidia wieder eine Karte für Speicher fetischisten raus bringt.
Solange die langsam genug ist dass sie künftige Generationen nicht gefährdet stört das nicht in nvidias Strategie.
 
Mal aus der Praxis:

Die 1060 6GB kackt bei hogwarts legacy selbst in fHD low settings ab.

Eine RX590 8GB kommt fast auf GTX1070 Niveau...

Auf lange Sicht sind solche Karten immer die Verlierer.
 
the division2 benchmark dedicated vram process 9gb von 12
game vram belegt 9,75gb
etwa 500mb in shared vram = pcie bus Datastreaming vom ram
rtx3060 12gb
r7 3800xt
32gb ddr4 3600
Das wird sich alsbald nicht ändern.
1677049041777.png


ich habe den mal gemacht vor Wochen bevor ich feststellen musste das Fh4 andauernd abstürzt und bin dann zum 512,95 zurück ohne rbar.
Und ohne rbar läuft die gpu in ein heftigen cpu limit.

leider ist rbar instabil auf nicht unterstützten cpu. Siehe rbar offiziell bei amd am4 erst ab zen3 ryzen 5000
Es kann gehen sollte aber nicht.
Auch nebenbei rbar bei nvidia und intel ci 11 und 12th gen derzeit instabil
Dies ist auf einen Fehler beim intel chipsatztreiber geschuldet
für die 12th gen gibt es ältere Treiber dies temporär fixen mit einen bestimmten geforce Treiber Reversion unter der 500 gen.
Ursache wird vermutlich der Dch zwang sein aber eher intel Versäumnis dies einzureichen.
Somit wird der letzte funktionierende Treiber wohl 472.xx sein

Daher sehe ich rbar definitiv nicht als standard an. Und man sollte dies nur dann nutzen wenn man eine unterstützte Plattform hat.
Und bei euch nen ci 12th gen sollte man das berücksichtigen.
Und da der r472 nicht mit der rtx40 gen funktioniert sind die Test irreführend. Zumal es fehlt immer noch die gpu load Angabe.

Ein Treiber ist dann erst stabil wenn keine issues im Dokument stehen. Abseits deren von dem nvidia nicht schuld ist.
 
Mcr-King schrieb:
Nur steigen mit DLSS3 und FG die Latenz massiv,
Durch Reflex inkl. Boost wird das so stark abgemildert, dass es sich so anfühlt wie echte 100 FPS. Massiv ansteigen tut da somit gar nichts. Habe das alles getestet und verglichen, auch mit meiner alten Radeon. Es ist effektiv die doppelte Leistung für dasselbe Geld.
Mcr-King schrieb:
des weiteren wird nicht für jedes alte Game DLLS 3 angeboten und wie viele sind es zurzeit mit DLLS3.
Davon hab ich auch nicht gesprochen.
Ergänzung ()

gedi schrieb:
Du kannst mit Grafikfehlern und absurdem Inputlag leben?
Da wäscht jemand schmutzige Wäsche.
Das ist definitiv nicht wahr. Rein theoretisch konnte man bei sehr schnellen Bewegungen und Aufnahme der einzelnen Bilder Verschiebungen von overlays feststellen , die in Cyberpunk aber schon weitgehend behoben wurden.

Aber auch das habe ich mir natürlich angeschaut, um die Qualität von FG beurteilen zu können und es funktioniert hervorragend. Bildqualität ist erste Sahne.
gedi schrieb:
Ich hoffe du erlangst nie einen Führerschein, da deine Ampeln immer grün sind!
Ich hab natürlich vergessen, dass ein Feature erst dann cool und sinnvoll ist, wenn der ewige zweite nachgezogen hat.
Vielleicht besteht AMD auch bald den Frame Generation Führerschein...
 
Zuletzt bearbeitet:
gedi schrieb:
Du kannst mit Grafikfehlern und absurdem Inputlag leben? Ich hoffe du erlangst nie einen Führerschein, da deine Ampeln immer grün sind!

In der Praxis ist da absolut nix absurd es geht hier ja nicht um Sekunden wie deine Aussage hier assoziieren lässt, da fühlt sich eine schlechtere DSL Leitung oder V-Sync alleine schlechter an.
Und die "Grafikfehler" sind auch sehr speziell und nur bei sehr genauer Betrachtung zu erkennen.
Klar die gibts, aber für den Großteil der Spiele würde einem das nicht auffallen, wenn man nicht wüsste das DLSS 3 aktiv ist und man aktiv danach sucht. Einzig in F1 habe ich davon was mitbekommen, da war das tatsächlich nicht optimal. Habe das ansonsten mittlerweile in Spider-Man und in Returnal probiert und war ziemlich begeistert, wie gut das funktioniert.
 
PTS schrieb:
du glaubst doch nicht ernsthaft das sie mehr Ram haben wird als eine 4070ti, lol
Glauben ist so eine Sache. Ich hoffe es. Schließlich hatte die 3060 auch mehr RAM als die 3070Ti. Also hoffe ich das Nvidia mal seine drei Gedanken zusammen nimmt, und daß bei der 4060 wieder so macht.
 
gedi schrieb:
Du kannst mit Grafikfehlern und absurdem Inputlag leben? Ich hoffe du erlangst nie einen Führerschein, da deine Ampeln immer grün sind!
Grafikfehler sind mir keine aufgefallen und vom Inputlag merke ich nichts. Ihr macht da ein größeres Drama draus, als es wirklich ist und ich wette, dass die meisten Hater noch nie FG selbst getestet haben.
Wenn man keine Ahnung hat...

Heult halt weiter die Foren voll. Ich genieße währendessen 4K mit 144 FPS und bin dabei auch noch sparsam unterwegs.

Mcr-King schrieb:
Nur steigen mit DLSS3 und FG die Latenz massiv, des weiteren wird nicht für jedes alte Game DLLS 3 angeboten und wie viele sind es zurzeit mit DLLS3.
Mit dem Argument darfst du keine AMD Karte nutzen, weil die Latenz mit FG idR. immer noch niedriger ist als nativ und AMD Karten können nur nativ.
 
Zurück
Oben