News Nvidia GeForce RTX 4060: Gerüchte und Benchmarks umreißen Leistungsniveau

SCP-067 schrieb:
Erst die 3060 mit 12 und dann die 4060 wieder mit 8GB? Hmm... 🤔
Korrekt ist es so:
Erst die 3060 mit 12 GB und 192 Bit Speicherbus
dann die "neue" 3060 mit 8 GB und 128 Bit

... so lässt sich natürlich auch eine 4060 mit 8 GB verkaufen. Schaut mal, genau so viel Speicher wie der Vorgänger.

Das einzige, was ich bei der 4060 abfeiern würde, wäre die niedrige TDP. Der hohe Stromverbrauch / benötigtes Netzteil ist eigentlich das, was mich (noch) vom Kauf einer A750 abhält.
 
  • Gefällt mir
Reaktionen: k0n und Mcr-King
Dazu kommt das die 8gb der neuen rtx3060 sogar langsamer wird durch die gesunkende Speicherbandbreite 360 vs 240gb/s und das das sind mal locker 20% an fps
 
  • Gefällt mir
Reaktionen: vti, C4rp3di3m, k0n und eine weitere Person
GutGilliganHyde schrieb:
Mal aus der Praxis:

Die 1060 6GB kackt bei hogwarts legacy selbst in fHD low settings ab.

Eine RX590 8GB kommt fast auf GTX1070 Niveau...

Auf lange Sicht sind solche Karten immer die Verlierer.
Sehe ich nicht so. Habe ein Video mit einer Gtx 1650 gesehen und die ist ja schwächer als ne Gtx 1060 und da lief das game mit mittlere Details auf full hd flüssig. Ich weiß ja nicht ob du das selbst gespielt hast so oder nur auch ein Video gesehen hast.

Nur wie kommt es das der 1650 besser ist als die 1060? Macht irgendwie keinen sinn.



Achja zu dem anderen thema FG erzeugt nen inputlag also Verzögerung. Nicht jeder merkt das weil nicht jeder gleich stark empfindlich ist.

Ich würde das wohl merken, mein bester Kumpel dagegen 0. Der merkt nicht wenn es leicht ruckelt. Woher die Differenzen her kommen, kann ich leider nicht sagen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Also in meinem nächsten PC (sofern ich das Geld mal zusammen bekomme), wäre eine 4060 schon als Nachfolgerin meiner 1060 nicht falsch. Braucht auch nicht mehr Strom, bietet aber dann neueste Technik. Etwas mehr VRAM wäre nett, aber die größeren Karten kosten dann gleich wieder ne Ecke mehr.
 
GutGilliganHyde schrieb:
Mal aus der Praxis:

Die 1060 6GB kackt bei hogwarts legacy selbst in fHD low settings ab.
Kann ich nicht bestätigen. Spiele auf meinem Notebook in Full HD mit GeForce 3050 4GB + DLSS und Texturen normal, sonst alles ein Mix aus niedrig bis Mittel und hab zwischen 40 und 50 Fps. Raytraycing Off.

GutGilliganHyde schrieb:
Auf lange Sicht sind solche Karten immer die Verlierer.
Die Texturqualität finde ich nicht so wichtig wie Sichtweite, Schatten, Objekte usw.

nomika schrieb:
Etwas mehr VRAM wäre nett, aber die größeren Karten kosten dann gleich wieder ne Ecke mehr.
Die Hoffnung auf eine 16GB Variante stirbt ja nicht.
 
@+++, woher bist du dir sicher das auch alles angezeigt wird?

Das Spiel lässt doch einfach mal etwas aus um einen flüssigen Spielverlauf aufrecht zu halten.
Mit DLSS bewegst du dich auch zwischen 480-720p, dementsprechend ist der Vram Verbrauch niedriger + Fehlende Texturen.
 
  • Gefällt mir
Reaktionen: vti und Mcr-King
Kann ja gerne wer von euch ausprobieren. Diese future gibt es ja nicht unter Gtx 1060 oder Gtx 1650 oder haben die es so das game programmiert um die Nachteile zu kaschieren?

Können ja mal genre wer von euch das future im Game deaktivieren das dies so macht. Wenn das dann wirklich so ist muss man halt dann auf 720p freiwillig gehen. Dann ist die Auflösung auch nativ und es wird dann auch keine Details verschluckt. Zudem ist das game dann auch wirklich flüssig.

Ich merke schon das wird echt eng. Habe mal geschaut ob eine Gtx 750 ti noch damit geht. Es gibt tatsächlich einen der das testet. Auf alles auf niedrigste mit 720p läuft es dann doch flüssiger als ich damit gerechnet hatte. Auch wenn 40 fps nicht der burner ist aber finde ich echt klasse das man mit so alten gpus denn überhaupt heutzutage noch zocken kann. Da haben sich ja mal solche Spiel Entwickler echt Mühe gegeben.
 
  • Gefällt mir
Reaktionen: Mcr-King
latiose88 schrieb:
Sehe ich nicht so. Habe ein Video mit einer Gtx 1650 gesehen und die ist ja schwächer als ne Gtx 1060 und da lief das game mit mittlere Details auf full hd flüssig. Ich weiß ja nicht ob du das selbst gespielt hast so oder nur auch ein Video gesehen hast.

Alles aus erster Hand Erfahrung.
GTX 1060, GTX 1070, Rx590, RX7900XT.

Der 1060 geht am schnellsten die Puste aus.
 
  • Gefällt mir
Reaktionen: scheru, vti und Mcr-King
ssh schrieb:
No shit! Die Karte ist bald 7 Jahre auf dem Markt McFly!

Und die RX590 nicht?

Um genau zu sein, ist die Basis davon sogar noch älter...
Trotzdem kommt sie spürbar besser weg und kratzt eher an der GTX 1070.
 
  • Gefällt mir
Reaktionen: scheru, danyundsahne, vti und 2 andere
MrHeisenberg schrieb:
dass die meisten Hater noch nie FG selbst getestet haben.
Macht aber CB und beim letzten Game doch echt stark gestiegen mit FG DLSS 3 und auch Bildqualität nicht gut. 😉

Also hängt immer damit zusammen ob man Geld bekommt von NV oder nicht 😉.

Auch ist es so wie viele kaufen sich wohl eine RTX4070 ti aufwärts ab warten was die einstige Lösungen der RTX40er bringen wird.

Ich gehe davon aus nicht viel im Vergleich zur RTX30er da liegt dass Problem. 😉
 
Mcr-King schrieb:
Macht aber CB und beim letzten Game doch echt stark gestiegen mit FG DLSS 3 und auch Bildqualität nicht gut. 😉
Bei welchem Game?
Ich bezweifel, dass die Latenz mit DLSS3 FG schlechter als nativ ist. Die Bildqualität schwankt je nach Game, aber bei Atomic Heart und A Plague Tale war sie nahezu perfekt. Fehler musste man mit der Lupe suchen.

Mcr-King schrieb:
Also hängt immer damit zusammen ob man Geld bekommt von NV oder nicht 😉.
Aber klar. Schmilzt der Aluhut schon?
 
  • Gefällt mir
Reaktionen: DaHell63
PegasusHunter schrieb:
Also beim Benchmark bei meinem The Division 2 ,Alles auf Max, zeigt er 11.5 GB belegten Speicher an, bei Full HD, könnte also für die 12GB Besitzer in Zukunft etwas eng werden.
Du vergleichst Äpfel und Birnen...
du hast eine Intel Karte mit 16 GB Vram. Das erkennt Treiber sowie Spiel.
Dementsprechend viel oder wenig VRAM wird vom Spiel in Anspruch genommen (allokiert) und belegt.
Dies kann je nach Spiel-Engine dann varrieren, wieviel des Verfügbaren VRAM diese in Anspruch nimmt.
Natürlich gibt es eine Untergrenze die für bestimmte Details benötigt wird, ist jedoch mehr VRAM als mindestens notwendig vorhanden, kann das Spiel auch mehr Cachen.

Einfach gesagt; TL:dr:
Du kannst nicht einfach so ATI/AMD, Intel, NVidia Karten sowie dann noch mit unterschiedlichen VRAM-Kapazitäten(6GB,8GB,10GB,12GB,16GB,24GB) im Speicherbedarf in Spiel XYZ gleichstellen.
Auch wenn du diese selben Grafikeinstellungen wählst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C16+4, Nine-tailed Fox und Pelzi
Pelzi schrieb:
Die 3060 hatte auch mehr speicher (12GB) als die 3070ti. Würde also nicht ausschließen dass nvidia wieder eine Karte für Speicher fetischisten raus bringt.
Solange die langsam genug ist dass sie künftige Generationen nicht gefährdet stört das nicht in nvidias Strategie.

wenn es mehr werden wird es aber nur der langsame ram sein... macht doch keinen sinn^^
 
GutGilliganHyde schrieb:
Trotzdem kommt sie spürbar besser weg und kratzt eher an der GTX 1070.

AMD's "Fine Wine" ist ja nichts neues. Ob nun AMD Karten besser werden oder EHER NVIDIA's schlechter... wenn sie z.B. nicht mehr die nötige Aufmerksamkeit bekommen (mit Absicht? :evillol: ).

Oder ein CPU Limit? Da ist die RX 5700XT je nachdem auch mal schneller als eine RTX 3090. Heute schon... ;)


ssh schrieb:
Wenn man mit so alter Hardware leben muss, dann sollte man seine Lebensentscheidungen überdenken

So ein Quatsch...
 
  • Gefällt mir
Reaktionen: Mcr-King
Mir selbst ist Aufgefallen dann VRAM sehr wohl genutzt wird, z.B. vorher die 2060-12GB die ich hatte wurde Getestet und als Angeblicher Speicherblender gebranntmarkt. Meine Erfahrung war eine ganz andere!

Ich konnte mit der Karte in 1440p immer alles auf Ultra, ohne RT und DLSS versteht sich, das interessiert mich beides kein Stück, alles flüssig Spielen. Alles was über min. 30FPS geht ist für mich in Akzeptabel.
Meistens lieferte die Karte durchweg um die 60 oder mehr. Bei fast jedem Spiel wurde der VRAM voll genutzt und auch das Speicherbus 192bit lief immer auf Anschlag. Zu dem war das auch eine PCiE 16x Lanes Karte!

Was viele Vergessen, auch wenn von der Engine nicht so viel VRAM gebraucht wird, so wird viel Vorgepuffert dann, was wiederrum auch für mehr FPS sorgt idR. daher macht viel VRAM schon viel aus je nach Spiel.

Meine letzten drei Karten waren; R9-390+ mit 8GB 512bit BUS!, RTX2060-12GB mit 192bit und nun die RX6900XT mit 16GB und 256bit.

Für mich als Kunde wäre es absolut inakzeptabel weniger als 12GB/16GB und 192bit ist ebenso das totale Minimum und dass aber auch nur bei 16X Pci Anbindung.

Tja und was wird immer öfters geboten PCi bis 4/8X, 128bit Krüppel und 8GB VRAM, zum Preis jenseitz von gut und böse. Könn´se behalten!

mfg
 
  • Gefällt mir
Reaktionen: vti
nun ist alles eine Frage der Perspektive.Es kommt auch auf die Auflösung drauf an.
Dann auch noch der Preis und wie viel die GPU jemals an Strom verbraucht.Mir schon klar das die meisten eher auf Leistung als auf den Stromverbrauch achten,sieht man ja immer wieder.WIe nach dem Motto was interessiert mich wieviel sie braucht,die Leistung ist mir wichtiger und so.
So ist das was ich so dran beobachte.

Oder so aussagen wie mit Onbard GPU könnte man nicht zocken,weil viel zu schwach für Aktuelle Games usw.
 
  • Gefällt mir
Reaktionen: Mcr-King
C4rp3di3m schrieb:
Meine letzten drei Karten waren; R9-390+ mit 8GB 512bit BUS!,
Die Speicherbandbreite ist als Spezifikation nahezu irrelevant.
Was lange zählte war der Durchsatz, welcher jetzt mit den dicken Caches auch nicht mehr so relevant ist...
C4rp3di3m schrieb:
.Fürr mich als Kunde wäre es absolut inakzeptabel weniger als 12GB/16GB und 192bit ist ebenso das totale Minimum und dass aber auch nur bei 16X Pci Anbindung.
Dann ist ohne Raytracing zu spielen der weit größere BQ Verlust als Ultra Textureinstellungen.
Ergänzung ()

k0n schrieb:
Oder ein CPU Limit? Da ist die RX 5700XT je nachdem auch mal schneller als eine RTX 3090. Heute schon... ;).
Gilt genauso oft umgekehrt, sieht die letzten beiden Spieletests hier auf CB.
 
naja finde ich nicht.Ich habe schon gesehen was Raytracing so ist.Beste beispiel im negativen ist The Ascent.Das spiegelte so stark,das man so keine Missionen mehr machen kann.Es lenkt nur von den Missionen ab.Es mag zwar nett aussehen,aber das war es schon.So nen richtigen Killer Future sehe ich das nicht.Ich brauche auch nicht die maximale Details weil sowas wie Anbient Occlusion schalte ich grundsätzlich ab.Mich stören dies Randverschattung schon tierisch.Andere würden es dann als Hölzern rüber kommend bezeichnen .Mich stört das nicht.Die FPS klettern dafür nach oben. Ist zwar eigentlich nicht nötig aber mehr FPS ist immer gut,hat man dann puffer für was anderem.
Mir sind also die Ultra Texturen wichtiger.Ich würde sogar die AUflösung runter stellen bevor ich die Texturen runter stellen würde.Also jeder setzt die Priotäten anderst hoch.
 
Ich frag mich, wie ich die letzten 2 Jahre mit meiner 3080 10Gb in 4 k spielen konnte. Laut den meisten Usern hier ja unmöglich.
Sry Leute, 90 Prozent der Kommentare hier sind einfach nur Müll. Plappert nicht alles nach, was irgend welche idioten von sich geben. Es wird natürlich immer irgend welche Ausnahmen geben, wo der vram zu knapp wird, nur sind das vielleicht 1 Prozent aller spiele und die sind meist noch im Beta Status zum Release (mittlerweile ja Standard) .
Ich kann nur sagen, ich war 2 Jahre sehr zu frieden, wenns mal Probleme gab, dann nur weil der Karte die Rohleistung ausging und nicht weil der vram voll gelaufen ist. Daher sehe ich auch kein Problem für die 8gb bei der 4060. Der Preis ist natürlich ein anderer Punkt.
 
  • Gefällt mir
Reaktionen: SonyFriend
Zurück
Oben