News Nvidia zur GeForce RTX 4060: Grafikkarte bringt 13 mal mehr Leistung* und „Less Power“

Kreativ.

Für 249€ wär das sicher ok. Tragisch auch wie die Leistungssteigerung krass abnimmt seit der 1060, aus 8x werden 1,6x ggü. der 2060 und 1,2x ggü. der 3060. Schon zwischen 2060 und 3060 hat sich kaum was getan und jetzt herrscht wohl vollkommene Flaute.

Ich find DLSS3 sehr nice, tolle Sache, aber jetzt soll nVidia wenn sie das so krass betonen im Marketing doch mal erklären wie ich das dann in zumindest 50% meiner Games aktivieren kann.:daumen:

Denn ansonsten kann man das als nice to have abstempeln und nicht als DEN Aufhänger damit die Karte überhaupt noch irgendwas reissen kann.

Aber so inkonsequent wie die Leute sind wird auch DAS Produkt seine Abnehmer finden. 😂
 
  • Gefällt mir
Reaktionen: Nobbi56, bardh, ThePlayer und 3 andere
Wem DLSS 2 ausreicht, wird die 3060 Ti kaufen - denn die kostet genauso viel und ist deutlich leistungsfähiger.
Und wer viel Speicher benötigt, greift zur 3060 12GB.
 
  • Gefällt mir
Reaktionen: Copium und vti
Vom Grundaufbau/Layout, TDP, Chip-Namen usw. ist die 4060 die Nachfolgerin der 3050, zumindest sehe ich das so. ROP-Menge, Rasterizer und Gemetrie einheiten etc.
Ich bin mir sicher, dass diese Karte eigendlich die 4050 für 329€ geworden wär falls der Mining-Boom nicht zum Erliegen gekommen wär.
Ganz trocken:
die 4060Ti würde 4060 heißen
die 4060Ti 16GB wäre die einzige 4060Ti und die anvisierten frechen 500€ sprechen auch genau diese Sprache.
 
  • Gefällt mir
Reaktionen: 8BitsGotBite, Tzk, fox40phil und 5 andere
330€ für eine Einsteigerkarte? Wow
 
  • Gefällt mir
Reaktionen: Alpha.Male und lynx007
Pelzi schrieb:
Es gibt keine Stagnation. Es gibt 30-40% weniger leistungsaufnahme.
Nochmal: die Leistungsaufnahme ist kein Argument. Ich will fps pro Euro und nicht irgendwelche Bullshit-Argumente, die ich teuer bezahle, mir aber nichts bringen.

Vermarkte die Karte mit dieser Leistungsaufnahme als 4050 und alles ist gut, nur da müsste man halt auch weniger bezahlen, wäre doof von Nvidia.

Pelzi schrieb:
Die Grakapreise sind innerhalb des letzen Jahres bereits 30% gefallen. Und das trotz Infaltion, trotz chipkrise und trotz AI-Boom.
Es dürfte relativ klar sein, dass der Corona-Peak und sein abklingen kein Indikator für einen normalen Markt ist. Wenn du möchtest, kannst du dich gerne über 460 fortfolgend informieren, um nicht nur einen (Ausreißer-) Datenpunkt zu haben.
Pelzi schrieb:
Dann verzichte, aber wenn du nicht 2K für deine Grakas ausgeben wilslt in Zukunft, oder die Einstellungen massiv herunter drehen, dann wirst du um diese AI Features in Zukunft nicht herum kommen.
Ok danke für diese Information frisch aus deiner Glaskugel.
Pelzi schrieb:
In der heutigen Zeit finde ich es richtig und wichtig, dass es nciht nur immer mehr Energie frisst, sondern auch mal wieder reduziert wird.
Und wieder das Energieverbrauchs Bullshit-Argument. Du kaufst dir also ein reines Gewissen, indem du Nvidia mehr Geld in den Rachen steckst für eine 4060 die eigentlich maximal eine 4050 wäre für 60% des Preises. Kann man machen, klar, wem es was bringt.

Pelzi schrieb:
Früher war Energieverbraucha uch Egal. Deshalb sind wir in der Situation in der wir sind.

Nochmal: Ich habe kein Problem damit, wenn du eine sparsamere GPU haben möchtest. Das ist dein Ding, kannst du machen. Muss jeder selber entscheiden, ob er sich mit der Energieverbrauchs-Argumentation das Geld aus der Tasche ziehen lässt.

Das ändert aber nichts an dem Fakt, dass früher sowas durch die KLEINERE, GÜNSTIGERE Modellreihe der nächsten Generation realisiert wurde, nicht durch das gleichteure oder teurere, unmittelbare Nachfolgermodell.

Pelzi schrieb:
Und auch früher gab es die selbe Klasse nicht zum abverkaufsverkaufspreis des Vormodels, sondern dann eben 30% drüber.
Hier redet kein Mensch vom Abverkaufspreis...
 
  • Gefällt mir
Reaktionen: EdgariuS, 4lter5ack, mythson und 22 andere
Laut TechPowerUp haben AD106 und AD107 32MB L2... 24MB bei der RTX 4060 habe ich schon öfters gesehen bei der 4060Ti bisher nur hier. Was stimmt? Ist die RTX 4060 kein Vollausbau sondern beim Cache beschnitten, oder hat der AD107 nur 24MB L2?

Die Karte ist ja OK nur zu teuer und unter falschem Namen. Nennen kann die NVIDIA die wie sie wollen, aber der Preis muss runter. Ich hatte die Diskussion mit einem jüngeren Kollegen... zu Beginn von RDNA2 und Ampere, wenn man DLSS und Zeug akzeptiert dann wird NVIDIA natürlich nach DLSS Balkenlänge bepreisen. Es wurde bei ihm irgendwann dann eine 3080Ti (wegen den 12GB) zu heutigen 4090 Preisen. Die 6900XT zur UVP (999€) zu unattraktiv.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Copium, Michael vdMaas und Vitche
ThirdLife schrieb:
Für 249€ wär das sicher ok. Tragisch auch wie die Leistungssteigerung krass abnimmt seit der 1060, aus 8x werden 1,6x ggü. der 2060 und 1,2x ggü. der 3060. Schon zwischen 2060 und 3060 hat sich kaum was getan und jetzt herrscht wohl vollkommene Flaute.
Der Sprung von der 1060 zu den späteren RTX-Karten ist nur bzw. in erster Linie so groß, weil Nvidia bei denen DLSS (ich vermute Performance) nutzt. Die 1060 kann das natürlich nicht und fällt komplett ab.

k0n schrieb:
Laut TechPowerUp haben AD106 und AD107 32MB L2... 24MB bei der RTX 4060 habe ich schon öfters gesehen bei der 4060Ti bisher nur hier. Was stimmt? Ist die RTX 4060 kein Vollausbau sondern beim Cache beschnitten, oder hat der AD107 nur 24MB L2?
Der AD106 und die 4060 Ti haben tatsächlich 32 MB L2-Cache, das war hier in der News ein Fehler in der Tabelle (der nun behoben ist, danke für den Hinweis). Was den Vollausbau des AD107 angeht, weiß ich es nicht, bei der 4060 (ohne Ti) jedenfalls spricht Nvidia selbst von 24 MB. Das stand und steht im Artikel also korrekt.
 
  • Gefällt mir
Reaktionen: Redundanz, fox40phil, McTheRipper und 4 andere
SHEG schrieb:
Habe mit diesen ganzen Software-Lösungen, um Leistung zu gewinnen (bzw. zu sparen) und mehr FPS zu generieren, wie Frame Generation und KI-Upsampling keinerlei Erfahrung. Sind das denn alles wirklich gute Alternative zu "echten" gerenderten Bildern in voller Auflösung? Oder ist das alles Blenderei und Kundenveräppeln?

Habe Weihnachten 2022 noch eine RX 6700 XT für knapp über 400 € gekauft, weil ich aufrüsten musste und davon ausgegangen bin, dass die nächste Generation sich leistungstechnisch und preislich einreihen wird. Infolgedessen, würde auch der Preis der GraKa nicht mehr signifikant fallen - so meine Annahme. Mit ersterem hatte ich anscheinend recht, aber die 6700 XT gibt es jetzt für 340€ und darunter :grr: - klar immer noch teurer, aber eben günstiger. :freaky:

Bin sowohl von AMD als auch von Nvidia bisher sehr enttäuscht von der neuen GPU-Generation und etwas besorgt um die aktuelle Entwicklung, Mehrleistung über Zusatzkerne und Software herauszuholen. Es kommt mir irgendwie vor wie: Früher hatten wir verlustfreie Bitmap-Games und jetzt JPEG-Spiele...

Es gibt FSR von AMD zur Hochrechnen der Auflösung. Version 1 ist naja. FSR2 ist tatsächlich wirklich super mMn. Macht aus 540p ca 900p von der Qualli her wenn die Endauflösung 1080p ist. FSR2 läuft auf allen Grafikkarten. DLSS2 ist minimal besser aber nimmt sich nicht viel. Läuft aber nur auf Nvidia Karten.
Dieses Frame Generation+DLSS2 ist DLSS3. Das ist eine Zwischenbildberechnung wie wir vom TV kennen. Viele Tests sagen das ist nur gut bei über 90fps an der Endausgabe. Ein Spiel von 30 auf 60fps zu skalieren sieht zwar gut aus aber der Input Lagg soll die Hölle sein.
 
  • Gefällt mir
Reaktionen: xXDariusXx, EntelodonX, Shy Bell und eine weitere Person
ui das ist ja schwach.ALso 10% mehrleistung also ,da ich die ollen Future ja eh nicht Nutzen will.Mir ging es um die reine rohleistung mit sparsamkeit als Ziel.
Also ich bin ja fürs Stromsparen kein Thema aber ich scheine definitiv die falsche zielgruppe zu sein.Ich kam von der gtx 1060 und wechselte freiwillig zur gtx 1650 weil ich nur mimal Leistung verlor also 30 % um den dreh aber dafür fast die hälfte an Strom verbrauch gespart hatte.Mir ist schon klar das man durch fps Limitierung noch mehr herausholen kann,was ich auch gemacht hatte.Beides kombiniert ist das ware Stromsparen.Da kann Nvidia also nicht mehr mithalten.
Und das nur mit 45 Cent pro Stunde zu sparen ist echt ein schlechter witz.Ich fand ja schon die rtx 3050 als zu wenig an zum 1650,aber mit so wenig,nutzt mir ebenso nix.Nur 10 % schneller als die rtx 3060.Diese ist rund 30 % schneller als die rtx 3050,diese wiederum ist 20% schneller als die gtx 1650.
Gedrosselt auf 75 Watt bleibt da so 5% mehrleistung übrig.Dann drosselt man die rtx 3060 auf 75 Watt dann bleibt da wohl weitere 5% mehr übrig und die rtx 4060 ebenso auf 75 Watt ,bleibt wohl weitere 5% ürbig.Macht dann 15 % mehrleistung gegenüber der gtx 1650.
Ich bin beeindruckend(nicht),dann Future die ich nicht brauche nur doppelt so viel Vram wie ich aktuell habe und das nachteil mit PCi Express Bandbreite habe ich ebenso noch dazu.Dafür habe ich dann 400€ oder was diese GPU so kosten mag ausgegeben,das lohnt sich überhaupt nicht.
Es sei denn es geschiet ein Wunder wie ich kann mit der selben Leistung wie mit der gtx 1650 bei nur 35Watt zocken oder sowas,dann sehe ich das als Innovation an.Oder die GPU ist so flexible und kann nicht genutzte Einheiten in den schlafmodus setzen so das sie kühler ist als sonst und auch sparsamer ohne Leistung zu kosten.
Aber so flexible ist ne GPU nicht,darum sehe ich hier keinen richtigen Fortschritt an.Man muss das aber auch sehen können das ein teil der GPU sich selbst ausgeschaltet hatte in dem es da keinen Strom mehr dort hin sendet.

Aber auf sowas kommt wohl Nvidia ja nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: vti
Schön, endlich ein Nachfolger für meine 1060 der auch nur um die 120 watt braucht. Mehr sollte ein GPU nicht verbrauchen
 
Vitche schrieb:
Der Sprung von der 1060 zu den späteren RTX-Karten ist nur bzw. in erster Linie so groß, weil Nvidia bei denen DLSS (ich vermute Performance) nutzt. Die 1060 kann das natürlich nicht und fällt komplett ab.


Dann sollte man es fairer Vergleich machen.Wenn man weis welche Auflösung diese DLSS und so maximal berechnet,dann stellt man halt auf gtx 1060 die Auflösung auf das runter.Und dann sieht man wirklich wie gut beide im Vergleich sind.Wenn dann beide unter den selben Bedingung testen,auch wenn das eine Bild minimal besser aussieht.Schlecht sieht es dennoch aus.Gegen nen Natives Bild kommt man eben nicht an.

DLSS2 oder was weis ich was,sieht auf einem 1080p Bild bestimmt am ende nur noch 960p oder muss man da eher von 800p sprechen,also 1440x800 oder gar 1024x768 anstatt was von 1920x1080.
Das wäre doch echt mies.ALso ich will schon richtige und echte Pixel sehen,keine Fake Pixel.Da wenn ich da drauf stehe,dann schaue ich mir beim fersehen lieber doch 1280x720p an oder halt 576i wenn ich auf sowas wie Fake Halbbilder stehe.Mich stört das ja nicht,weil werden ja am ende zu 25 Vollbilder dank meines Umwandelns.
Bei GPU zocken hätte man das ja dauerhaft,solange man das Future wirklich Nutzen würde.

Das zähl also nicht bei mir,ich stehe auf richtiges.Also wenn Leistung zu schwach ich senke selbst noch die Auflösung wie immer.Da bin ich ganz klassich,so ist das halt eben.
 
Neulich bei VW:
Jetzt kaufen. Der neue Golf. Jetzt mit 50% höhere Endgeschwindigkeit bei selben PS als der Vorgänger.*

*) Wenn Sie beim alten Modell im 3. Gang bleiben.
 
  • Gefällt mir
Reaktionen: jo0, -Bo-, alkaAdeluxx und 5 andere
latiose88 schrieb:
Dann sollte man es fairer Vergleich machen.
Sag das Nivida, nicht mir. ;)

latiose88 schrieb:
Wenn man weis welche Auflösung diese DLSS und so maximal berechnet,
Ich vermute, dass Nvidia da auf DLSS Super Resolution Performance zurückgreift. Die Render-Auflösung läge dementsprechend bei Full-HD-Ausgabe bei 960 × 540 Pixeln.

latiose88 schrieb:
Schlecht sieht es dennoch aus.Gegen nen Natives Bild kommt man eben nicht an.
Das kann man so pauschal nicht (mehr) sagen. Mit aktueller DLSS-Implementierung ist die Situation tatsächlich die, dass man mit dem Quality- oder teilweise auch dem Balanced-Profil bei UHD-Ausgabe ein ebenbürtiges und immer häufiger sogar besseres Bild hinbekommt als mit nativer Berechnung. Mit fallender Ausgabeauflösung dreht sich das Blatt irgendwann.

latiose88 schrieb:
ALso ich will schon richtige und echte Pixel sehen,keine Fake Pixel.
Das lässt sich auch so umformulieren, dass du pauschal möglichst ineffizient berechnete Pixel sehen möchstest und keine (immer häufiger ebenbürtigen) effizienter generierten Pixel. Die Qualität eines einzelnen Frames lässt sich schon länger nicht mehr bloß über die Anzahl nativ gerenderter Pixel definieren.

latiose88 schrieb:
Das zähl also nicht bei mir,ich stehe auf richtiges.Also wenn Leistung zu schwach ich senke selbst noch die Auflösung wie immer.
Mit FHD als Ausgabeauflösung und DLSS Performance (Rendering in 960 × 540 Pixeln) hast du auf jeden Fall das signifikant bessere Bild als mit nativem 540p-Rendering ohne DLSS. Das gilt (inzwischen, d.h. mit DLSS 2) eigentlich konsequent für jede Auflösung und jedes DLSS-Profil.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Copium, Tornavida und bensen
Ja und?
Das ist jetzt keine Meisterleistung 13x so schnell zu sein wie ne 1060 ... EIne 1060 ist eine GPU aus dem Jahre 2016 ...

3060 ist interessant RX 6600 ... ist interessant.

Schöne Grüße an nVidia aber das sollte auch so sein ...
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
Ich weiß, dass vieles oder eigentlich alles teurer geworden ist, aber die Preise der aktuellen Grafikkarten verstehe ich trotzdem nicht.
Ich würde niemals soviel Geld dafür ausgeben, aber ich brauche eh keine neue Grafikkarte, denn ich habe gerade erst eine GTX 960 gekauft.
 
Naja es hat auch was positives, alle die sich die RTX 3060 12GB gekauft haben freuen sich das ihre Karte noch länger aktuell bleibt 😉👍
Hätte ich noch meine alte 3060 würde ich mich ja genau so freuen und über die zukünftigen Käufer lachen. 🤣
Errinert mich noch an die Zeit als die GeForce FX5600 raus kam und ich noch mit meiner 4200TI nur darüber glücklich war, das ich die richtige Entscheidung getroffen habe 😈
 
  • Gefällt mir
Reaktionen: Copium und vti
DFFVB schrieb:
Ich fänd wäre mal wieder Zeit für ne passive Karte....

Es gibt auch viel zu wenige Grafikkarten mit max. 800 U/min Lüfterdrehzahl. Die MSI GTX 960 Gaming war die leiseste bisher. Der Zero-Fan-Schwindel ist keine Alternative.

Eine RTX 4070 Noctua Edition wird schmerzlich vermisst.

cabut schrieb:
Schön, endlich ein Nachfolger für meine 1060 der auch nur um die 120 watt braucht. Mehr sollte ein GPU nicht verbrauchen

Die Leistungsaufnahme kann man auch bei den größeren GPUs per fps-Limit + Detailverzicht deutlich herunterschrauben.
 
Vitche schrieb:
Der Sprung von der 1060 zu den späteren RTX-Karten ist nur bzw. in erster Linie so groß, weil Nvidia bei denen DLSS (ich vermute Performance) nutzt. Die 1060 kann das natürlich nicht und fällt komplett ab.
Irgendwas in der Richtung hab ich auch schon vermutet, hab aber eher in Richtung Rohleistung nach TFLOP spekuliert wo ja alles ab Turing mit Dual Issue Shadern gearbeitet hat. DLSS alleine kann ja auch nicht alles erklären oder ?
 
Zurück
Oben