News GeForce RTX 4090: Nvidia verspricht 2,85 GHz Boost-Takt in Cyberpunk 2077

RogueSix schrieb:
Die Karte hat drei verschiedene Arten von Cores. Shader, RT und Tensor. Die werden nie/kaum alle am Limit laufen und somit könnte das vielleicht schon sein,
Das war ja auch vorher schon so. Auch AMD Karten haben diverse Bereiche und Bauteile verbaut. Dennoch glaube ich nicht, dass bei Ada plötzlich die Abwärme gänzlich anders verteilt ist in einem normalen Szenario wie einem Spiel.
Zudem ändert es für die Kühlleistung ja auch nur wenig, denn die abzuführende Wärme bleibt in Summe ja gleich. Da dürften bei vernünftig konstruierten Kühlern eigtl. immer die Oberfläche und der Luftstrom die limitierenden Faktoren gewesen sein.
 
Meine 3090 liegt mit UV in CP bei ~230W, in vielen anderen Titeln zwischen ~130-170 Watt.
Klar geht auch bei der 4090 sowas, aber der Sprung ist schon hoch.
Zumal hier "nur" 1440p.

RogueSix schrieb:
Das mit der Temperatur kann doch fast nicht sein. Sensor kaputt, Auslesefehler oder ist die Software noch nicht in der Lage die Werte richtig auszulesen?
Da bin ich auch äußerst skeptisch.

InspecTequila schrieb:
Als ob jemanden noch Cyberpunk interessiert, hehe!!!

Im Augenblick jeden Tag sehr viele Menschen:
Lt. CDPR ca. 1 Million auf allen Plattformen und bei Steam auf Platz 2.
 
  • Gefällt mir
Reaktionen: BeezleBug
RogueSix schrieb:
Somit liegt die Leistungssteigerung der RTX 4090 immerhin bei rund 60%. Das scheint mir ein normaler Performancesprung von Generation zu Generation.
Passt nur nicht zu deren Aushängeschild bezüglich 2x bis 4x Leistung...

Ist mir egal, dass da einige Sternchen bezüglich DLSS und Raytracing dran waren, das ist deren Aushängeschild.
 
Moep89 schrieb:
Unter 60°C bei 460 Watt? Mit welcher Zaubertechnologie oder eher bei welch absurdem Lärmpegel?
Is it an plane or a jet? Not its RTX4090!

Frage mich auch, wie Nvidia auf diese Zahlen kommt. Aber dass weiß wohl nur Nvidia selbst :rolleyes:
 
  • Gefällt mir
Reaktionen: DannyA4
Alles Totaler Blödsinn DLSS , RT, Preise, VRAM , Gewicht und Grösse,
RT und Tensor Kerne diesen Schrot zahl ich diesmal nicht.

Der Lederjohnny kein seine Kerne dort hin schieben wo es finster ist, ich will Raster Power

Bin Tod Müde weckt mich am 3 November
 
Ok, mit RT. Aber in WQHD noch nicht mal 60FPS?
Ich habs in 4k ohne RT mit irgendwas um die 52FPS gespielt, und es war zu keiner Zeit irgend eine Art von runterrechnen notwendig.
Relativ armselige Performance für so eine absurd kostspielige Karte der neusten Generation.
 
  • Gefällt mir
Reaktionen: MouseClick68
_Flattermann_ schrieb:
Damit können sie bei mir auch nicht mehr punkten 😅
Es ist schon irgendwie skurril.
Da stellt Nvidia eine GPU vor, die bei gleicher Leistungsaufnahme inkl. RT doppelt soviel in Cyberpunk leistet als die letzte Generation und man hat nichts anderes zu tun als dumme Kommentare abzugeben.

Wenn AMD da hinterherhinkt, werden die Kommentare dann noch dümmer?
Nein, das kann man eigentlich nicht mehr übertreffen. Moderation?
 
  • Gefällt mir
Reaktionen: derMutant und Master_Chief_87
Das Setup stand dann in einem Klimaraum mit 18° und Flüssigmetal auf der GPU ;) .
Das GPU`s hoch takten wenn die temp gering ist, ist nichts neues, jedoch soll mir nv erst mal eine 4090 zeigen die in einem normalen Setup die Temp auf unter 60° halten kann und damit so hoch boosten.
Interessant jedoch für Wakünutzer, dass hier doch Luft nach oben ist bei entsprechenden Temps.
 
  • Gefällt mir
Reaktionen: Youngtimer
Spätestens mit der PTX 6090 Ti sollte dann auch natives Pathtracing mit 59fps möglich sein.
 
  • Gefällt mir
Reaktionen: HerrRossi und Coeckchen
Hennings schrieb:
Es ist schon irgendwie skurril.
Da stellt Nvidia eine GPU vor, die bei gleicher Leistungsaufnahme inkl. RT doppelt soviel in Cyberpunk leistet als die letzte Generation und man hat nichts anderes zu tun als dumme Kommentare abzugeben.
Durch die sehr hohe Preisgestaltung gepaart mit Aussagen wie ""the idea that a chip is going to go down in cost over time, unfortunately, is a story of the past." sind die meisten Leute sehr angefressen und können Leistung/Features der Karten nicht neutral bewerten.

Wenn AMD seine Präsentation gut macht, und ich bin mehr sehr sehr sicher das sie massiv versuchen werden den Finger in diese Wunde zu legen, dann wird das viel gute PR geben.
 
klpp schrieb:
Anhang anzeigen 1263043
Auch nett, gerade zufällig gesehen.
Wenn’s schon hier war schiebt mich bitte ins Aquarium.
Wird bei der Rechnung einfach stumpf Core*Clock gerechnet und alles andere aussen vorgelassen? Naja.
 
Der Raster Leistungszuwachs der 4090 in diesem Spiel ist nicht grade beeindruckend, ist aber nach den Nvidia Folien nicht überraschend.
Weiß nicht welche Stelle im Spiel gebenched oder ob der Spiel eigene Benchmark verwendet wurde, aber wenn ich meine 3080Ti in 1440p max. alles, max RT Psycho laufen lasse dann komme ich auf folgende Werte mit und ohne DLSS Quality im internen Bechmark:

Cyberpunk2077_2022_09_23_11_49_41_849.jpg
Cyberpunk2077_2022_09_23_11_52_03_394.jpg


Ohne DLSS avg. 37 vs 60 FPS oder 62% mehr. Der Vorsprung gegenüber ner 3090Ti wird dann wohl nur bei 45-50% liegen.
Mit DLSS ist es dagegen schlicht mal fast ein 3x, das ist schon fett.
Meine 3080Ti läuft dabei mit 1,8Ghz, 320W und 72°C.

Je mehr solcher Benchmarks rauskommen, desto mehr verfestigt sich aber mein Eindruck das Nvidia ohne DLSS 3 wenig bis gar nichts zu bieten hat gegenüber Ampere.
Daher wird Nvidia auch versuchen DLSS 3 in so vielen AA oder AAA Spielen unterzubringen wie möglich in den nächsten 1-2 Jahren und gleichzeitg AMDs FSR zu verhindern.
 
  • Gefällt mir
Reaktionen: up.whatever
Moep89 schrieb:
Unter 60°C bei 460 Watt? Mit welcher Zaubertechnologie
Die 460W ist vmtl. die Leistungsaufnahme der extra für die Demo aufgeschnallten Hochgeschwindigkeits-Lüfter :D

Muss aber sagen, die Leistung ist schon ordentlich, aber der Stromverbrauch ist mir noch zu hoch.
Mal sehen, wie die Karte auf UV reagiert.
 
Was interessant sein wird, wenn der große Chip schon so gut nach oben taktet, wie weit der kleine A104 gehen wird ? Glaube aber, dass der Bus mit 192Bit ihm ausbremsen wird(da wird auch das große Cache ihm nicht helfen).
 
Haut mich echt nicht um.
Wollte diese Gen sowieso überspringen, bei der Preis/Leistung komme ich nicht mal in Versuchung. Perfekt 😁
 
  • Gefällt mir
Reaktionen: _Flattermann_
Rickmer schrieb:
Passt nur nicht zu deren Aushängeschild bezüglich 2x bis 4x Leistung...

Doch, passt. Wenn man sich die Mühe machen würde zu lesen und zu verstehen unter welchen Bedingungen 2x bis 4x gilt.
Viele haben daran natürlich kein Interesse, sich zu informieren, sondern möchten sich gerne an den 2x bis 4x aufhängen (übrigens gibt es inzwischen sogar offizielle Aussagen zu Szenarien, in denen Ada bis zu 5,5x der Leistung von Ampere produziert), um nVidia dann Lügen unterstellen zu können und um sich künstlich aufzuregen. Wer Spaß daran hat, soll das natürlich auch ruhig weiter tun. Die Hyperventiliererei und das Aufplustern hat ja durchaus einen Unterhaltungswert :D .
 
RogueSix schrieb:
Doch, passt. Wenn man sich die Mühe machen würde zu lesen und zu verstehen unter welchen Bedingungen 2x bis 4x gilt.
Na danke, dass du den Rest meines Beitrags zu genau dem ganz bequem nicht beachtet hast in deiner Antwort... :stock:
 
Bei einigen habe ich den starken Eindruck, dass die den Text nicht anständig durchlesen.

4090 in 1440p in Cyberpunk | höchste Grafikeinstellungen > 60Fps
Mit aktiviertem DLSS 3.0 > 170Fps
Gleichzeitig: 460W Leistung fällt auf 350W.

Wo ist das Problem Leute? Meine einzige Frage wäre sogar: wie sieht die FPS Leistung bei DLSS 3.0 in 4K aus ?

Jeder kann bashen, ich find die Preise auch kacke und darüber darf man sich gerne auch aufregen, aber lest doch den Text, bevor sone inhaltlose ala „soviel Leistung nur?“ geäußert wird.
 
  • Gefällt mir
Reaktionen: RogueSix, Humbertus, DannyA4 und eine weitere Person
Mein Problem damit ist, das man nicht UHD getestet hat.
Die 3090 war schon eine UHD Karte lt. NV.

1440p ist keine Herausforderung.
 
  • Gefällt mir
Reaktionen: MouseClick68
Zurück
Oben