Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Beg1 schrieb:
Ich finde Diskussionen immer hilfreich und auch wenn man sich nicht rechtfertigen muss, finde ich es durchaus interessant Argumente zu lesen, warum jemand Karte X/CPU Y gekauft hat.
An sich ist die Diskussion ja okay, aber nicht wenn jemand versucht zu, ja, ich bin fast schon geneigt das Wort "Missionieren" zu benutzen.
Mein Motto ist meistens ganz einfach: Ich respektiere andere Meinungen, muss Sie aber nicht teilen. Manche verhalten sich halt so als wäre Ihre Meinung "richtiger" als die Meinung anderer.
 
  • Gefällt mir
Reaktionen: Oudenstekelig und mtheis1987
Beg1 schrieb:
Ne war von Zotac und sie hatte halt bis 63°C kompletten Fanstop, was bei kleinsten Indiegames mit 4K/120fps auch selten erreicht wurde. Blöderweise war die Karte bei vielen Titeln knapp über 63°C und fiel dann durch die Lüfter immer wieder genau unter diese Grenze.
Am schlimmsten war es bei Guild Wars 2, durch die ständig wechselnde "Last" war der GPU-Lüfter zwischen An und Aus gefangen.

Also Abschaltung auch bei 63°C. Also völliger Mist, ähnlich wie bei Gigabyte. MSI läuft dann halt passiv, solange die Temperaturen unter der Schwelle sind. Falls passiv nicht reicht, siehe mein Far Cry 2 weiter oben.

Da mein neues Gehäuse keine Lüftersteuerung mehr hat, laufen die Gehäuselüfter über das Board. Da habe ich es dann auch so eingestellt, dass sie bei jeder CPU-Temperatur auf ~1000 1/min laufen. Das geht mir dann nämlich auch auf den Sack, wenn bei 1 Sekunde Last dann gleich die Lüfter höher jaulen und dann sofort wieder runtergehen.
 
  • Gefällt mir
Reaktionen: Beg1
Banger schrieb:
Das geht mir dann nämlich auch auf den Sack, wenn bei 1 Sekunde Last dann gleich die Lüfter höher jaulen und dann sofort wieder runtergehen.

Ich glaube das ist normal, dass einem genau das auf die Nerven geht, Kinder verhalten sich sehr ähnlich.
Leicht gestoßen/gefallen -> Sirene an -> Mama pustet kurz -> Sirene aus xD
 
Mir persönlich ging es eher darum, zu zeigen wie effektiv die Kombination aus moderner Hardware+Software ist.

Die Effizienz entsteht hier durch die brachiale Leistung, gepaart mit DLSS und dem Gsync/Vsync/Reflex Limiter.

Ohne DLSS zieht die Karte direkt 100W mehr aus der Dose. Das Spiel sieht aber nicht besser aus.

Ich persönlich halte auch die 4080 für eine gute Karte. Wer einen 4K Bildschirm hat, wird sich vermutlich eine 4090 zulegen.

Wenn ich die Effizienz mitnehmen kann, umso besser.

Ich bin auch ein Befürworter von diesen massiven Kühlkörpern. So leise Karten hatten wir doch noch nie zuvor.

Ich bin bestimmt nicht der Einzige, der lange darauf gewartet hat, Spiele in 4K Ultra mit 120Hz/FPS spielen zu können.

Haben ist besser als brauchen. Gilt für viele Dinge im Leben (nicht für alle).

Es ist einfach ein Hobby und das will ich auch vollkommen genießen. Ich komme fast ausschließlich am Wochenende dazu zu zocken, also passt das doch.

Ein weiteres, tolles Beispiel ist der FS2020. Mit meinem 12900K und der 3090 waren am Boden in Frankfurt, teilweise nur noch 16-18 FPS möglich. Mit meinem 7700X und der 4090 waren es dann 22 FPS. Alles komplett im CPU Limit.

Dann kam der Gamechanger auf der Markt....Frame Generation.

Mir ist wirklich die Kinnlade runtergefallen. Ich hatte keinerlei Bugs whatsoever. Die Kombination aus einer VCache CPU + 4090 mit Frame Generation macht das Spiel zu einem Genuss. Am Boden sind es jetzt im gleichen Setting auf einmal 60-70FPS, ultra smooth und in der Luft schöne 116 FPS dank Reflex und Gsync.

Niemals hätte ich gedacht, dass dieses Spiel im Ultra Preset innerhalb von 12 Monaten von fast unspielbar zu einem Traum wird.

Ich weiß auch nicht was das damit zu tun hat, Regler nicht bedienen zu können. Ich maximiere alle meine Spiele komplett. Genau dann passiert ja durch die Software der Unterschied.

Warum soll ich unbedingt die Karte mit 400W laufen lassen, wenn ich bei 90% identischer Qualität, dank DLSS und FG mit 260W auskommen kann?

Deshalb finde ich es gut, dass die AMD Nutzer durch FSR3 auch endlich in diesen Gamechanger Genuss kommen.
 
  • Gefällt mir
Reaktionen: Apo, tomcat66 und Banger
t3chn0 schrieb:
Ich persönlich halte auch die 4080 für eine gute Karte. Wer einen 4K Bildschirm hat, wird sich vermutlich eine 4090 zulegen.

Ich bleibe da eh noch bei 1440P. UHD-Bildschirme mit 165-180Hz in 32" sind eh kaum oder gar nicht vorhanden, zumal die Bandbreite vom Port zum Flaschenhals wird und Kompression nötig ist. Und GTA5 ist dann durchaus mit 158 oder 171FPS auf UHD möglich, mit der 4080, mit einer 5080, wo auch der Port hoffentlich genug Bandbreite hat, dann eh. Hohe FPS haben in dem Spiel diverse Vorteile. Aber für aktuelle Spiele kommt es mir entgegen, dass es nur 1440P ist. RE4 frisst viel Leistung, läuft aber in der Regel schon mit 120FPS+X (außer im Dorf, wenn es stark regnet und man mit Ashley zum Evakuierungspunkt soll, weil da hartes CPU-Limit ist, nicht mal Grafikkartenlimit).

t3chn0 schrieb:
Deshalb finde ich es gut, dass die AMD Nutzer durch FSR3 auch endlich in diesen Gamechanger Genuss kommen.

Ist die Technik von besser geworden? Das FSR in RE4 ist der letzte Rotz. Die Stufe Ultra Quality geht noch im Spiel, während die Items da allerdings schon sichtbar im Kofferinventar flimmern und bei Stufen darunter flimmert das komplette Spiel. Und das Raytracing für Spiegelung auf Wasseroberflächen am See, in Pfützen und auf polierten Böden ist auch abgespeckt. RE4 ist ein AMD-Spiel und hat leider nicht die Nvidia-Varianten.

Project 401, Titanic-HG hat DLSS von Nvidia und das ist deutlich besser. Selbst Balanced kann man da benutzen und es sieht noch gut aus. Diese Demo läuft auf Unreal Engine.

t3chn0 schrieb:
Dann kam der Gamechanger auf der Markt....Frame Generation.

Wäre für Transport Fever 2 interessant. Krüppelt mit einer Endgame-Map sehr im CPU-Limit, trotz Performance-Patch seitens des Entwicklers. Da wäre ich froh, wenn im Worst-Case-Fall 30FPS nicht unterschritten werden. 30-60FPS würden mir da auch reichen.
 
Im Worst-Case-Szenario (F1 22) verliert die neue Grafikkarte mit 300 statt 450 Watt (-33 Prozent) 17 Prozent FPS.
Ich glaube, dass viele der aktuellen UE5 Spiele sich ähnlich verhalten (Achtung: Reine Mutmaßung), was bedeuten würden, dass man auch mit der 4090 teilweise viel Leistung verliert bzw. eben ähnlich viel, als wenn man andere Modelle (z.B. 4080) mit weniger Powerlimit betreibt. "Viel" ist natürlich eh relativ und Ansichtssache.
Denn natürlich ist das Verhältnis selbst hier noch 2:1 (33% Energie-Einsparung. 17% Leistungs-Verlust), das werden viele wohl mitnehmen wollen.
Aber 17% sind halt einfach viel für meinen Geschmack, alles über 10% finde ich persönlich viel, ist aber natürlich Ansichtssache.

Ich will damit sagen, dass das Perfomance-Rating*, welches vor über einem Jahr mit entsprechenden Spielen erstellt wurde, wahrscheinlich heute schlechter ausfallen würde (mehr Leistungsverlust mit 350 und 300 W gegenüber den stock 450 W)

*
450W: 99,9%
350W: 96,8%
300W: 90,6%

F1 22 (und möglicherweise viele moderne UE5-Spiele):
450W: 100%
350W: 94%
300W: 83%

Alle Daten aus diesem Artikel.

Man muss an der Stelle auch noch mal erinnern, dass 450 W wohl eh selten anliegen, sondern eben etwas weniger. Daher ist der Leistungs-Verlust von 450 auf 350 W auch nicht so groß.

Bevor sich irgendjemand mit seiner 4090 angegriffen fühlt: Ich möchte sie keineswegs hiermit schlecht(er) machen.
Wenn sie zu einem vernünftigen Preis verfügbar wäre (~1.600 - 1.700 EUR) würde ich wohl von meiner 4080 upgraden. So warte ich aber noch auf die 5000er Serie. Dank DLSS vermisse ich mit der 4080 eh keine Leistung, aber das Upgrade könnte ich für mich selbst mit dem Stichwort Hobby/Haben-Wollen rechtfertigen. ;)
 
  • Gefällt mir
Reaktionen: Asghan
Welche 4090 ist den zu empfehlen? MSI scheint ja sehr von spulenfiepen betroffen zu sein. Eine: ASUS TUF-RTX4090-24G-OG-GAMING auch? Danke
 
Ich hatte eine 3090 und jetz eine 4090 jeweils von MSI und nie Spulenfiepen. lg
 
  • Gefällt mir
Reaktionen: bart0rn und Lord_X
@Lord_X
Alle modernen Grafikkarten haben mehr oder weniger starkes Spulenfiepen. In wirklich belastenden Szenarien haben restlos ALLE Grafikkarten, die ich in den letzten 10 Jahren in der Hand hatte (Und das sind mit Sicherheit über 100) gefiept. Die einen halt lauter, die anderen leiser. Nur eine einzige war dermaßen laut, dass es nicht akzeptabel war.

Es kommt dabei nicht nur auf die Grafikkarte und die Spulen an sich an, sondern auch auf die Kombination aus Netzteil, Mainboard und eben Grafikkarte. Mit UV kann man hier zusätzlich noch etwas gegensteuern.

Leute, die sagen, sie haben gar kein Spulenfiepen, wissen evtl. nicht wie es klingt oder hören die Frequenz schlecht, hören allgemein schlecht oder der PC steht einfach weit genug weg, um es nicht wahrzunehmen. Teilweise ist sicher auch der PC lüftertechnisch einfach zu laut und übertönt das fiepen, da es ja idR nur unter Last auftritt.
 
  • Gefällt mir
Reaktionen: Kommando und Lord_X
Ich hab aktuell noch eine alte GTX 1080 drin. Hab mir dann im Mai dieses Jahres einen AMD Ryzen 7 7800X3D geholt. Der Boost für meine 1080 war schon nice. Jetzt soll halt noch eine neue GK her und ja es soll eine 4090 sein.
 
Reines Glücksspiel, genauso wie OC Potenzial. Kannst dreimal dieselbe Karte kaufen und dreimal andere Werte in allem kriegen. Letztlich waren für mich andere Faktoren ausschlaggebender wie gute VRM Stage, 600W BIOS Möglichkeit und ein guter sowie leiser Kühler für die paar Wochen wo ich auf den Wasserblock warten musste.

Bei mir waren drei Karten in der engeren Wahl (Suprim X, ROG STRIX, Aorus Master) und ich hab halt die genommen wo damals verfügbar war bzw. preislich nicht komplett absurd überteuert.

Spulenfiepen ist bei mir am Arbeitsplatz nicht zu hören - wenn mans Gehäuse aufmacht und das Ohr ranhebt bei maximaler Last hört mans schon. Die 1080 Ti Strix die ich hatte war da allerdings schlimmer und die 3080 von EVGA nochmals mehr - deren 3080 Ti dafür kaum zu hören.
 
  • Gefällt mir
Reaktionen: Lord_X, Kommando und Apo
Das ist einfach damals waren mit agp gpu um die 75w
Das war aber prä universal shaderberechnung wo es klar nach pixel und vertex ging
swat4 dürfte noch dx9 sein (2005)
Das schnellste damals war die 7900gtx gewesen sein aber 2006 kam die legendäre 8800gtx raus die hat genau 0,5tf brauchte etwa 120w und war die erste dx10 gpu
Das war um dez 2006 rum
Das spiel kam ein Jahr zuvor raus
 
  • Gefällt mir
Reaktionen: Veitograf
Veitograf schrieb:
dass es in 4k gerade mal 30w zieht.
Da ist das erste Problem, dass die Auflösung damals i.a.R. bei LCDs 1024x768 oder 1280x1024 war. Mit Röhren ging damals über VGA mehr. Eine für das Spiel empfohlene 6600GT hat damals ca. 50W bis 60W verbraucht.

Auf medium @720p läuft das Spiel sogar auf einer echt miesen Intel-iGPU:
 
  • Gefällt mir
Reaktionen: SweetOhm, Asghan und Veitograf
Zurück
Oben