Blackwell da, meh reviews. Was kommt danach Speku?

Zuchtmaista schrieb:
zu2 also kennst du nvidias geschichte die haben früher nur auf gamer geachtet :) nur mal so am rande :) erst mit rtx haben die sich auch an andere gewannt
Ich will dich ja nicht verunsichern, aber den Profibereich hatte nvidia auch schon vor den RTX Karten bedient - die Quadros gibt es seit über 20 Jahren.

Zuchtmaista schrieb:
Ne, das sehe ich anders :), aber jeder hat ja seine eigene Meinung dazu. Ich sage nur: Für Gamer AMD-CPU, alles andere Intel … Messbar? Naja, macht schon einen Unterschied, ob ich in Indiana Jones 50 oder 70 FPS habe. :)
Es gibt auch eine Welt abseits vom Gaming.
 
Zuchtmaista schrieb:
ob ich in Indiana Jones 50 oder 70 FPS habe
Den Unterschied hast du bei welchen Einstellungen und welcher GPU?
Bei wqhd, hohen Einstellungen und einer 4070 sicher nicht.

Edit:
Auf was ich raus will ist, die mehr Power die eine AMD x3d CPU hat, kommt voll nur im CPU Limit zu tragen und auch das ist ein Spezieller Fall, der vor allem beim Competetive Gaming vorkommt.
 
@Azghul0815 das war jetze nur so geschrieben und ich habe eine 5080 :)

also ich bin sehr oft im cpu und ein 9800x3d würde daran garnix ändern.. siehe helldivers 2 alles auf max... und die gpu 70/80 prozent nur ausgelastest :). aber liegt auch an schlechten port.
 
Die Auflösung ist nur entscheidend bei den rop und der internen gerenderten Auflösung.
Das ist je nach engine unterschiedlich daher reicht auch ne rtx5060 für 2160p oder nur für 1080p
Die spiele werden heute auf 1440p hin designt wegen der ps5 pro da sind schon 12gb vram und min 48rop Pflicht ideal sind 64rop 16gb und mehr
Die upscaler kommen hinzu dann wird aber oft ein cpu limit provoziert.
 
Azghul0815 schrieb:
Und wenn du net FULLHD spielst, w8rd bei vorher wohl die GPU limitieren.
20% mehr Power beim Gaming sind nachher bei 4k schnell komplett vernachlässigbar
Wieso limitiert meine CPU andauernd meine GPU bei Helldivers 2, Spider-Man 2? Kingdom Deliverance 2? Jetzt nicht andauernd, aber die CPU limitiert sehr viel :), wenn man drauf achtet :) … Für einen Otto-Normalverbraucher ist es egal.
 
Ich habe den Eingangspost nicht gelesen, weil mir das schlicht zu sehr weh getan hat...

Ich bin der Meinung, dass die Thematik deutlich über-dramatisiert wird. Wenn man sich z.B. ein bisschen in der "im Test vor 15 Jahren"-Kategorie umschaut, war früher auch nicht alles besser.

Ja, die Leistungssprünge pro Generation im Rasterizer waren größer, weil die Fortschritte in der Fertigung noch andere Dimensionen hatten. Aber auch damals haben Karten in schlechten Generationen die Performance mit der Brechstange erkauft. Da wurden auch schon über 400W gezogen und es wurden Lautstärken erreicht, die heute niemand mehr ertragen könnte (siehe z.B. GTX 480 mit 452W unter Last und 68 dB).

Zudem bekommt Nvidia dafür extrem viel hate, dass sie die Performance mit "Fake-Frames" schön rechnen. Ja, über die albernen Balken-Diagramme unter völlig verzerrten Voraussetzungen und Aussagen wie "5070 = 4090 Performance" habe ich mich auch geärgert. Die Technologie dieser Karten ist für mich aber ein totaler Game-Changer, wenn man sich darauf einlässt.

In Cyberpunk 4k mit Full RT liegt eine 4090 nativ bei etwa 20 FPS bis FPS, eine 3090 TI bei etwa 10 FPS siehe z.B. hier. Beide ziehen dabei etwa 450W. Mit DLLS4 und MFG 3 liefert die 5090 knapp 150 FPS und mir als Nicht-eSportler fällt die Latenz nicht auf. Es sieht mit DLLS 4 sogar m.E. besser aus als nativ. Wenn man da jetzt einen FPS-Cap bei 115 einzieht, verlässt man das GPU-Limit und die Karte verbraucht dabei i.d.R. deutlich unter 350W.

Da kann man jetzt einerseits argumentieren, dass 3090 Ti und 4090 ja auch zumindest normales FG haben und das Spiel somit auch in Full Ray Tracing spielbar ist. Andererseits finde ich schon, dass hier ein technischer Fortschritt vorhanden ist und ich nunmal mit dieser neuen Technik ein deutlich besseres Erlebnis bekomme, wahlweise sogar bei weniger Verbrauch.

Und so lange die Gamer für den "Abfall" aus der 6000 Pro-Produktion über 2k auf den Tisch legen, wüsste ich nicht, warum Nvidia aufhören sollte, diese Karten zu produzieren. Eng wird es allenfalls für die Mittelklasse, das merkt man m.E. jetzt schon, dass unter der 5070Ti eigentlich keine richtig runden Produkte dabei sind.
 
Zuchtmaista schrieb:
Wieso limitiert meine CPU andauernd meine GPU bei Helldivers 2, Spider-Man 2? Kingdom Deliverance 2?
Irgendwas limitiert immer, die Frage ist nur stört mich das oder nicht.
Wenn jetzt die CPU bei 260FPS limitiert, juckt mich das nicht wenn ich ohnehin je Spiel zwischen 60-120FPS anvisiere. Deshalb ist die CPU für die allermeisten Spieler recht nebensächlich, solange sie nicht allzu alt bzw. wenig Kerne/Threads hat.
 
  • Gefällt mir
Reaktionen: Azghul0815
ja aber als beispiel, Spider-man 2 durschnittlich 130 fps. kaum schwing ich gehen die fps auf 60-70 runter und das spürt man.Aber hast auch recht :)
 
Die Beispiele gibts sicher und hat man jetzt als Maingame etwas CPU sensitives muss man echt überlegen ob ein Upgrade Sinn macht, oder nicht doch der Entwickler mehr Gehirnschmalz investieren darf :D
 
Zurück
Oben