Kann man mit Nvidia RTX 4070 Ti 4K Spielen?

wtfNow schrieb:
Nein. Das muss vom Entwickler eingebaut werden
https://www.heise.de/news/AMD-Grafi...-direkt-im-Treiber-FSR-2-0-folgt-6586288.html
Dementsprechend verstehe ist es als FSR. Steckt ja dasselbe dahinter, nur halt im Treiber
wtfNow schrieb:
4070 Ti ausprobiert
Hab zusammen mit einem Kollegen gespielt. Hab mich falsch ausgedrückt. Der hat identisches System nur andere GPU.
Und ja wir haben zusammen bestellt um Versandkosten zu sparen
wtfNow schrieb:
Spiele nur in nativ. Der Gedanke, dass es eigentlich eine niedrigere Auflösung ist gefällt mir nicht
Ergänzung ()

Aber ich bin ehrlich. Ich habe mich für die AMD Karte wegen Rasterleistung, VRAM, Treiberoptik und Einfachheit, TLOU gratis und paar andere kleine Dinge entschieden
 
Zuletzt bearbeitet:
alonsie schrieb:
https://www.heise.de/news/AMD-Grafi...-direkt-im-Treiber-FSR-2-0-folgt-6586288.html
Dementsprechend verstehe ist es als FSR. Steckt ja dasselbe dahinter, nur halt im Treiber
Das funktioniert mit FSR 1, ist eine recht "billige" Methode und liefert optisch bei weitem nicht vergleichbare Ergebnisse wie FSR 2 / DLSS 2.
Bei letzterem müssen z.B. Bewegungsdaten vom Entwickler aktiv implementiert werden, das kann nicht ohne manuelle Zuarbeit funktionieren.
alonsie schrieb:
Spiele nur in nativ. Der Gedanke, dass es eigentlich eine niedrigere Auflösung ist gefällt mir nicht
Dann solltest du es mal ausprobieren. Ich finde es in der Qualitätsstufe aufgrund der sehr guten Kantenglättung nicht selten einen Tick schöner als nativ. Z.b. war das in Diablo 4 der Fall. In The Last of Us sehe ich gar keinen Unterschied und nehme 30-40 geschenkte fps gerne mit.

alonsie schrieb:
Aber ich bin ehrlich. Ich habe mich für die AMD Karte wegen Rasterleistung, VRAM, Treiberoptik und Einfachheit, TLOU gratis und paar andere kleine Dinge entschieden
Dann hast du die richtige Karte für dich. Ich sage auch nicht dass eine Nvidia Pauschal besser wäre, nur eben aktuell für meine Bedürfnisse geeigneter.
 
  • Gefällt mir
Reaktionen: Oudenstekelig
MehlstaubtheCat schrieb:
Da hast leider Pech, die Pipsen wie die Hölle.
Nur auf die 4070Ti bezogen? Ich habe auch die Zotac Trinity, allerdings als RTX 4090. Ist meine erste Karte dir komplett frei von Spulenfiepen ist.

Ich hatte nie wirklich starke Probleme mit Spulenfiepen, hier und da hat man mal minimal was gehört. Bei der Trinity höre ich nichts mehr.
 
wtfNow schrieb:
Dann hast du die richtige Karte für dich. Ich sage auch nicht dass eine Nvidia Pauschal besser wäre, nur eben aktuell für meine Bedürfnisse geeigneter.
Hmm, eigentlich schon, deswegen kann der Eine die Preise bestimmen und der Andere passt sich an und verringert die Preise . Wird schon seinen Grund haben.

wtfNow schrieb:
Dann solltest du es mal ausprobieren. Ich finde es in der Qualitätsstufe aufgrund der sehr guten Kantenglättung nicht selten einen Tick schöner als nativ. Z.b. war das in Diablo 4 der Fall. In The Last of Us sehe ich gar keinen Unterschied und nehme 30-40 geschenkte fps gerne mit.
Das ihm der Gedanke nicht gefällt nicht in Nativ zu spielen ist ja sein persönliches Problem und ändert Nichts daran ,dass ein Game mit DLSS besser aussehen kann und i.d.R. on top mehr FPS und bessere Effizienz beschert.

DLSS ausprobieren kann er nicht mehr mit einer 7900xt und möchte er auch nicht, da andere Prioritäten.

alonsie schrieb:
Aber ich bin ehrlich. Ich habe mich für die AMD Karte wegen Rasterleistung, VRAM, Treiberoptik und Einfachheit, TLOU gratis und paar andere kleine Dinge entschieden
 
@wtfNow
Ja, eine ähnliche Politik fahre ich auch bei meinen Anschaffungen. Bei den highend Modelle ist es mir der Aufpreis nicht Wert. Seit ich den LG OLED habe, ist die 6700 xt manchmal auch zu wenig in 4k. Ich spiele sehr selten auf ultra, weil der optische Vorteil bei manchen Einstellungen zu gering ist. Texturen Stelle ich aber immer auf max, weil die tatsächlich schon einen erheblichen Einfluss auf die Optik haben. Wie lange ich mit den 6gb der damaligen 1060 noch Texturen hochdrehen konnte, war schon erstaunlich. Aber das soll ja leider heutzutage verhindert werden.

Bei Hogwarts habe ich es das erste Mal hart gemerkt. Da spiele ich bei optimierten settings ohne RT und kann nicht immer über den 60 fps bleiben, trotz FSR 2 Qualität. Vorher ging es eigentlich noch ziemlich gut für eine wqhd Karte. Forza Horizon 5 sieht top aus und ich habe mit ultra/extrem settings durchgängig meine 60 fps+ ohne upscaling. Bei den grottigen Ports der heutigen spiele, ist man ja fast schon auf upscaling angewiesen.

Wenn die 4070 ti 16gb hätte und mit breiteren Interface ausgestattet wäre, würde die auch sehr in Frage kommen. 800 wäre mir die wahrscheinlich sogar wert. Dadurch daß es aber gesichert ist, dass es in 4k bei neuen Spielen immer wieder zu Problemen kommt, kann ich die nicht guten Gewissens kaufen. Da ist mir auch das leicht bessere upscaling (je nach Qualität der Implementierung des Spieleentwicklers) und die um die 10 Prozent bessere Raytracingleistung egal. Ist leider immernoch zu oft mangelhaft implemtiert, dass es ein echten Kaufgrund für die paar Prozent darstellt. Da nehme ich lieber die bessere Rasterleistung, wenn ich die Wahl habe.

Upscaling sorgt leider aber auch für einen höheren VRAM bedarf. Falls upscaling tatsächlich das Speicherinterface entlastet, dann läuft man wieder eher in ein VRAM Limit. Es ist schon traurig, dass Nvidia keine Karte im Portfolio hat, die in 4k unter 1000 Euro ohne Einschränkungen zu empfehlen ist. Das ist jetzt das 2te Mal in Folge, dass Nvidia sich mit der Bestrebung des Upsellings und Erhöhung der Marge zu einem nicht Kauf entwickelt. Ich bin einfach nur froh damals keine 3070 oder 3080 mit 8 oder 10 GB gekauft zu haben. Man sieht ja wie mangelhaft die jetzt schon performen. Das gleiche Schicksal wird die 4070 ti leider auch erleiden.

Zum Thema Upscaling:
Wenn gut implementiert, haben beide Verfahren ihre Stärken und Schwächen, mit leichten Vorteilen für dlss. Die Kantenglättung ist manchmal sogar besser als nativ. Die Zukunft ist es auf jeden Fall. Leider kann man die Beispiele für gute Umsetzungen, genauso wie bei Raytracing immernoch an 2 Händen abzählen.
 
Zuletzt bearbeitet:
Kommt wie gesagt stark auf die Implementierung durch die Spieleschmiede an. Manche Spieleengines zicken da auch mehr herum als andere. Generell entsteht nicht selten eine Art flickering an weiter entfernten Kanten oder Objekte. Der Algorithmus hat dann nicht mehr genug Informationen, um das Objekt immer korrekt darstellen. Da ist DLSS tatsächlich auch besser darin, dass mit Hilfe der KI-Einheiten zu beseitigen. Auf YouTube gibt es zu den meisten Spielen oft ganz gute Vergleichsvideos zum jeweiligen Spiel. Zum Beispiel von digital foundry. Danach kann man dann entscheiden, ob man die auftretenden "Anomalien" beim Spiel in Kauf nimmt.

Mit der 7900xt bist du derzeit wohl eher selten drauf angewiesen soetwas zu benutzen. Deshalb würde ich es wahrscheinlich auch nur dann anschalten, wenn RT wirklich Mal gut aussieht und die framerate nicht mehr ausreicht.
Ergänzung ()

Tornavida schrieb:
Hmm, eigentlich schon, deswegen kann der Eine die Preise bestimmen und der Andere passt sich an und verringert die Preise . Wird schon seinen Grund haben.

AMD hat ebenfalls Vorteile gegenüber Nvidia. Die wurden hier auch schon genannt. AMD ist halt eine wesentlich kleinere Firma gegenüber Intel und Nvidia. Dafür schlagen sie sich hervorragend. Allein für die Kernrevolution durch ryzen haben sie bei mir ein Stein im Brett. Wie lange hat Intel jedes Jahr einen neuen 4 Kerne mit 5 Prozent mehr Leistung für 4xx Euro gebracht. Jetzt schau dir an wo wir jetzt stehen.

Es gibt leider immernoch zu viele Leute die glauben nvidia ist das einzige was funktioniert. Wenn man diesen Leuten auf den Zahn fühlt, ist es nicht selten so, dass diese Leute weder die technischen Fachkenntnisse mitbringen, noch für Argumente oder Nachweise zugänglich sind. Alles was nicht ihrem Weltbild entspricht, sind fanboys, egal wie transparent und nachvollziehbar argumentiert wird.

Derweil zeigen genau diese Leute das wahre Fanboyverhalten, indem sie alles in den Dreck ziehen, was nicht ihre Meinung bestätigt. Nachweise bringen sie auch keine. Die glauben ja ernsthaft, dass ihre unbedeutende Meinung ein Argument ist. Kann man echt nur bemitleiden. Die haben nicht selten je eine AMD Karte der 6000er oder 7000er Gen gesehen. Mir soll das ja egal sein. Ich bin mit meiner 6000er zufrieden. Ist eine wqhd Karte und hat mich nie im Stich gelassen. Das sie jetzt nicht mehr ausreicht liegt nur an dem Sprung zu 4k. Wenn AMD weiter über den Preis kommen muss, umso besser für mich.
 
Zuletzt bearbeitet:
alonsie schrieb:
Spiele nur in nativ. Der Gedanke, dass es eigentlich eine niedrigere Auflösung ist gefällt mir nicht
Aus gegebenem Anlass:

"Sowohl Nvidia DLSS als auch AMD FSR funktionieren in The Last of Us Part I sehr gut. Sogar so gut, dass beide Upsampling-Technologien in Ultra HD oft besser als die native Auflösung aussehen. In Sachen Rekonstruktion sind FSR und DLSS dem spieleigenen TAA definitiv überlegen und dass trotz deutlich geringerer Renderauflösung."

https://www.computerbase.de/2023-03/the-last-of-us-part-i-benchmark-test/2/
 
  • Gefällt mir
Reaktionen: JohnnyTexas
Immer dieser Wahn: "Nichts, kann besser sein als Nativ!"
Obwohl es schon öfter vor kam, dass es in 4K mit DLSS besser aussah, als Nativ!

Mit DLSS oft schöner und ohne Grafikfehler:

"...In Death Stranding setzt DLSS 2.0 noch einen drauf. Der optische Eindruck mit dem KI-Upsampling ist in vielen Fällen so gut wie mit der nativen Auflösung und oft auch leicht besser. Hinzu kommt, dass während des Spielens keinerlei Grafikfehler mit DLSS aufgefallen sind. "

https://www.computerbase.de/2020-07..._dlss_20_arbeitet_in_death_stranding_sehr_gut

Dazu viel mehr Frames, oder weniger Verbrauch, mit FPS-Lock - eine leisere GPU.


NVIDIA DLSS & GeForce Raytracing: List Of All Games:

"Over 400 games and applications feature support"

https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/
 
Zuletzt bearbeitet:
C0rteX schrieb:
Es gibt leider immernoch zu viele Leute die glauben nvidia ist das einzige was funktioniert. Wenn man diesen Leuten auf den Zahn fühlt, ist es nicht selten so, dass diese Leute weder die technischen Fachkenntnisse mitbringen, noch für Argumente oder Nachweise zugänglich sind. Alles was nicht ihrem Weltbild entspricht, sind fanboys, egal wie transparent und nachvollziehbar argumentiert wird.

Derweil zeigen genau diese Leute das wahre Fanboyverhalten, indem sie alles in den Dreck ziehen, was nicht ihre Meinung bestätigt. Nachweise bringen sie auch keine. Die glauben ja ernsthaft, dass ihre unbedeutende Meinung ein Argument ist. Kann man echt nur bemitleiden. Die haben nicht selten je eine AMD Karte der 6000er oder 7000er Gen gesehen. Mir soll das ja egal sein. Ich bin mit meiner 6000er zufrieden. Ist eine wqhd Karte und hat mich nie im Stich gelassen. Das sie jetzt nicht mehr ausreicht liegt nur an dem Sprung zu 4k. Wenn AMD weiter über den Preis kommen muss, umso besser für mich.
Hatte 5700Xt und 6700XT, nach drölftausend Meldungen "Wegen eines unerwarteten Systemfehler wurden die Radeon WattMan Standardeinstellungen wiederhergestellt" bin ich von der 6700Xt auf die 3060ti umgestiegen, jetzt habe ich die 4070ti und seitdem keinen Treiberfehler oder sonstige Überraschungen mehr gesehen.
Also mich hat AMD bei den Grakas nicht überzeugt und ich bleibe vorerst wieder bei Grün, Fanboy kann ich verneinen:)
 
Zurück
Oben