Test Aktuelle Benchmarks: DLSS 4 vs. 3 und FSR 4 vs. 3.1 in Stellar Blade und The Alters

Status
Für weitere Antworten geschlossen.
Grestorn schrieb:
Ich zocke seit Wochen AC:S mit über 200fps (in 5240x1440). Einfach weil es extrem smooth aussieht und die Bewegungsschärfe dadurch einfach genial ist. Dass die Latenz "nur" etwa die von 60 fps erreicht, stört mich dabei gar nicht. Und die Karte bleibt vergleichsweise sparsam (300-400W).
Und kommt am Ende auch auf das jeweilige Spiele an, wie sehr sich die Diskrepanz zwischen FPS und Latenz bemerkbar macht.
 
MaverickM schrieb:
Deine Meinung hierzu interessiert mich nicht die Bohne
Das ist auch keine Meinung, sondern eine Tatsache ☝️

Den qualitativen Unterschied kann jeder problemlos sehen, bei fast allen Spielen, quer durch die Bank.
Bewusst leugnen hilft hier nicht 🤷‍♂️
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Grestorn
Die ersten Gerüchte zu UDNA sind ja schon die Runde am machen. Selber denke ich, dass sich Richtung PT und MFG dort Einiges tun wird/muss und bin gespannt inwieweit dann 9xxx das Nachsehen haben wird. Dass man FSR4 wohl auf RDNA2&3 vergessen kann hat sich wohl mittlerweile herauskristallisiert, allein schon aus Performancegründen. Man kann nur hoffen, dass der Backdrop dann für 9xxx nicht so stark ausfallen wird wie jetzt bei diesem Cut, denn spätestens jetzt sollte auch dem härtesten AMD Fanboy aufgefallen sein , dass die Karten zu teuer waren/sind. AMD muss da wirklich jetzt vorsichtig sein und auch beim Support von FSR4 schnell liefern sonst werden auch die restlichen paar Prozente an Marktanteil bröckeln und man steht am Ende mit guten Produkten da, die aber kaum jemand mangels Vertrauen kaufen möchte. Dann heisst es wieder , wird ja eh NV gekauft egal was AMD bringt.
 
DevPandi schrieb:
Und hier müssen wir als Redaktion "Analytisch" an die Thematik gehen und hier ist die Liste an Problemen bei FSR < 4 in der Regel eben problematischer als mit DLSS oder XeSS. Das ist so.
da stimme ich dir zu. Nur ist der unterschied in „The Alters“ wirklich sehr gering. Und da ist nunmal die frage die man sich stellen sollte, macht es sin deswegen auf das feature FG zu verzichten? welches mit XESS nicht geht.


DevPandi schrieb:
Das Problem mit der "Bildqualität"

Diese kann man auch einzeln betrachten und muss die nicht als mass der Dinge in einem Spiele test setzen, so das diverse einstellungen dabei rumkommen weil man analytisch Artefakte ausklammern möchte . Dabei aber den subjektiven Spielspass/spielbarkeit/feature support ausser acht läst. Um dann diverse Karten gegeneinander antreten zu lassen.


DevPandi schrieb:
Und es ist halt ein Unterschied, ob ich für mich schreibe, dass ich mit FSR 3.1 auch leben kann, oder ob ich in einem Artikel dann eine andere Rolle einnehmen muss und will.
Das ist natürlich richtig. Wie ich auch schonmal erwähnt hatte gehört der persönliche eindruck auch eher in das Fazit, oder einem gesonderten bereich des Artikels. Mein vorschlag war ja um den ganzen entgegenzuwirken und es aus rein technischer seite zu testen. Alle karten wenn möglich mit „Native“ ohne Upscaler oder dem spiele engine upscaler zu testen, bezüglich des Hardware technischen vergleichs. Und im nächsten Absatz/Seite/Bereich auf die Feature der karte mit Bildverbesserunf/fps gewinn einzugehen welche im spiel verfügbar sind. Dann kann im Fazit auch der Tester sein empfehlung ohne weiteres aussprechen mit subjektiven eindruck von spielbarkeit.

Und jeder kann sehen was seine jetzige/zukünftige karte bei dem spiel leistet. Und leisten könnte in fps oder Bildqualität.


Allerdings wurde mir da geschrieben das so ja keiner spielt. Und das native nunmal mittlerweile realitätsfern ist. Aber jeder spielt nunmal anders.
Die frage ist aber was will ich mit so einem spiele test denn zeigen?
 
Grestorn schrieb:
Alle Spiele, die FSR 3.1 unterstützen, können auf FSR 4 upgegradet werden über den Treiber. Wie bei Spielen, die kein FSR 3.1 oder mind. DLSS 3 unterstützen umgegangen wird, ist ja im Text beschrieben worden.
Das nützt aber Nix wenn manche Studios bis 2077 brauchen oder niemals von 3.0 auf 3.1 aktualisieren.
(wollen dürfen)

btw.
Der nette Nebeneffekt von 3.1 ist übrigens das getrennt laufende FG, das auch auf älteren RTX geht,
vllt. darf aber gerade Das nicht sein, sondern die Spieler sollen mooore neue Hardware kaufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: clmns
Tornavida schrieb:
Die ersten Gerüchte zu UDNA sind ja schon die Runde am machen
Bis hier aber Produkte das Licht der Welt erblicken, wird es sicher noch mind. 1,5 Jahre dauern.
Und das nur für die Hardware. Dann muss man schauen wie es softwareseitig aussieht.
Müssen Hersteller hier wieder gezielt neue Technologien unterstützen? Läuft alles wie bisher unter FSR4?

Hier hat AMD leider noch einen langen Weg vor sich.
Ich hab bis Februar auch für sehr sehr viele Jahre ausschließlich AMD Karten bei mir verbaut. Aber nun konnte ich das leider nicht mehr vor mir selber rechtfertigen.
Den Weg den NV hier geht ist der richtige und AMD hat leider zu spät die Kurve bekommen, bzw. ist noch mitten drin... ich hoffe sie schaffen es und fliegen nicht raus.
 
Northstar2710 schrieb:
Alle karten wenn möglich mit „Native“ ohne Upscaler oder dem spiele engine upscaler zu testen, bezüglich des Hardware technischen vergleichs.
Das benachteiligt allerdings ganz massiv NV.
Wenn die Balken bei AMD auf einmal gleich lang sind, bzw. sogar noch größer, dass mit der Realität aber überhaupt nicht übereinstimmt...

Es ist schon genau richtig so, wie die Tests hier in Zukunft gehandelt werden. Anders kann man es aus Sicht der Fairness und Vergleichbarkeit nicht machen.
Das wurde ja auch jetzt schon mehrfach in Artikeln genau erklärt.
 
  • Gefällt mir
Reaktionen: Grestorn
Ich denke CB wird bei Grafikkarten Tests weiterhin eine Weile reine Rasterleistung bzw. Leistung ohne Upscaler benchen wenn z.B. die Supermodelle auf den Markt kommen. Ob man das dann für jedes Game im Testparcours macht wird sich zeigen oder man doch nicht z.B. einfach 3dmark Benches nimmt.

Bei spezifischen Game Tests ist das aber der richtige Weg wie es aktuell gemacht wird. Das diese Problematik auf CB zukommt hatte ich und Andere schon zu Amperezeiten zu Wort gebracht.
 
GerryB schrieb:
Und mal wieder etwas Verschwörungstheorie einbringen... als good measure. Wäre ja sonst langweilig.
 
Also ich bin als Jahrelanger AMD GPU User auf eine 5070 TI umgestiegen und hatte schon ewig keine so geile Karte. Meiner Meinung nach wird AMD erst mit der Zusammenlegung zwischen RDNA und CDNA interessant.
 
  • Gefällt mir
Reaktionen: Grestorn
Loopman schrieb:
Das benachteiligt allerdings ganz massiv NV.
Nein tut es nicht. Denn im gleichen Artikel gäbe es doch dann noch Die firmen spezifischen upscaler und ihre Bessere Bildqualität mit Balken zu bestaunen. Bedonders im vergleich zu nativ. Aus zeit gründen vielleicht nur mit 1 karte aber dafür in verschiedenen Scaler stufen. Da der fps gewinn aber Prozentual auf allen karten des gleichen Herstellers mehr oder minder gleich ist währe ein kleines balken diagramm auch schnell erstellt mit mehr Gpu‘s

Ob man dann noch ein diagramm mit diversen Herstellern zusammen würfelt bezogen auf die beste Bildqualität sei dahin gestellt. Man würde so aber alle bedienen können. Die auf uoscaler mit stufe xy setzen genauso die nativ spieler und die der anderen Gpu besitzer. Wie man so einen Artikel am besten Ausschmückt und was man wie macht um das zeit kontingent nicht zusprengen müsste man dann schauen.
 
  • Gefällt mir
Reaktionen: clmns
GerryB schrieb:
Das nützt aber Nix wenn manche Studios bis 2077 brauchen oder niemals von 3.0 auf 3.1 aktualisieren.
(wollen dürfen)
Das Können ist in der Regel nicht das Problem.. das Wollen und Dürfen auch nicht..

Sondern das zusätzliche Arbeit reingesteckt werden muss in Spiele die bereits aus dem Support Zeitraum (in der Regel 12monate) raus sind.
Und das diese Updates auch getestet und Bug gefixt werden müssen.

Zusätzliche Arbeit = Kosten.
Auch bei DLSS war es bisher immer eher die Ausnahme als die Regel das man im Support Zeitraum eines Spieles ein offizielles Versions Upgrade bekommen hat.. und das ist ja nu wirklich keine Kunst einfach ne .DLL zu tauschen
 
  • Gefällt mir
Reaktionen: Grestorn
ElliotAlderson schrieb:
Das Ding ist halt auch, dass es eine Zeit vor Reflex und AL2 gab. Damals hat sich der Durchschnittsgames auch nicht an der Latenz gestört, aber jetzt will jeder den Unterschied von 3ms merken und hört Gras wachsen.
In der Zeit vor Reflex/antilag war
prerendered Frames /Flip Queue Size = 3 Standart bei sowohl Nvidia als auch AMD (also bis zu 3 frames im Puffer) und wir haben trotzdem gezockt und gefraggt und haben uns nicht über die Input Latenz gescherrt..
vorallen nicht in nicht competiven FPS Spielen wo rumgeballert wurde.

@Grestorn
AMEN, gut geschrieben
 
Zuletzt bearbeitet:
Taxxor schrieb:
DAS nenne ich mal Fine Wine.
Auf Jeden! :daumen:

So ... muss weiterzocken (mit alter, DLSS 4-aufgepimpter 3000er Generation :) ).

Wünsche allen AMD/Intel/Nvidia-Nutzern einen wunderbaren Sonntag ☀️ 😎 ☕ und ein schattiges Plätzchen und/oder Ventilator! :D
 
Grestorn schrieb:
@Apocalypse Mich schon. De fakto kann man mit einer RTX 3070 viel mehr anfangen und ist viel seltener eingeschränkt als mit einer 16GB RX6800.
Aha. Erst der Trend, alle Grafikkarten, die nur 8GB VRAM besitzen, generell niedermachen, dann DLSS 3/4 und FSR4 als heiligen Gral ausrufen, 8GB sind dann wieder ok.
Mal sehen wann die nächste Sau durchs Dorf getrieben wird. Ich bleibe beim Vergleich der Grafikkartenleistung erstmal weiter bei der "Raw" Leistung.
 
  • Gefällt mir
Reaktionen: Windell und ReVan1199
Blackfirehawk schrieb:
Und auch die Nvidia Treiber Situation hat sich extrem gebessert.
Ja sie hatten Probleme beim Release..
aber es wurde konstant daran gearbeitet und fixes rausgehauen..
Ich hatte weder mit der 4080 Probleme das letzte halbe Jahr.. noch mit der 5090 die absolut keine Mucken oder Treiber Probleme bei mir hat..
Weil DU keine Probleme hast oder mehr hast, gibt es keine Probleme mehr und die Situation hat sich für ALLE dadurch verbessert?
 
  • Gefällt mir
Reaktionen: clmns
NoNameNoHonor schrieb:
Aha. Erst der Trend, alle Grafikkarten, die nur 8GB VRAM besitzen, generell niedermachen
Du wirst dergleichen nie von mir gehört haben. Ich habe die Fokussierung auf die VRAM Größe schon immer sehr kritisch gesehen. Erst jetzt werden 8GB in einigen Fällen langsam zu einem Hinderniss, aber schon vor 5 Jahren waren die Stimmen laut, die sich über 8GB aufgeregt haben.
Ergänzung ()

relaxed_Guy schrieb:
Weil DU keine Probleme hast oder mehr hast, gibt es keine Probleme mehr und die Situation hat sich für ALLE dadurch verbessert?
Die meisten Probleme sind tatsächlich verschwunden. Und so krass waren die Probleme auch nie.

Die eigentliche Neuigkeit ist, wie sehr (M)FG zusammen mit GSync verbessert wurde. Das war die größte Baustelle in den frühen Tagen vom Blackwell. Leider wird das von der Presse so gut wie gar nicht adressiert.
 
  • Gefällt mir
Reaktionen: Loopman und relaxed_Guy
DevPandi schrieb:
Das Problem mit der Bildqualität ist, dass du diese "objektiv" nicht wirklich messen kannst
Weshalb Sie in objektiven Leistungsvergleichen nichts zu suchen haben, meiner Meinung nach.
 
ElliotAlderson schrieb:
Ich weiß nicht wie Optiscaler funktioniert.
Für mich liest sich das so, dass eigentlich für Hardware optimierte Vorgänge auf Software ausgelagert werden... Also eine Art Emulation.

Wie sie auch immer das im Detail machen.
Auf jeden Fall kommt dadurch auch der krasse Performanceverlust.

Und weil die Hardware es nicht kann, wird es wohl niemals offiziell kommen.
AMD wird doch nicht eine zusätzliche Handbremse implementieren, wenn es nicht zwingend nötig ist.
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Zurück
Oben