Und kommt am Ende auch auf das jeweilige Spiele an, wie sehr sich die Diskrepanz zwischen FPS und Latenz bemerkbar macht.Grestorn schrieb:Ich zocke seit Wochen AC:S mit über 200fps (in 5240x1440). Einfach weil es extrem smooth aussieht und die Bewegungsschärfe dadurch einfach genial ist. Dass die Latenz "nur" etwa die von 60 fps erreicht, stört mich dabei gar nicht. Und die Karte bleibt vergleichsweise sparsam (300-400W).
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Aktuelle Benchmarks: DLSS 4 vs. 3 und FSR 4 vs. 3.1 in Stellar Blade und The Alters
- Status
- Für weitere Antworten geschlossen.
Das ist auch keine Meinung, sondern eine Tatsache ☝️MaverickM schrieb:Deine Meinung hierzu interessiert mich nicht die Bohne
Den qualitativen Unterschied kann jeder problemlos sehen, bei fast allen Spielen, quer durch die Bank.
Bewusst leugnen hilft hier nicht 🤷♂️
Tornavida
Banned
- Registriert
- Okt. 2020
- Beiträge
- 6.298
Die ersten Gerüchte zu UDNA sind ja schon die Runde am machen. Selber denke ich, dass sich Richtung PT und MFG dort Einiges tun wird/muss und bin gespannt inwieweit dann 9xxx das Nachsehen haben wird. Dass man FSR4 wohl auf RDNA2&3 vergessen kann hat sich wohl mittlerweile herauskristallisiert, allein schon aus Performancegründen. Man kann nur hoffen, dass der Backdrop dann für 9xxx nicht so stark ausfallen wird wie jetzt bei diesem Cut, denn spätestens jetzt sollte auch dem härtesten AMD Fanboy aufgefallen sein , dass die Karten zu teuer waren/sind. AMD muss da wirklich jetzt vorsichtig sein und auch beim Support von FSR4 schnell liefern sonst werden auch die restlichen paar Prozente an Marktanteil bröckeln und man steht am Ende mit guten Produkten da, die aber kaum jemand mangels Vertrauen kaufen möchte. Dann heisst es wieder , wird ja eh NV gekauft egal was AMD bringt.
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 9.658
da stimme ich dir zu. Nur ist der unterschied in „The Alters“ wirklich sehr gering. Und da ist nunmal die frage die man sich stellen sollte, macht es sin deswegen auf das feature FG zu verzichten? welches mit XESS nicht geht.DevPandi schrieb:Und hier müssen wir als Redaktion "Analytisch" an die Thematik gehen und hier ist die Liste an Problemen bei FSR < 4 in der Regel eben problematischer als mit DLSS oder XeSS. Das ist so.
DevPandi schrieb:Das Problem mit der "Bildqualität"
Diese kann man auch einzeln betrachten und muss die nicht als mass der Dinge in einem Spiele test setzen, so das diverse einstellungen dabei rumkommen weil man analytisch Artefakte ausklammern möchte . Dabei aber den subjektiven Spielspass/spielbarkeit/feature support ausser acht läst. Um dann diverse Karten gegeneinander antreten zu lassen.
Das ist natürlich richtig. Wie ich auch schonmal erwähnt hatte gehört der persönliche eindruck auch eher in das Fazit, oder einem gesonderten bereich des Artikels. Mein vorschlag war ja um den ganzen entgegenzuwirken und es aus rein technischer seite zu testen. Alle karten wenn möglich mit „Native“ ohne Upscaler oder dem spiele engine upscaler zu testen, bezüglich des Hardware technischen vergleichs. Und im nächsten Absatz/Seite/Bereich auf die Feature der karte mit Bildverbesserunf/fps gewinn einzugehen welche im spiel verfügbar sind. Dann kann im Fazit auch der Tester sein empfehlung ohne weiteres aussprechen mit subjektiven eindruck von spielbarkeit.DevPandi schrieb:Und es ist halt ein Unterschied, ob ich für mich schreibe, dass ich mit FSR 3.1 auch leben kann, oder ob ich in einem Artikel dann eine andere Rolle einnehmen muss und will.
Und jeder kann sehen was seine jetzige/zukünftige karte bei dem spiel leistet. Und leisten könnte in fps oder Bildqualität.
Allerdings wurde mir da geschrieben das so ja keiner spielt. Und das native nunmal mittlerweile realitätsfern ist. Aber jeder spielt nunmal anders.
Die frage ist aber was will ich mit so einem spiele test denn zeigen?
GerryB
Commodore
- Registriert
- Sep. 2016
- Beiträge
- 5.065
Das nützt aber Nix wenn manche Studios bis 2077 brauchen oder niemals von 3.0 auf 3.1 aktualisieren.Grestorn schrieb:Alle Spiele, die FSR 3.1 unterstützen, können auf FSR 4 upgegradet werden über den Treiber. Wie bei Spielen, die kein FSR 3.1 oder mind. DLSS 3 unterstützen umgegangen wird, ist ja im Text beschrieben worden.
(wollen dürfen)
btw.
Der nette Nebeneffekt von 3.1 ist übrigens das getrennt laufende FG, das auch auf älteren RTX geht,
vllt. darf aber gerade Das nicht sein, sondern die Spieler sollen mooore neue Hardware kaufen.
Zuletzt bearbeitet:
Bis hier aber Produkte das Licht der Welt erblicken, wird es sicher noch mind. 1,5 Jahre dauern.Tornavida schrieb:Die ersten Gerüchte zu UDNA sind ja schon die Runde am machen
Und das nur für die Hardware. Dann muss man schauen wie es softwareseitig aussieht.
Müssen Hersteller hier wieder gezielt neue Technologien unterstützen? Läuft alles wie bisher unter FSR4?
Hier hat AMD leider noch einen langen Weg vor sich.
Ich hab bis Februar auch für sehr sehr viele Jahre ausschließlich AMD Karten bei mir verbaut. Aber nun konnte ich das leider nicht mehr vor mir selber rechtfertigen.
Den Weg den NV hier geht ist der richtige und AMD hat leider zu spät die Kurve bekommen, bzw. ist noch mitten drin... ich hoffe sie schaffen es und fliegen nicht raus.
Das benachteiligt allerdings ganz massiv NV.Northstar2710 schrieb:Alle karten wenn möglich mit „Native“ ohne Upscaler oder dem spiele engine upscaler zu testen, bezüglich des Hardware technischen vergleichs.
Wenn die Balken bei AMD auf einmal gleich lang sind, bzw. sogar noch größer, dass mit der Realität aber überhaupt nicht übereinstimmt...
Es ist schon genau richtig so, wie die Tests hier in Zukunft gehandelt werden. Anders kann man es aus Sicht der Fairness und Vergleichbarkeit nicht machen.
Das wurde ja auch jetzt schon mehrfach in Artikeln genau erklärt.
Tornavida
Banned
- Registriert
- Okt. 2020
- Beiträge
- 6.298
Ich denke CB wird bei Grafikkarten Tests weiterhin eine Weile reine Rasterleistung bzw. Leistung ohne Upscaler benchen wenn z.B. die Supermodelle auf den Markt kommen. Ob man das dann für jedes Game im Testparcours macht wird sich zeigen oder man doch nicht z.B. einfach 3dmark Benches nimmt.
Bei spezifischen Game Tests ist das aber der richtige Weg wie es aktuell gemacht wird. Das diese Problematik auf CB zukommt hatte ich und Andere schon zu Amperezeiten zu Wort gebracht.
Bei spezifischen Game Tests ist das aber der richtige Weg wie es aktuell gemacht wird. Das diese Problematik auf CB zukommt hatte ich und Andere schon zu Amperezeiten zu Wort gebracht.
Und mal wieder etwas Verschwörungstheorie einbringen... als good measure. Wäre ja sonst langweilig.GerryB schrieb:(wollen dürfen)
ChatGehPeeTee
Lieutenant
- Registriert
- März 2025
- Beiträge
- 654
Also ich bin als Jahrelanger AMD GPU User auf eine 5070 TI umgestiegen und hatte schon ewig keine so geile Karte. Meiner Meinung nach wird AMD erst mit der Zusammenlegung zwischen RDNA und CDNA interessant.
Northstar2710
Admiral
- Registriert
- Aug. 2019
- Beiträge
- 9.658
Nein tut es nicht. Denn im gleichen Artikel gäbe es doch dann noch Die firmen spezifischen upscaler und ihre Bessere Bildqualität mit Balken zu bestaunen. Bedonders im vergleich zu nativ. Aus zeit gründen vielleicht nur mit 1 karte aber dafür in verschiedenen Scaler stufen. Da der fps gewinn aber Prozentual auf allen karten des gleichen Herstellers mehr oder minder gleich ist währe ein kleines balken diagramm auch schnell erstellt mit mehr Gpu‘sLoopman schrieb:Das benachteiligt allerdings ganz massiv NV.
Ob man dann noch ein diagramm mit diversen Herstellern zusammen würfelt bezogen auf die beste Bildqualität sei dahin gestellt. Man würde so aber alle bedienen können. Die auf uoscaler mit stufe xy setzen genauso die nativ spieler und die der anderen Gpu besitzer. Wie man so einen Artikel am besten Ausschmückt und was man wie macht um das zeit kontingent nicht zusprengen müsste man dann schauen.
Blackfirehawk
Commander
- Registriert
- Dez. 2018
- Beiträge
- 2.611
Das Können ist in der Regel nicht das Problem.. das Wollen und Dürfen auch nicht..GerryB schrieb:Das nützt aber Nix wenn manche Studios bis 2077 brauchen oder niemals von 3.0 auf 3.1 aktualisieren.
(wollen dürfen)
Sondern das zusätzliche Arbeit reingesteckt werden muss in Spiele die bereits aus dem Support Zeitraum (in der Regel 12monate) raus sind.
Und das diese Updates auch getestet und Bug gefixt werden müssen.
Zusätzliche Arbeit = Kosten.
Auch bei DLSS war es bisher immer eher die Ausnahme als die Regel das man im Support Zeitraum eines Spieles ein offizielles Versions Upgrade bekommen hat.. und das ist ja nu wirklich keine Kunst einfach ne .DLL zu tauschen
ElliotAlderson
Lt. Commander
- Registriert
- Juni 2024
- Beiträge
- 2.015
Weil du mehr hättest fürs Geld bekommen können. Die Spiele könnten mit FSR 4/DLSS noch besser laufen und schöner aussehen.xXDariusXx schrieb:Was interessiert mich FSR4 oder DLSS4 wenn meine Games wunderbar auf 2K laufen mit mindestens 60 FPS??
Blackfirehawk
Commander
- Registriert
- Dez. 2018
- Beiträge
- 2.611
In der Zeit vor Reflex/antilag warElliotAlderson schrieb:Das Ding ist halt auch, dass es eine Zeit vor Reflex und AL2 gab. Damals hat sich der Durchschnittsgames auch nicht an der Latenz gestört, aber jetzt will jeder den Unterschied von 3ms merken und hört Gras wachsen.
prerendered Frames /Flip Queue Size = 3 Standart bei sowohl Nvidia als auch AMD (also bis zu 3 frames im Puffer) und wir haben trotzdem gezockt und gefraggt und haben uns nicht über die Input Latenz gescherrt..
vorallen nicht in nicht competiven FPS Spielen wo rumgeballert wurde.
@Grestorn
AMEN, gut geschrieben
Zuletzt bearbeitet:
- Registriert
- Aug. 2012
- Beiträge
- 7.475
Auf Jeden!Taxxor schrieb:DAS nenne ich mal Fine Wine.
So ... muss weiterzocken (mit alter, DLSS 4-aufgepimpter 3000er Generation
Wünsche allen AMD/Intel/Nvidia-Nutzern einen wunderbaren Sonntag ☀️ 😎 ☕ und ein schattiges Plätzchen und/oder Ventilator!
NoNameNoHonor
Lt. Commander
- Registriert
- Nov. 2020
- Beiträge
- 1.033
Aha. Erst der Trend, alle Grafikkarten, die nur 8GB VRAM besitzen, generell niedermachen, dann DLSS 3/4 und FSR4 als heiligen Gral ausrufen, 8GB sind dann wieder ok.Grestorn schrieb:@Apocalypse Mich schon. De fakto kann man mit einer RTX 3070 viel mehr anfangen und ist viel seltener eingeschränkt als mit einer 16GB RX6800.
Mal sehen wann die nächste Sau durchs Dorf getrieben wird. Ich bleibe beim Vergleich der Grafikkartenleistung erstmal weiter bei der "Raw" Leistung.
R
relaxed_Guy
Gast
Weil DU keine Probleme hast oder mehr hast, gibt es keine Probleme mehr und die Situation hat sich für ALLE dadurch verbessert?Blackfirehawk schrieb:Und auch die Nvidia Treiber Situation hat sich extrem gebessert.
Ja sie hatten Probleme beim Release..
aber es wurde konstant daran gearbeitet und fixes rausgehauen..
Ich hatte weder mit der 4080 Probleme das letzte halbe Jahr.. noch mit der 5090 die absolut keine Mucken oder Treiber Probleme bei mir hat..
Du wirst dergleichen nie von mir gehört haben. Ich habe die Fokussierung auf die VRAM Größe schon immer sehr kritisch gesehen. Erst jetzt werden 8GB in einigen Fällen langsam zu einem Hinderniss, aber schon vor 5 Jahren waren die Stimmen laut, die sich über 8GB aufgeregt haben.NoNameNoHonor schrieb:Aha. Erst der Trend, alle Grafikkarten, die nur 8GB VRAM besitzen, generell niedermachen
Ergänzung ()
Die meisten Probleme sind tatsächlich verschwunden. Und so krass waren die Probleme auch nie.relaxed_Guy schrieb:Weil DU keine Probleme hast oder mehr hast, gibt es keine Probleme mehr und die Situation hat sich für ALLE dadurch verbessert?
Die eigentliche Neuigkeit ist, wie sehr (M)FG zusammen mit GSync verbessert wurde. Das war die größte Baustelle in den frühen Tagen vom Blackwell. Leider wird das von der Presse so gut wie gar nicht adressiert.
R
relaxed_Guy
Gast
Weshalb Sie in objektiven Leistungsvergleichen nichts zu suchen haben, meiner Meinung nach.DevPandi schrieb:Das Problem mit der Bildqualität ist, dass du diese "objektiv" nicht wirklich messen kannst
Für mich liest sich das so, dass eigentlich für Hardware optimierte Vorgänge auf Software ausgelagert werden... Also eine Art Emulation.ElliotAlderson schrieb:Ich weiß nicht wie Optiscaler funktioniert.
Wie sie auch immer das im Detail machen.
Auf jeden Fall kommt dadurch auch der krasse Performanceverlust.
Und weil die Hardware es nicht kann, wird es wohl niemals offiziell kommen.
AMD wird doch nicht eine zusätzliche Handbremse implementieren, wenn es nicht zwingend nötig ist.
- Status
- Für weitere Antworten geschlossen.
Ähnliche Themen
- Umfrage
- Antworten
- 33
- Aufrufe
- 5.084