• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Senua’s Saga: Hellblade II im Test: Starke Grafik verlangt nach einer potenten Grafikkarte

Das stimmt nicht auf gamesplanet offizieller retailer bekommt man den MS key für 43€ hat aber den ärger mit dem microsoft store
Steam ist einzig nur bei 50€
 
Da die Spielzeit sehr kurz ist, ergibt es denke ich am meisten Sinn für 10€ einen Monat Game Pass zu holen und es in 2-3 Tagen komplett durchzuspielen. Würde in diesem Fall weder den Vollpreis noch den Keyseller-Preis dafür zahlen. Nochmal durchspielen würde ich ein Spiel frühestens nach 3-4 Jahren, dann bekommt man es in der Regel sowieso hinterhergeworfen oder man abonniert halt nochmal einen Monat Game Pass. Ich habe nichts davon hunderte durchgespielte Spiele bei Steam zu horten.
 
  • Gefällt mir
Reaktionen: scryed, Sirhaubinger und Volvo480
Wolfgang schrieb:
weil Ultra HD deutlich besser aussieht als WQHD.
Normalerweise variieren die Bildschirmgrößen, mit der verschiedenen Auflösung.

Ich würde also nicht pauschal sagen, dass UHD besser aussieht, als WQHD. Kommt immer auf die PPI an.

Beispiel: 65" UHD TV/Monitor hat 68 PPI.
27" WQHD Monitor hat 109 PPI.

In diesem Fall sieht WQHD deutlich besser aus, als UHD.

Aber ich schätze, du meinst bei gleicher Monitorgröße. Geh ich einfach mal von aus.

Wollte nur sagen: Wenn der Monitor recht nah vor dir steht, kann auch WQHD sehr gut aussehen.
Über 100 PPI sehen meiner Meinung nach nicht so verkehrt aus (zumal, wenn direkt vor der Nase hinter der Tastatur).

Vor allem, wenn man als Referenzwert zum Vergleich einen althergebrachten 24" 1080p heranzieht = 92 PPI.

Was nützt es dann z.B. wenn ich einen 48" TV(UHD), als Monitorersatz einsetzte, vielleicht n Tick weiter weg sitzend, ich dann aber die gleichen PPI, wie beim alten 24" Full HD Monitor, nämlich 92 habe?

Kommt immer drauf an. 😎

Und Kantenglättung soll heut zutage ja auch mal mehr, oder weniger funktionieren, hab ich mal gehört. 😉
 
msv schrieb:
Nein, ich glaube nicht, zumindest bei 32:9 sind keine mehr zu sehen, dann wird das bei 21:9 ja wohl nicht anders sein 🤓.

Anhang anzeigen 1485602
Quelle: Ninja Theory/Instagram
Von weitem sieht es aus wie ein halber TV ;) Oben und unten fehlt noch was ;)

Bin total gespannt wie es auf der Xbox X läuft. Ein direkter Vergleich zum PC würde mich mal Interessieren.
 
  • Gefällt mir
Reaktionen: msv
Ich warte mal ab auf Berichte wie das Spiel unter Linux läuft. Vielleicht werde ich schwach und kaufe das Spiel doch zeitnah (wenn es denn unter Linux vernünftig läuft), hätte schon richtig Bock drauf einfach weil die Erstberichte über das Spiel top sind.
Es geht um Charaktere, Story, Erleben - Mega!
Und die Schauspielerin/Vertonung scheint auch wieder erstklassig zu sein.

Mit meiner Radeon RX 6900 XT sollte FullHD schon gut drin sein (hoffe ich, einberechnet ist etwas schlechtere Performance unter Linux, falls es so ist).
 
Haldi schrieb:
Edit: In der Tat...
Engine.ini finden und
Code:
[/Script/Engine.RendererSettings]
r.Tonemapper.Quality=3
Einfügen deaktiviert FilmGrain, und somit kann man Post Processing Quality auch auf High lassen :)

Wie kommst du drauf?
Müsste es nicht:

r.Tonemapper.GrainQuantization=0

lauten?

Ok hier wird's beschrieben wie du meinst:

https://steamcommunity.com/app/414340/discussions/0/1471967615863309984/

Edit:

So jetzt aber:
https://www.reddit.com/r/hellblade/comments/6sjjfm/some_pc_graphics_setting_tweaks_for_hellblade/
 
Zuletzt bearbeitet:
ChrisMK72 schrieb:
Über 100 PPI sehen meiner Meinung nach nicht so verkehrt aus (zumal, wenn direkt vor der Nase hinter der Tastatur).

Absolut.

Habe hier einen Monitor mit 95ppi, was für mich generell noch in Ordnung ist.
Saß aber vor einigen Monaten an einem Monitor, etwa gleicher Sitzabstand, der nur 81ppi hatte - und das war schon ziemlich grausam...
 
  • Gefällt mir
Reaktionen: ChrisMK72
ChrisMK72 schrieb:
Beispiel: 65" UHD TV/Monitor hat 68 PPI.
27" WQHD Monitor hat 109 PPI.

In diesem Fall sieht WQHD deutlich besser aus, als UHD.
Dabei verschweigst du aber, dass der Sitzabstand vor dem TV deutlich größer sein dürfte als vor dem Monitor am Schreibtisch.

PPI alleine sagt auch nichts, ohne Abstand zum Betrachter.
 
  • Gefällt mir
Reaktionen: Brrr, timmey77, Atnam und eine weitere Person
Raptor85 schrieb:
Gerade jetzt ist sowieso erstmal die Season 4 von D IV dran.
Ist das wirklich besser geworden? Ich als Diablo Fan war extrem enttäuscht. Da macht sogar D1 mehr Spaß im Multiplayer... obwohl du da eigentlich nichts außer Story machen kannst.

D3 und D4 sind und bleiben wohl die schlechtesten Diablo Spiele jemals. Wobei, bei Blizzard könnte Teil 5 noch einen "drauf" legen.
Ergänzung ()

Haldi schrieb:
Da isst man lieber Kekse.
Ich weiß nicht.... Spiele die optimiert wie Müll sind haben sowas dann irgendwo verdient.
 
AvenDexx schrieb:
@Mimir
Das war nicht ich, ich habe nur die Frage zum Film Grain gestellt und deine Antwort gab eben an, dass nur der Film Grain deaktiviert werde. Aber gut, erstmal danke für die Antwort.

Sorry, jetzt verwechsle ich schon die User...


Haldi schrieb:
Joa, hab mich in anderen Spielen schon darüber aufgeregt das ich nur rund 30-40% Mehr FPS bekomme und nicht die von nvidia versprochenen 100% die sie überal in Demos gezeigt haben. Darum wie gesagt. nVidia muss in der nächsten Generation nachbessern wenn sie das Feature wirklich verbreiten wollen.

Die Nvidia Demos und Benchmarks zu "DLSS3" waren immer mit Frame Generation + Upscaling. Upscaling ist nunmal auch Teil von DLSS3...
Das wird aber auch immer mit angegeben von Nvidia, wenn man deren Berichte dazu liest.

In Rasterized Spielen bekommst du mit Upscaling + Frame Gen meistens doppelte Framerate oder mehr je nach Upscaling Faktor.
Bei Spielen mit viel Raytracing-last kann die Framerate mit Upscaling + FG aber auch um das 3-4 fache ansteigen, mit Pathtracing sogar um das 4-5 fache.

Wie gut FG bei der performance skaliert hängt auch stark von der Auflösung ab. Wenn du in 8K x 2K spielst, dann sind die Kosten für FG extrem hoch. In 16:9 mit 2160p oder 1440p skaliert FG besser. weil das Zwischenbild weniger hoch aufgelöst ist und schneller berechnet werden kann.

Klar sollte Nvidia weiter daran arbeiten. Am besten nicht nur ein zwischenbild sondern viele. Aber die kosten eben alle Rechenleistung. Aber wenn nvidia dafür genug Ressourcen auf der GPU bereitstellt, dann sollte das schon klappen.

Ich finde FG extrem nützlich mich bringt das in dem Spiel von knapp unter 60 FPS auf ca 80-90 FPS oft auch 100+ je nach Szene eben. Der Anstieg an smoothness ist gerade in dem Bereich sehr extrem wie ich finde.



ChrisMK72 schrieb:
Es gibt ja auch die These: Zu hohe Auflösung (z.B. 4k/UHD) ergibt keinen Sinn, da es für die meisten Grafikkarten (außerhalb von Top-Highend) zu viel Leistung kostet.

Hier mal ne kleine Übersicht aus Hellblade 2:

Nativ+FGQuality+FGBalanced+FGPerformance+FG
1080p85130------
1440p619690136----
1800p4775731128212693140
2160p356159927010580119


1440p mit Quality Upsampling ist z.B. schonmal viel schärfer als 1080p nativ.
Da erreichst du in meinem Beispiel 90 FPS bzw. 136 FPS wenn FG dazu geschaltet wird.

Ich würde das aber auch als Baseline definieren, erstrecht da es schneller läuft. als 1080p nativ.

So, was kostet es jetzt, auf 4K zu gehen?
Nehmen wir direkt Performance upscaling. Da ist die interne Renderauflösung höher als bei 1440p Quality, nämlich 1080p statt 960p, jedoch ist die Bildqualität nochmal sehr viel besser als bei 1080p nativ. Faktisch liegen dazwischen Welten, weil 4K selbst mit Performance Upscaling (zumindest mit DLSS) schon vergleichsweise nah an 4K nativ rankommt oder einem zumindest ein "4K like" Bild gibt, das in jedem Fall besser als 1440p mit Quality Upsampling und auch besser als 1440p nativ aussieht. Es ist einfach deutlich schärfer weil das finale Bild eben in einer 4K Auflösung rekonstruiert wird.

Und hier haben wir dann 80 FPS. Das sind gerade mal 5 FPS weniger als in 1080p nativ wo es eben 85 FPS sind.
Gut, FG skaliert wie ich oben schon sagte in 4K aufgrund der hohen Ausgabeauflösung ein wenig schlechter. Hier sind es mit FG dann "nur" knapp 120 FPS statt 130 FPS wie in 1080p. 10 FPS Verlust um statt in 1080p mit einem 4K Bild zu spielen? Für mich ein no-brainer.

Aber auch die FPS die man in 1080p hätte, kann man sich wenn mans drauf anlegt wieder zurückholen indem man auf 1800p mit Performance Upscaling geht. Das sieht auf einem 4K Screen immernoch relativ scharf aus. Klar mit Performance Upscaling ist das natürlich ein größerer Kompromiss, aber wir haben dann 140 FPS und trotzdem ein deutlich schärferes und detaillierteres Bild als 1080p nativ.


Meine Meinung: Sobald man genug Leistung hat um 1440p mit Quality Upsampling zu betrieben und man vielleicht 10% performance und etwas VRAM entbehren kann, kann man auch direkt auf 4K gehen und bekommt mit performance upscaling das deutlich bessere Bild. Zudem hat man reserven um das Bild bei weniger anspruchsvollen Spielen (oder künftig stärkerer GPU) noch besser zu machen.

Ich würde sagen mit allem >= RTX4070 oder RX6800 kann man locker 4K ins Auge fassen. Man muss das Panel ja qualitativ nicht voll ausfahren. Es reicht ja schon, wenn man Settings nutzen kann, die deutlich besser als 1080p oder 1440p aussehen.


PS: Ich muss hier allerdings einschränken, dass das ganze nur mit DLSS und TSR gilt. Mit FSR wäre ich in 4K mit performance upscaling sehr vorsichtig. Das flimmert in rauscht teilweise sehr stark. Eigentlich fällt AMD aus der betrachtung damit weitestgehend raus, da damit in 4K eigentlich nur Quality Upscaling sinnvoll ist. Das kann sich mit FSR 3.1 aber wieder ändern (hoffentlich)...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wan900
Ganz schön enttäuschend wie die nvidia 4000 Reihe hier abschneidet, wo ist hier die Bremse drin?
 
  • Gefällt mir
Reaktionen: daknoll
@icetom AMD favorisierte Optimierung. Wäre auch nicht das erste mal bei M$ Titeln. Siehe Starfield.
 
icetom schrieb:
Ganz schön enttäuschend wie die nvidia 4000 Reihe hier abschneidet, wo ist hier die Bremse drin?
Shinigami1 schrieb:
AMD favorisierte Optimierung. Wäre auch nicht das erste mal bei M$ Titeln. Siehe Starfield.
Meines Erachtens passt doch alles? Die 4090 ist in 4K mit Quality Upscaling 25% schneller als die 7900 XTX. Im letzten CB-Testparcours sind es durchschnittlich 29%. In Letzterem wurden allerdings viele Spiele in nativem 4K gebencht, was dann auch die verbleibendenden 4 Prozentpunkte Differenz erklärt.

Edit: Dann kommt noch der 2% niedigere Speichertakt und das mit dem Treiber 552.44 (mit welchem getestet wurde) noch fehlende RBar-Profil dazu, die @Mimir im Post nach meinem erwähnt. Mit den beiden Sachen sollte der Abstand zwischen AMD und NVIDIA also sogar ziemlich genau im Durchschnitt liegen. Bei Starfield war man zu Release (mittlerweile nicht mehr) vom Durchschnitt meilenweit entfernt. Die Situation bei Hellblade 2 ist also nicht ansatzweise vergleichbar.

Das Spiel verwendet kein Hardware-Raytracing, damit würde es natürlich anders aussehen.
 
Zuletzt bearbeitet:

@icetom


Wolfgang hat doch gesagt, dass bei den Nvidia Karten der Speichertakt nicht passt (2%) und der Treiber der vorhin erschienen ist fügt noch ein rBAR Profil hinzu.

Kannst also bei Nvidia ein paar FPS draufrechnen.
 
Läuft auch sehr gut unter Linux ;)
 
  • Gefällt mir
Reaktionen: Shader, xXDariusXx und Kuristina
Haldi schrieb:
Oder wie sieht der Rest der Community das?
Unterstütze das. Würde auch einen Absatz zu optimierten Einstellungen wünschen, hinsichtlich Auswirkungen auf Optik und Performance.

Alle Regler auf Anschlag heißt vielfach nur viel Performance verlieren für wenigen, optischen Gewinn.
 
  • Gefällt mir
Reaktionen: FLCL, ChrisMK72 und Kuristina
Zurück
Oben