Test Lords of the Fallen im Test: Unreal Engine 5 bringt Grafikkarten ans Limit

Twisterstift schrieb:
warum für die 4090 kein 512 bit Speicherunterface und 32gB Speicher?
7900xtx selbiges Spiel. Die Speicher kosten nicht die Welt. Ebenso hätten sicherlich PCI-e 5 ganz gut getan.
Es ist jedoch schöner, immer wieder neu abzukassieren.
Weil die Speicherbandbreite nicht limitert? Mit dem gleichen Argument könnte man sagen "warum nicht HBM?". Die Karten werden so für ML interessanter, bringt in Spielen aber nichts.

PCI-E 5 bringt gar nichts. Selbst PCI-E 3 reicht vollkommen aus. Macht die nur unnötig teuer, ohne Nutzen.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
die grafik auf einem high end pc ist schon toll. ich gucke ab und zu bei youtube jack fromsoft. der spielt ausschließlich souls spiele und hat auch was auf dem kasten. der hat erst die ps5 version gespielt und war absolut unzufrieden mit der grafik und der performance. da kamen auch sprüche wie "sieht aus wie dark souls 2" etc.. dann hatte er die schnauze von der grafik und der miesen performance voll und ist auf die pc version gewechselt. unterschied wie tag und nacht sag ich euch. er hat aber auch eine 4090er im rechner. mit solch einer hardware sieht das spiel auch nach next gen aus. die wischi waschi grafik von den konsolen oder die miese performance von mittelklasse pcs kann man nicht als maßstab nehmen.

für mich sind die anforderungen auch zu hoch für das gebotetene. aber es sieht mit richtiger hardware super aus und läuft auch anständig. das kann man nicht wegdiskutieren oder mit uralt dark souls games vergleichen.

grüße
 
Zuletzt bearbeitet:
hab das game immer wieder in streams gesehen, sah schon spaßig aus. also für leute, die souls spiele mögen.

... hätte aber nie gedacht, wie hardwarehungrig dieses spiel ist. das game sieht schon ok aus, aber nicht für die geforderte hardware. mal wieder. ^^

dennoch ist der artstyle bei diesen games bedeutend wichtiger als die technische grafikqualität, da gucke ich persönlich über schwächen bei letzterem nicht so sehr drauf wenn das erstere gut ausfällt.
 
  • Gefällt mir
Reaktionen: Mcr-King und Otsy
OiOlli schrieb:
Das Problem ist, das Spiel lastet Grafikkarten schon in Full-HD aus und sieht dabei nicht mal gut aus. Alleine die Charaktermodelle sind nun ja nicht gerade gut.

Das ist das Problem. Klar kann man die schon nicht gerade gut Grafik noch runter schrauben. Oder man kauft es erst gar nicht.
Steht irgendwie in krassen Gegenteil zu meinen post.

Aber gut. Ich frage mich öfter was manche Leute inzwischen erwarten :) fällt mir schwer ernst zu nehmen wenn man sagt das dieses Spiel nicht gut aussehen würde. Oder bezog sich das rein auf full HD? In fhd sieht für mich fast nichts mehr wirklich gut :D

Aber wie gesagt. Jedem seine Meinung :)
 
Die technischen Schwächen und Probleme stehen auf einem anderen Blatt (nach mittlerweile 35h ingame vermag ich das recht gut zu beurteilen, denke ich), aber zu behaupten das Spiel sähe (abseits von kleineren Makeln) nicht gut aus grenzt schon zu signifikantem Teil an Realitätsverweigerung.

Gerade kämpfte ich erstmalig gegen einen alten Bekannten aus dem ersten Teil, btw. Es gefällt mir ausgesprochen gut, dass man sich auch beim Storytelling und der Lore an FromSoft-Titeln orientiert hat.

Ich bleibe dabei: Von allen Nicht-FromSoft-Soulslikes ist Lords Of The Fallen das mit Abstand beste. Erneut: Technische Mängel ausgenommen.
 
  • Gefällt mir
Reaktionen: neWworld, Mcr-King und LDNV
LDNV schrieb:
Steht irgendwie in krassen Gegenteil zu meinen post.

Aber gut. Ich frage mich öfter was manche Leute inzwischen erwarten :) fällt mir schwer ernst zu nehmen wenn man sagt das dieses Spiel nicht gut aussehen würde. Oder bezog sich das rein auf full HD? In fhd sieht für mich fast nichts mehr wirklich gut :D

Aber wie gesagt. Jedem seine Meinung :)


Ich erwarte für die Hardwareanforderungen auch eine entsprechende Grafik.

Und wenn schon die Charaktermodelle minimalistisch ausfallen, zieht das die Qualität runter.


@theGucky Ich weiß zwar nicht welche Kreatur von Quintatha dir heute morgen auf den Fuß getreten ist, aber ich hab einen guten Monitor und gute Augen. Und die Screenshots sowie Video die ich gesehen habe reißen mich nicht vom Hocker.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
theGucky schrieb:
Ja auf den Preis einer Konsole komme ich nicht, dafür bietet ein PC aber deutlich mehr.
Das Problem ist das die meisten Menschen das "deutlich mehr" nicht brauchen / wollen.
Dazu, die Komponenten von denen du sprichst haben teilweise zum Erscheinen der Konsolen mehr gekostet oder waren leistungsschwächer.
Und ob 500 oder 1500 macht inzwischen in DE einen großen Unterschied abseits der 6% Millionäre und xx% "wohlhabenden"^^

Dazu, ein normaler Mensch kauft keine AMD sondern ein bsp. verkrüppelten 8GB NVIDIA Chip und darf 2x per Konsolengen kaufen.

theGucky schrieb:
Der PC kann meist mehr als nur 1440p 60FPS
Die 3080 TI hatte 12GB vram...
Das passt gerade noch so für 1440p am PC. Neukauf würd ich aber 1440p mit 12GB nicht.
Es ist quasi das selbe was Konsolen an Speicher normalerweise für Grafikkarte anwenden.
Mit natürlich nicht maximalen Texturdetails.
 
joel schrieb:
Na da werden sich aber alle ab 3080TI freuen.
Also nur was für Nvidia Grafikkarten!

Ich hab so das Gefühl das das Jongre Gaming gewaltig in die (für mich) falsche Richtung geht.
Ich schau mir das noch ne Weile an, aber wenn das so weiter geht werde ich mir keine neue Grafikkarte mehr leisten. In dem Tempo wie die Gameentwickler die Hardwareanforderungen hochschrauben kann ich nicht mehr aufrüsten.
Verstehe ich nicht. Das war doch schon immer so das es einzelne Spiele gab die halt für ihren Erscheinungszeitpunkt relativ hohe Anforderungen an die Hardware haben. Das ist nichts neues.
Ergänzung ()

Draco Nobilis schrieb:
Das Problem ist das die meisten Menschen das "deutlich mehr" nicht brauchen / wollen.
Dazu, die Komponenten von denen du sprichst haben teilweise zum Erscheinen der Konsolen mehr gekostet oder waren leistungsschwächer.
Und ob 500 oder 1500 macht inzwischen in DE einen großen Unterschied abseits der 6% Millionäre und xx% "wohlhabenden"^^

Dazu, ein normaler Mensch kauft keine AMD sondern ein bsp. verkrüppelten 8GB NVIDIA Chip und darf 2x per Konsolengen kaufen.


Die 3080 TI hatte 12GB vram...
Das passt gerade noch so für 1440p am PC. Neukauf würd ich aber 1440p mit 12GB nicht.
Es ist quasi das selbe was Konsolen an Speicher normalerweise für Grafikkarte anwenden.
Mit natürlich nicht maximalen Texturdetails.
Das sehe ich nicht so. Es gibt für 1440p kaum oder gar keine Spiele die 12 GB VRAM ausreizen würden. Bitte nicht die Anzeige in einem Spiel die die reservierte Menge VRAM anzeigt mit dem tatsächlichen Bedarf verwechseln.
 
  • Gefällt mir
Reaktionen: LDNV
Fallout667 schrieb:
"hm du erinnerst dich aber schon noch an Crysis oder? Den Satz "But can it run Crysis" gab es nicht umsonst.
Das Spiel konnte man selbst mit damals aktueller High-End Hardware nicht flüssig zocken.
Natürlich konntest du das nur eben nicht max out und auf einer höheren Auflösung. Selbst dann war die Grafik ein Meilenstein und das war 2007 (wenn ich mich Recht erinnere).

Selbst viele Jahre danach gab es kein Spiel das da Grafisch mithalten konnte.
 
xXDariusXx schrieb:
Natürlich konntest du das nur eben nicht max out und auf einer höheren Auflösung.
Wie definierst du höhere Auflösung?
Das lief selbst ab 900p auf damaliger High End Hardware alles andere als super.

@Draco Nobilis
"Es ist quasi das selbe was Konsolen an Speicher normalerweise für Grafikkarte anwenden."
Das man wirklich 12GB für die GPU hat ist auf der PS5 die Ausnahme.
2,5GB werden ja alleine schon fest vom OS reserviert.
Normal sind eher 8-10 GB, wobei die penalty dafür etwas nicht im RAM zu haben aufgrund der Speicherarchitektur natürlich niedriger ist. Deswegen geht MS ja sogar hin und bindet nur 10GB mit voller Bandbreite an.
 
MCCornholio schrieb:
Es gibt für 1440p kaum oder gar keine Spiele die 12 GB VRAM ausreizen würden. Bitte nicht die Anzeige in einem Spiel die die reservierte Menge VRAM anzeigt mit dem tatsächlichen Bedarf verwechseln.
Ich weiß nicht wie es in1440p war, aber in Diablo 4 mit den Ultra-Texturen in 1080p haben bei mir 8GB VRAM nicht mal ansatzweise gereicht.^^

Ich konnte es zwar spielen, aber jedes mal wenn ich etwas weiter woanders hinlief gab es konstant immer einen längeren Lag, ich schätze mal genau dafür ist der reservierte Speicher auch gedacht, das man dadurch schnell genug Zugriff auf Texturen hat und die nicht erst nachgeladen werden müssen.^^
 
  • Gefällt mir
Reaktionen: Mcr-King
Otsy schrieb:
Von allen Nicht-FromSoft-Soulslikes ist Lords Of The Fallen das mit Abstand beste. Erneut: Technische Mängel ausgenommen.
Bin da absolut bei dir. Bestes Not From Software so far!

Habe bis jetzt 41St. drin und spiele in 2k auf einer 3070.
Bis auf die 1 Minute Nachlader am Releasetag hatte ich 0,0 technische Probleme.
Gestern hatte ein Freund Probleme. Das soll wo am Update gelegen haben. Stunde später gab es einen Hotfix oder Rollback und es lief wieder. Konnte gestern nur abends ran von daher kann ich nicht wirklich sagen wie schlimm es war. Er meinte nur Spiel lief 10Min, dann Crash und nach neustart das gleiche wieder. Aber wie gesagt das war nach ner Stunde gefixt.

Bis gestern gab es auch 2 Updates pro Tag. Echt happy mit den Dev's!

Bin jetzt auch im NG+. Das Spiel ist echt genial.
 
  • Gefällt mir
Reaktionen: Otsy
lynx007 schrieb:
Und doch scheint Unity sehr belebt (gewesen) zu sein. Gerade da wäre es mal interessant, warum sich viele Entwickler dafür entscheiden. Wen ich mich nicht täusche haben die eingrößeres Angebot an "Werkzeugkästen" tools...
wo dann aber auch wieder die Frage wäre, warum...

Woran liegt es das ein Bluebrint nicht an c++ heranreicht? Es wird ja zum Schluss auch compiliert. Ist grundsätzlich nicht so performant, und woran liegt das? Oder ist es abhängig, was und was man über Blueprintslaufen lässt und wie man es organisiert? Ich mein, du hast ja auch deine Methoden und Funktionen in C, Pytoon ...

Auch wenn es sich um ein Baukastenprinzip handelt, spätestens auf Prozessorebene sollte es ja keine Rolle zu spielen. Also scheint ja beim Umwandeln von Blueprints in Assembler etwas stattzufinden, oder besser nicht stattzufinden, was man bei c++ oder auch c#, macht bzw. machen muss, damit es rund und gut läuft.

Oder handelt es sich bei Blueprints um JIT Compiler? Oder wie kann man sich das vorstellen?
Ich bin kein Professioneller Gamedesigner oder ein Coding-Crack sondern nur ein Hobby-Entwickler. Seit knapp einem Jahre baue ich schon an meiner Interpretation von einem "Stronghold" in 3D. Das ganze ist im Germanischen-Raum angesiedelt und wird ein dynamisches Fehdensystem unter den Burgeherren haben, sowie ein obligatorisches Warenwirtschaftssystem mit Nahrung/Waffen/Baumaterial/Handelsgüter beinhalten. Burgen bzw. Erweiterungen werden nach und nach aufgebaut bzw. vorhandene werden erweitert, bzw. in Auftrag gegeben was Zeit benötigt. Natürlich muss verteidigt oder erstürmt werden. Angepeilt sind Schlachten wie zb. in Mount and Blade, aber im deutlich kleineren Maßstab. Das soweit für Phase eins, in Phase zwei, sofern das game denn überhaupt Geld abwerfen wird, kommen RPG Elemente mit Story rein. In Phase 3, 32-64 Multiplayer mit Berufen und entsprechenden Aufgaben/Arbeiten.

Als ich angefangen habe, hatte Unity den Vorteil das es im Gegensatz zu der Unreal-Engine deutlich leichter erlernbar ist. Das liegt an vielen Dingen. Zu den wichtigsten gehört die Verwendung durch C# anstatt C++ sowie die riesige Community die hinter Unity steht und natürlich die unzählig vielen qualitativ sehr guten Online Kurse die größtenteils auch noch Kostenlos sind. Grafisch kommt es nicht an die UE ran. Ich habe nach dem Debakel vor kurzem auf die UE gewechselt und bin gerade dabei zu portieren. Das Vertrauen ist bei mir zumindest weg. Auch ist die UE für mein Projekt deutlich besser geeignet aufgrund tadelloser Multiplayerunterstützung was in der Unity Engine deutlich schwerer umzusetzen ist.

Die Unreal Engine dagegen - Nunja wir kennen Sie. Sie ist aber mittlerweile dermaßen mit Features aufgebläht
dass sie für die meisten nicht mehr "einfach" zu erlernen ist. C++ ist jetzt auch nicht unbedingt zugänglich. Zudem ist die Community nicht so groß wie bei Unity und was das erlernen der Engine noch einen ticken schwerer macht. Für diejenigen die gerne auch mal einige tausend Euro zahlen für Kurse oder Lernmaterial ist das kein Problem. Aber freie und gute Online Kurse/Tutorials sind rar. Youtube hat einiges zu bieten, jedoch das lernen ist durch die fehlende "Nachfrage"-Möglichkeit beim Tutoren auch nicht wirklich schnell.

Aber wenn man sich da erstmal reingefuchst hat. Nie wieder ohne.

Warum sind Blueprints nicht effizient? Sofern ich das richtig verstanden habe, wandelt die Engine die Blueprints, die als Script vorliegen, in C++ Code um. Das nicht effiziente daran ist, das, wenn es um viele Kalkulationen geht, da schnell ein ziemlicher wirrwarr an "Spaghetticode" entstehen kann. Sprich, was man zb. mit einigen Zeilen nativem C++ erreicht, schafft das Scriptumwandeln einfach nicht. Der ausgegebene Code ist dann bei weiten nicht so kurz und effizient sondern zum Teil richtig aufgebläht. Auch erschwert es einem das debugging.

Sofern hier jemand mehr Ahnung hat... ich bitte auch um eine genauere Erklärung :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lynx007, LDNV, Mcr-King und eine weitere Person
MCCornholio schrieb:
Das sehe ich nicht so. Es gibt für 1440p kaum oder gar keine Spiele die 12 GB VRAM ausreizen würden. Bitte nicht die Anzeige in einem Spiel die die reservierte Menge VRAM anzeigt mit dem tatsächlichen Bedarf verwechseln.
Jep, aber bitte nicht mehrfach Spielstände laden oder Frame Generation oder RT an machen.
Bitte auch nicht raus und rein tabben. Hast du mal gesehen was deine Grafikkarte im Windows Office/Idle an VRAM belegt, wie viel davon ist nur reserviert und wie viel ist wirklich in Verwendung? Sicher mehr als 0.

12GB reichen im Augenblick für 1440p, aber ich würde jetzt keine neue Grafikakrte mit 12GB für 1440p empfehlen. Ich meine, muss ich wirklich auf die 3060 TI 8GB oder 3070 8 GB verweisen und darauf das Geschichte die Tendenz hat sich zu wiederholen? Was ist der Restwert einer 12GB Karte in 3 Jahren vs. bsp. einer 4080 oder beliebigen AMD Karte mit 16GB? Ach und auch: Hallo Unreal Engine 5 und Photogrametrie.

Trelor schrieb:
2,5GB werden ja alleine schon fest vom OS reserviert.
Wieso, wozu wenn die SSD es an der Konsole in unter einer Sekunde mittels 1-2GB aus dem Freeze laden kann (Plus Kompression...)?
Ohne CPU Last verständlicherweise.
Für PC ist das natürlich was neues und niemand kommt am PC am OS und den vielen Hintergrundprogrammen vorbei.
500MB Guffelspeicher sind ja eh separat noch mal extra zu den 16.
Einfach mal die Konsolenspezifikationen genauer betrachten, dadurch erklärt sich meiner Meinung nach schon so einiges was aktuell am PC für Probleme vorherrschen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
habla2k schrieb:
Ich sehe nicht, dass Karten heute länger halten, ich sehe aber, dass sie immer teurer werden.

Mit ner 9 Jahre alten 980ti kann man das meiste heut noch in Fhd passabel zocken. Wer damals ne 9 Jahre alte 7900GTX hatte, hatte nix mehr zu lachen.

Das zeug kann zumindest länger halten wenn man seine ansprüche nicht bewegt.
 
  • Gefällt mir
Reaktionen: Mcr-King, Fallout667 und MrHeisenberg
@Draco Nobilis
Frag das Sony.
Für das meiste was die CPU im RAM benötigt ist die Latenz absolut kritisch.
Da sind die ~100ns-250ns Latenz je nach Blöckgröße (verglichen mit 50-125ns bei JEDEC DDR4/5) des GDDR6 teilweise schon limitierend. Der Flashspeicher und die Ausleselogik liegt da bereits deutlich drüber.

Grundsätzlich hast du auch auf dem PC für den Datentransfer von der SSD in den RAM keine CPU Last im eigentlichen Sinne. Das machen die DMA Co Prozessoren (die gibt es mittlerweile auch auf Microcontrollern). Bitbanging stirbt langsam aus. Die Kompression und Dekompression spart sich der PC meistens.

Hauptproblem ist am PC, dass du die Daten vom NAND Flash in den VRAM über 4 DMA Kerne und 4 PCI-E Busse und einmal durch den RAM schleifst. Bei der PS5 ist es ein DMA Controller und eventuell noch der Dekompressionskern. Das ist das Hauptproblem auf dem PC.
 
  • Gefällt mir
Reaktionen: Draco Nobilis
Trelor schrieb:
dass du die Daten vom NAND Flash in den VRAM über 4 DMA Kerne und 4 PCI-E Busse und einmal durch den RAM schleifst.
Genau das. Vor allem das was ich in deiner Aussage fett markiert habe.

Trelor schrieb:
Da sind die ~100ns-250ns Latenz je nach Blöckgröße (verglichen mit 50-125ns bei JEDEC DDR4/5) des GDDR6 teilweise schon limitierend. Der Flashspeicher und die Ausleselogik liegt da bereits deutlich drüber.
Das stimmt natürlich und ist ungünstig für die CPU. Hörte auch das dort Latenz oftmals entscheidender ist als Bandbreite. Kommt halt auch auf den Fall an.
Gerade aber auf der Konsole wäre mir als Entwickler das mit der SSD Reaktionszeit für wenigstens das Menü und OS egal.
Dann schaufelt die SSD den größten gefreezten Teil halt aus der NVME SSD wenn es aufgerufen wird.
Ebenso würd ich es mit dem VRAM halten.

Am PC müssen Entwickler damit rechnen das Leute mit einer SATA SSD oder gar HDD herum gurken.
Wie lange soll das dauern bis die Grafikkarte mal etwas in den VRAM bekommt?
Also mal schön den RAM vollholzen und vieles doppelt vorhalten. Das ganze RAM zu vram getransfere spart man sich ja an Konsolen (ok maybe XBOX hat ein bisschen davon, aber die hat ja auch schnelleren und "langsameren" GDDR6.

Um die Kurve zu kriegen:
Plötzlich wundert sich die Welt, wie bei Lords of the Fallen, welches neben dem eigentlichen Level, noch ein abweichendes mit weiteren unterschiedlichen Texturen vollgezimmertes Level/Welt darstellt, rumstottert.

Ja weil es Speicherlecks gibt die so in der uniformen Konsolenspeicherverwaltung nicht auftauchen und man am PC wortwörtlich nur am hin und her schubsen der Daten ist, weil 8-12GB Grafikkarten sind ja so toll...

Es sei den man braucht in unter einer Sekunde mal eben andere Assets im Preload und muss erstmal von einer bsp. SATA SSD in den RAM und dann in den VRAM-.- Macht die CPU natürlich dann auch happy wenn der RAM so mit weiterleiten belastet wird das diese vlt. mal einige Millisekunden verhungert-.-
Natürlich das alles während man da in 1440p oder höher herumeimert.
 
  • Gefällt mir
Reaktionen: Mcr-King
Habs Game noch nicht durch aber ich liebs. Klar die Performance ist bodenlos und trotz DLSS Quality mit Frame Generation auf ner 4070 bei Max Settings auf 1440p Ultrawide nur ~100-120FPS, aber das ist vermutlich verkraftbar.

Macht trotzdem sehr viel Spaß.
 
Chilisidian schrieb:
Das Entscheidende ist hier: Nicht eine bestimmte Konfiguration sondern eine einzige.

Nein. XSS, XSX und PS5 haben schonmal alle unterschiedliche Konfigurationen.
 
  • Gefällt mir
Reaktionen: Mcr-King
aRkedos schrieb:
solltest du solche Sätze vielleicht auch nicht raushauen, denn durch die persönlich Ansprache ist das hier wirklich beleidigend.
Was ist daran beleidigend, wenn ich mögliche Einkommensbeschränkungen als Grund für seine missbilligende Äußerung anführe?

Schließlich ging es um den Preis der Grafikkarte. Ob man bereit ist, solche Preise zu zahlen, hängt nicht nur, aber sicher sehr vom eigenen Einkommen ab.

Zu behaupten, man sei "nicht ganz dicht", nur weil man in einem teureren Produkt einen Mehrwert sieht, ist im Gegenzug eine sehr direkte Beleidigung.
 
  • Gefällt mir
Reaktionen: LDNV, Oudenstekelig und Mcr-King
Zurück
Oben