• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
  • ComputerBase erhält eine Provision für Käufe über eBay-Links.

News Legacy of the Dark Knight: Lego Batman braucht doch weniger extrem teuren RAM

Bright0001 schrieb:
Klar, unter schlechten und/oder unerfahrenen Entwicklern Gang und gäbe. In Brot und Butter Projekten kommt man damit auch noch durch, bei Performance-kritischen Geschichten jedoch nicht.
Hat nichts damit zu tun. Zu frühe Optimierung kostet mehr als späte.
Es sind meiner Erfahrung nach eher die weniger erfahrenen, die von Anfang an alles möglichst effizient machen wollen. Ob es sinnvoll ist oder nicht.
Bright0001 schrieb:
Wenn ein Team 2 Jahre Zeit dafür bekommt auf grüner Wiese eine Performance-kritische Anwendung zu entwickeln, und zwei Monate vor Abgabe auf die Idee kommt mal die Performance zu messen/testen, dann wird man denen die Frage stellen, ob sie eigentlich noch alle Latten am Zaun haben.
Wie soll man die Performance testen, wenn die Models, Texturen oder gar Features noch gar nicht final sind?
Bright0001 schrieb:
Wahrlich die Prinzessin auf der Erbse, die sich darüber beschwert, dass ein Outer Worlds 2 mit einem ausgemaxten System inkl. 5090 nur auf 45fps kommt - in FullHD. Das ist ein technischer Totalausfall der nur von DLSS und co. über die Ziellinie gezogen wird, und selbst das mit Ach und Krach.
DLSS ist schon seit einiger Zeit keine reine Performance-Maßnahme mehr. Es spart einfach Arbeit ein, die an anderer Stelle vielleicht sinnvoller genutzt werden kann.
Bright0001 schrieb:
"Du hättest mal an dem Hundehaufen riechen sollen, als der noch frisch war!"

Beweist was genau?
Würde beweisen, wie viel tatsächlich optimiert wird. Denn wie viele Beiträge alleine hier zeigen, haben nur wenige irgendeine Vorstellung davon, wie sowas gemacht wird und was es für Auswirkungen hat.
Was an sich ja nicht schlimm ist. Nur die Schlüsse, die aus diesem Unwissen gezogen werden, sind schon wild.
 
Mimir schrieb:
Diesen Satz lese ich so oft… Warum?

Warum sollte ein Lego Spiel automatisch geringe Hardwareanforderungen haben?

Ich seh da eher das völlige Gegenteil. Lego Steine bestehen aus glatten, spiegelnden Kunststoff und
Weil es (denke ich) eher für jüngere gedacht ist. Die nutzen oft den alten PC von Papa. Also nen R5 3600 und ne GTX 1650. Darauf sollte das Spiel laufen. So wird Papa gezwungen Sohnemann einen 1000€ PC zu kaufen. Ich weiß nicht ob eine RTX 5050 das Spiel überhaupt packt. Vielleicht doch lieber eine 1500€ Kiste.

Dazu bin ich der Meinung, dass die Ultra Settings (ich gehe von 4k60 aus) gar nicht so viel anspruchsvoller als die Minimalen Settings sind. (ich gehe von 1080p50 aus). Diese Einstellung braucht etwa 1/4 Rechenleistung. Also mehr als die Differenz zwischen Max und Minimalen Anforderungen (2070 vs 3080). Das deutet für mich hin, dass ich die Grafik nicht runter schrauben kann. Anscheinend sind die Entwickler zu faul. Auch vermute ich dass das Game immer mit Raytracing laufen wird. Ist halt einfacherer zu entwickeln.

Mich regt es auf, da es auch gute Spiele mit der UE5 gibt, die richtig gut laufen und toll aussehen. Beispiel wäre hier Arc Raiders. Es ist sogar auf einem 5600G ausreichend spielbar und mit einer GTX 1650 siehts sogar recht gut aus.
Schade ist, dass die UE5 ca 40% mehr fps schafft und ca 30% weniger VRAM braucht. Aber Entwickler hauen da jeden Müll rein und als Nutzer darf man das nicht mal ab stellen.
 
Naitrael schrieb:
Hat nichts damit zu tun. Zu frühe Optimierung kostet mehr als späte.
Es sind meiner Erfahrung nach eher die weniger erfahrenen, die von Anfang an alles möglichst effizient machen wollen. Ob es sinnvoll ist oder nicht.
Premature Optimization kannst du vielleicht anbringen wenn einer seinen REST-Client auf 3 Milliarden Anfragen/s skalierbar gestaltet, ohne dass er einen einzigen Nutzer hat - aber nicht, wenn du von vornherein weißt, dass die Software unausweichlich von der Hardware limitiert wird.

Bleiben wir doch beim Beispiel: Du sollst einen Service implementieren der durchgehend von der verfügbaren Internet-Bandbreite limitiert werden wird. Baust du dann wirklich zuerst nach Lust und Laune und versuchst dann am Ende zu schauen, wie brauchbar das Ergebnis ist, oder trimmst du von Anfang die Architektur, als auch alle den Traffic betreffenden Teile auf Performance/Größe?

Naitrael schrieb:
Wie soll man die Performance testen, wenn die Models, Texturen oder gar Features noch gar nicht final sind?
Wie soll man denn Entscheidungen bezüglich Anzahl Polygone, Texturauflösung, Beleuchtungssystem, etc. treffen, wenn du keine Ahnung von der Basisperformance hast, und welchen Impact deine Entscheidungen auf diese haben? Du wirbst hier quasi für die Entwicklung auf gut Glück und ins Blaue hinein.

Und wie mans testet ist doch offensichtlich: Die Engine wird sich am Ende wenig darum scheren, ob deine Texturen nun Laminat darstellen oder ein buntes Checkerboard aus Photoshop sind. Gleiches gilt für Geometrie, gleiches gilt für die Beleuchtung. Eine Testszene mit Testressourcen zu erstellen sind was, 1PT-5PT? Jedenfalls nichts, was eine nennenswerte Delle bei einem großen Projekt verursacht.

Und selbst wenn man die Aussagekraft jener anzweifelt, dann muss man halt eine Szene in Gänze bauen, die einen typischen (besser noch anspruchsvollen) Case des Endprodukts (aus technischer Sicht) widerspiegelt. Blöd, aber sicher günstiger als ein Refactoring bei 80% Fertigstellung/die Auslieferung von Grütze zu riskieren.

Naitrael schrieb:
DLSS ist schon seit einiger Zeit keine reine Performance-Maßnahme mehr. Es spart einfach Arbeit ein, die an anderer Stelle vielleicht sinnvoller genutzt werden kann.
Was genau soll es denn sonst sein, außer vielleicht noch AA?

Und der zweite Satz sagt auf gut Deutsch nichts anderes, als das man sich nicht mehr an sauberes Arbeiten gebunden fühlt, weil DLSS am Ende regelt. Das "kann" am Schluss erinnert mich dabei an einen alten Witz:


---"Von dem Geld, das du bisher fürs Rauchen ausgegeben hast, könntest du dir einen Sportwagen kaufen!"
-"Rauchst denn du?"
---"Nein."
-"Und wo ist dein Sportwagen?"


Naitrael schrieb:
Würde beweisen, wie viel tatsächlich optimiert wird. Denn wie viele Beiträge alleine hier zeigen, haben nur wenige irgendeine Vorstellung davon, wie sowas gemacht wird und was es für Auswirkungen hat.
Was an sich ja nicht schlimm ist. Nur die Schlüsse, die aus diesem Unwissen gezogen werden, sind schon wild.
Also dann beantworte folgende Frage ganz konkret: Ist im Beispiel von Outer Worlds 2 das Spiel ein technisch gutes Produkt, mit seinen 45fps unter FullHD mit einer 5090? Vor allem, wenn es Gegenbeispiele wie Forza Horizon 5 gibt, bei dem du schon mit einer 5070 auf ~80fps kommst - in 4K, wohlgemerkt? Oder TLOU2/5070/4K/>50fps? Oder Cyberpunk 2077 PT/5090/FHD/~100fps?

Also wirklich ganz konkret: Ist es in deinen Augen technisch akzeptabel, dass ein Outer Worlds 2 (oder Äquivalent) nicht einmal halb so gut wie Cyberpunk mit vollem Pathtracing läuft? Letzteres kann tatsächlich sagen "Hey, DLSS und FG ermöglichen hier völlig neue Dinge." - Was ist das Gegenstück bei OW2, BL4, etc.?

Da können die den Code auch drei mal hoch und runter optimiert haben - Wenns am Ende trotzdem läuft wie ein Sack Nüsse, war und ist es offenkundig der falsche Ansatz.
 
crustenscharbap schrieb:
Weil es (denke ich) eher für jüngere gedacht ist. Die nutzen oft den alten PC von Papa. Also nen R5 3600 und ne GTX 1650. Darauf sollte das Spiel laufen. So wird Papa gezwungen Sohnemann einen 1000€ PC zu kaufen. Ich weiß nicht ob eine RTX 5050 das Spiel überhaupt packt. Vielleicht doch lieber eine 1500€ Kiste.

Oder einfach eine Konsole kaufen..
Series S gibts ab 340€, PS5 400€

Low end PCs sind völlig sinnfrei für gaming, wenn man nicht unbedingt einen PC braucht.
 
  • Gefällt mir
Reaktionen: crustenscharbap
Neodar schrieb:
Was sind das nur für elende Trottel, dass sie solch völlig überzogene Systemanforderungen auf die Produktwebseite stellen?
Wenn das Spiel noch nicht fertig war, als die Seite online ging, dann spart man diese Angaben einfach noch aus bzw. weißt darauf hin, dass diese erst nach Optimierung veröffentlicht werden.
Solch eine Webseite soll die potenzielle Kundschaft doch anfüttern und nicht abschrecken. 32GB RAM als Anforderung für ein solches Spiel tun aber genau Letzteres.

Muss man sich echt mal reinziehen. In solchen Unternehmen sitzen Marketingleute, die viel Geld bekommen. Und dann kommen die mit solch einem Blödsinn daher, obwohl sich jeder, der auch nur einen Hauch von Gehirnschmalz besitzt, ausmalen kann, dass solche Angaben dem Vorverkauf nicht zuträglich sind.
Alle berichten über das Spiel und dass die Anforderungen doch nicht so hoch sind. Wer ist hier der Trottel?!
 
Daniel D. schrieb:
Ja, man muss aber auch nicht faul werden, nur weil ein Teil der Leute tolle PCs haben. Hat eben nicht jeder, zeigt auch immer schön die Steam-Statistik.
Haha. wenn man kein Geld für aktuellen Hardware ausgeben will y sind die Devs schuld wenn's ruckelt. Genau mein Humor :-)

Wir haben 2026. Der facto jede Hardware deren Baujahr keine 2 am Anfang stehen hat,ist mittlerweile veraltet.

Wer unbedingt mit Gear aus dem Museum spielen will, sollte auch Spiele aus der Zeit zocken wo diese Hardware aktuell war. Oder die Regler gaaanz nach links ziehen....
 
„Ups, Speicher ist aber teuer geworden. Da müssen wir wohl doch Arbeit in Optimierung stecken, damit wir das Spiel verkauft bekommen“

So stelle ich mir den Verlauf der Sache vor. Wenn heute nur annähernd effektiv gearbeitet würde wie zu 64er Zeiten, würden solche Spiele flüssig auf 10+ Jahre alter Hardware laufen. ;)
 
Tja so ist das halt es wurde eben nachgebessert, wo da jetzt Diskussionsbedarf entsteht erschliesst sich mir nicht. Klar eine 2070 ist ein ganz anderes Kaliber als die 1650 vom vorherigen Horizon Lego aber das ist schon mehr als etwas übertrieben.
crustenscharbap schrieb:
So wird Papa gezwungen Sohnemann einen 1000€ PC zu kaufen.
Gezwungen wird der Papa oder die Mama zu nichts, ansonsten läuft wohl etwas falsch in Sachen Erziehung.
Es gibt einen Haufen Lego Games die eben weniger hohe Anforderungen haben.
Oder
Das Kind spielt es halt am PC der Eltern.
Oder
eine 2070/Super gibt es für wesentlich weniger als 1000€.
Kommt sogar günstiger als eine Konsole.

Eine Option die aber momentan schwierig ist wäre aber ein reales Beispiel, aus der Familie.
Mein Schwiegersohn hat eine 9070XT für sich selber gekauft und die von mir geerbte 6700XT von seinem PC in den der Kinder eingebaut. Kostenpunkt 530€ und das am letzten Schnäppchentag (Double Twelve ) bevor wieder alle am Rad drehen. Ist ja nicht so als wäre es nicht absehbar gewesen das die Preise hochgehen.

Aber man kann ja auch gleich mit der unwahrscheinlichsten extra teuren Option argumentieren.
 
  • Gefällt mir
Reaktionen: crustenscharbap
@Naitrael
Bestimmt hat es Gründe warum die Spiele Entwicklung heute so ist, wie sie ist. Das ist aber auch gleichzeitig das Problem was viele Leute damit haben. @Bright0001 hat schon recht, wenn er sagt das die Optimierung früher von Anfang an da war, wegen der begrenzten Ressourcen. Heute fängt gefühlt jede dritte vor dem PC an, sich mit der Unreal Engine auseinanderzusetzen um Spiele zu entwickeln, weil die Person denkt, sie kann es. Spoiler kann sie nicht.

Aber dadurch wird eine ganze Generation an Möchtegern Entwickler auf zukünftige Kunden losgelassen, die viel Geld für technischen Schrott bezahlen müssen.
 
  • Gefällt mir
Reaktionen: Bright0001
@Crifty Gibt es dazu irgendwelche Evidenz? Klar kann man da einerseits sagen "wow beeindruckend das sie Doom in den 90ern auf dem SNES veröffentlicht haben - da haben sie das Maximum aus der Hardware rausgeholt - aber anderseits heute würde sich kein Mensch 5 FPS und Geflacker antun wollen.
 
@kellyfornia
Vielleicht sollte man kein Beispiel nehmen was nur 5 FPS hat. Aber du willst Beispiele aus den 90ern:
Banjo kazooie
Super Mario 64
Final Fantasy VII
Streit Fighter 2
Half life
StarCraft
The legend of Zelda Ocarina of time
Tony Hawks Skatebording
Unreal Tournament
Mario Kart 64
Pokémon Blau/Rot/Silber und Gold
Baldurs Gate

Das ist nur ein kleiner Auszug an Spielen die nicht nur mit 5 FPS liefen und haben gleichzeitig ganze Kindheiten geprägt.

Was haben alle Spiele gemeinsam? Sie liefen alle entweder gut optimiert oder auf Systemen die stark reglementiert waren.
Das ist genau wonach sich die Leute sehnen, Entwickler die ihr Handwerk beherrschen und nicht nur so tun.
 
@Crifty Und was soll eine Auflistung von Spieleklassikern jetzt belegen? Da gibt es noch dutzende mehr, nur weil es damals gute Spiele gab war die Optimierung in der Breite aber nicht besser.
 
@kellyfornia
Du liest schon deine eigenen Aussagen oder?
Sonst würdest du nicht fragen, warum ich Spieleklassiker der 90er aufgelistet hatte.
Die Optimierung in der Breite war besser, weil das Produkt nicht erst beim Kunden reifen konnte, da es kein flächendeckendes Internet für alle gab.
 
  • Gefällt mir
Reaktionen: Alphanerd und Bright0001
Crifty schrieb:
@kellyfornia
Die Optimierung in der Breite war besser, weil das Produkt nicht erst beim Kunden reifen konnte, da es kein flächendeckendes Internet für alle gab.
Das ist eine Aufzählung von ein paar sehr guten Spiele, ohne Frage, aber keinerlei Beleg für deine Behauptung.

Solche guten Spiele gibt es auch heute. Ein Forza Horizon auf der lahmen X-Box One ist nicht weniger eine Sensation als deine genannten Titel.

Es gab in den 90ern unzählige grottig optimierte Spiele die trotzdem auf Cartridge oder Datenträger gebracht wurden. Man hat sie aus Mangel an Alternativen und weil sie gerne m 100 DM gekostet haben trotzdem durchgespielt, heute wurde man bei Steam zum Refund greifen.

Zu jedem Pokémon auf dem Game Boy gab es auch kaum spielbares Escape from Camp Deadly.

Ich hatte ein komplette PAL-Mega-Drive, Dreamcast und PS2-Sammlung, welche ich inzwischen fast komplett verkauft habe, aber wenn ich da nur überlege wie ewig es gedauert hat bis es auf der PS2 halbwegs technisch anständige Titel gab und selbst die größten PS2-Klassiker wie Shadow of the Colossus würde man heute für die furchtbare Performance zerreißen.
 
ElliotAlderson schrieb:

Das beantwortet dir eine KI deiner Wahl sehr gerne. Für Trolle wie dich ist mir meine Zeit zu schade. ;)
Aber weil ich so nett bin, hab ich dir das gerne mal in Gemini geprompted. Bitteschön.
(Quasi das "Let me Google that for you" von 2026)

1. Offizielle Bestätigung: Upscaling als Design-Grundlage​

Ein Wendepunkt in der öffentlichen Wahrnehmung war der Release von Remnant II (2023). Das Studio Gunfire Games gab offen zu, dass das Spiel „mit Blick auf Upscaling (DLSS/FSR/XeSS) entwickelt“ wurde. Spieler stellten fest, dass selbst High-End-Grafikkarten ohne diese Hilfsmittel kaum stabile 60 FPS erreichten. Dies gilt als einer der ersten Fälle, in denen Upscaling nicht mehr als optionaler Bonus, sondern als notwendige Systemvoraussetzung kommuniziert wurde.

2. Das Wirthsche Gesetz in der Softwareentwicklung​

Wissenschaftlich lässt sich das Phänomen mit dem Wirthschen Gesetz erklären (benannt nach Niklaus Wirth), das besagt: „Software wird schneller langsamer, als Hardware schneller wird.“ In der Spieleentwicklung führt dies dazu, dass die gewonnene Rechenleistung neuer GPU-Generationen oft durch weniger effizienten Code oder extrem rechenintensive, aber „bequeme“ Techniken (wie unoptimierte Shader-Berechnungen) sofort wieder aufgefressen wird.

3. Komplexität vs. Zeit: Der ökonomische Faktor​

Analysen von Portalen wie Digital Foundry zeigen, dass moderne Engines wie die Unreal Engine 5 so komplex sind, dass eine händische Optimierung jedes einzelnen Assets (wie früher bei 2D-Sprites oder einfachen 3D-Modellen) ökonomisch nicht mehr tragbar ist.

  • Beispiel Alan Wake 2: Hier wurden „Mesh Shaders“ zur Pflicht. Ältere Karten ohne dieses Feature stürzten in der Performance massiv ab. Die Entwickler entschieden sich bewusst gegen eine Optimierung für ältere Hardware, weil der Aufwand im Vergleich zum Nutzen zu hoch war.
  • Quelle: Digital Foundry Analyse zu Alan Wake 2 und Mesh Shaders

4. Kritik an „Lazy Ports“ und VRAM-Management​

Ein häufiger Kritikpunkt ist die mangelnde Optimierung des Grafikspeichers (VRAM). Viele moderne Spiele (z.B. The Last of Us Part I zum Launch auf PC) belegten horrende Mengen Speicher, nur um kurz darauf durch Patches massiv verbessert zu werden. Dies beweist, dass eine Optimierung technisch möglich gewesen wäre, man sie aber aus Kostengründen oder Zeitmangel für den Release übersprungen hat.

Zusammenfassend: Die Entwickler sind nicht „faul“ im menschlichen Sinne, aber die ökonomische Logik hat sich geändert. Früher war Hardware der Flaschenhals, heute ist es die Zeit. Upscaling ist das Werkzeug, mit dem die Branche versucht, die Lücke zwischen explodierenden Grafikansprüchen und immer kürzeren Entwicklungszyklen zu schließen.

Ist DLSS der Untergang der Spieleoptimierung?

Dieses Video analysiert kritisch, ob Technologien wie DLSS und FSR von Entwicklern als „Krücke“ missbraucht werden, um mangelnde Optimierung zu kaschieren.
 
Crifty schrieb:
Heute fängt gefühlt jede dritte vor dem PC an, sich mit der Unreal Engine auseinanderzusetzen um Spiele zu entwickeln, weil die Person denkt, sie kann es. Spoiler kann sie nicht.
Dass Anfänger Grütze bauen ist in meinen Augen gar nicht das Problem - dass gigantische Teams mit Budgets >100Mio. dies tun umso mehr. Die können am Ende nicht mit Unwissenheit oder mangelnden Ressourcen argumentieren. :hammer_alt:

kellyfornia schrieb:
@Crifty Und was soll eine Auflistung von Spieleklassikern jetzt belegen? Da gibt es noch dutzende mehr, nur weil es damals gute Spiele gab war die Optimierung in der Breite aber nicht besser.
Selbst auf den "neueren" Geräten wie dem Gameboy ist es alles andere als trivial, irgendwas brauchbares zu entwickeln, das in 4MB Speicher und 8KB RAM/VRAM passt. Hast du Ressourcen verschwendet, konntest du das Spiel schlicht und ergreifend gar nicht erst laufen lassen / ausliefern.

kellyfornia schrieb:
Ich hatte ein komplette PAL-Mega-Drive, Dreamcast und PS2-Sammlung, welche ich inzwischen fast komplett verkauft habe, aber wenn ich da nur überlege wie ewig es gedauert hat bis es auf der PS2 halbwegs technisch anständige Titel gab und selbst die größten PS2-Klassiker wie Shadow of the Colossus würde man heute für die furchtbare Performance zerreißen.
Da konnte man sich aber auch darauf berufen, dass jede Konsole eine eigene Softwarearchitektur und API (falls überhaupt vorhanden) mitbrachte, was man schwerlich von x86/x64 Systemen behaupten kann. Gleichzeitig war "lief schlecht" nicht zwangsweise das gleiche wie "technisch schlecht umgesetzt", da die vorhandene Leistung schlicht und ergreifend zu schwach fürs Ziel sein konnte. Bleibt eine Verfehlung, aber dann eher im Scope als beim eigentlichen Code.

kellyfornia schrieb:
Solche guten Spiele gibt es auch heute. Ein Forza Horizon auf der lahmen X-Box One ist nicht weniger eine Sensation als deine genannten Titel.
Das ist eigentlich der relevanteste Punkt: Wir haben echte Beispiele, was technisch möglich ist, so denn man will. Und wenn man etwas schlechteres liefert - oder gar absolut katastrophales - dann ist das allein Grund genug für Spott und Häme.
 
  • Gefällt mir
Reaktionen: Crifty
Zurück
Oben