• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Epic-CEO Sweeney: Entwickler sind für UE5-Performance verantwortlich

Naja, Valorant und Fortnite sind ja nun nicht gerade grafische AAA-Kracher mit ihrer Comicgrafik für Smartphones.

Unreal ist halt die Eierlegendewohlmilchsau und dementsprechend komplex.

@ alle Hobby-Spieleentwickler:
schaut euch mal Flax Engine an. Es gibt abseits von Unreal, Unity oder Godot auch noch andere Perlen.
 
Wenn es Spiele gibt, die mit UE5 sauber und performant laufen, kann es folgerichtig nicht pauschal an der Engine liegen, dass es bei anderen nicht so ist. Manche Entwickler geben sich halt nicht wirklich Mühe. Was man ja auch nicht nur an der Performance merkt, sondern am Spiel selber. Da ist Mafia ein gutes Beispiel, wo ja weitaus mehr als nur die Performance kritisiert wird. Passt halt alles zusammen.
 
Spriti schrieb:
Naja, Valorant und Fortnite sind ja nun nicht gerade grafische AAA-Kracher mit ihrer Comicgrafik für Smartphones.
Valorant läuft in der UE5 aber besser als in der hauseignen Engine. Sollte dem ein oder anderen hier schon zu denken geben.

@Hurricane.de schreibt doch mal einen Artikel über TI aka Kevin und seine Kontroversen, vielleicht überdenkt der ein oder andere dann mal sein Verhalten.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Hucken schrieb:
Es ist halt traurig, wir spielen halt heute oft Games, die intern in 720p oder so rendern und dann entsprechend hoch skalieren, nur damit es irgendwie läuft.
Um leistung freizuschaufeln. Um die Grafikqualität zu verbessern. Warum sollte man stattdesssen in 1440p oder 1080p rendern, wenn das 720p mit Supersampling Upsampling besser aussieht und schneller geht?
In Zukunft wird man wahrscheinlich gar nicht mehr groß über 1080p rendern und wahrscheinlich auf Dauer irgendwo bei 720p , also DLSS Ultra Performance in 4K nutzen.

Entscheidend wird die Monitorauflösung sein, nicht was intern noch gerendert wird. Das ist nicht traurig, sondern ein riesiger Fortschritt. Man muss Rohleistung nicht mehr dazu verwenden sinnlos hohe Auflösungen zu berechnen. Farbwerte, Beleuchtung, Schatten, Texturinformationen, pro Pixel ausgeführte Shader, die ganze Rechenzeit für den Kram kann man sich sparen und diese Informationen mittels AI über mehrere Frames genauso gewinnen. Traurig ist, dass das bis heute immer noch nicht verstanden wird, dabei ist es auch nicht schwieriger zu verstehen als das was Antialiasing schon immer getan hat. Da werden genauso zusätzliche Bildinhalte, sprich Kanten und Pixelverläufe zweifach, vierfach, achtfach abgetastet um die Kanten zu glätten und bei KI Upsampling sind es eben komplette Frames die "abgetastet" werden.
Hucken schrieb:
Aber eine sichtbare Verbesserung zu von vor 10 Jahren gibt es für den Perfromance-Hit kaum.
Die Verbesserung ist riesig. Das ist eine rein psychologische Sache. Man hat irgendwann ein Game gezockt und in seiner Erinnerung nur das beste davon abgespeichert. Vergleicht man 1:1 waren Spiele von vor 10 Jahren im Schnitt gruselig dagegen. Klar gibt es den ein oder anderen Ausreißer nach oben oder nach unten, aber auf die wird sich dann konzentriert.
Hucken schrieb:
Hoffe das wendet sich bald mal, DLSS&Co. verschlimmern das, gefühlt wird sich darauf gestützt statt zu zu optimieren.
Nein, ganz im Gegenteil. DLSS und Co. verbessern das, weil sie Leistung freischaufeln um mehr Eye Candy möglich zu machen. Ohne DLSS und Co wären Spiele einfach nicht mit "hoch" und "ultra" erschienen.
Dann wäre eben "Medium" ultra und "niedrig" wäre hoch.
DaDare schrieb:
Und selbst wenn, die Engine ist konkurrenzlos und hat de facto Monopolstellung.
Ich glaube das ist auch die Hauptmotivation dahinter alles schlechtzureden.
Mit 28% Marktanteil ist man außerdem sehr weit von einem Monopol entfernt. Unity kommt etwa auf denselben Marktanteil.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22 und 192.168.178.1
@ElliotAlderson
Ich denke das fällt dann doch zu sehr aus unserem redaktionellen Fokus raus. So wenig ich TI auch leiden kann, ComputerBase ist mMn nicht die richtige Plattform um das groß aufzuziehen. Am Ende geben wir seinem Kanal damit nur eine noch größere Bühne, und ich möchte hier auch keine Schlammschlacht sehen.

Was TI am Ende des Tages macht, ist die Frustration vieler Spieler über den aktuellen Stand der Videospielindustrie auszuschlachten. Grifter halt. Wer jetzt schon von seinen Ausführungen überzeugt ist, wird sich von einem Artikel über ihn nicht davon abbringen lassen.
 
  • Gefällt mir
Reaktionen: Haldi und KenshiHH
Mr.Zweig schrieb:
Die meisten Studios entwickeln auf Konsolen Basis und in letzter Instanz wird kurz vor Release noch ne PC Fassung hinterhergepfuscht. Das die natürlich entsprechend schlecht läuft, weil völlig unoptimiert, ist das eigentliche Problem.
Tatsächlich laufen ja aber auch die Konsolenfassungen mit UE5 zunehmend schlecht. Das Problem liegt also tiefer.
 
DonDonat schrieb:
Was möchtest du mit der Aussage hier verdeutlichen?
Dass es nicht die UE ist, die unerfahrene Entwickler lockt, und es auch nicht die UE ist, die für den Einstieg empfohlen wird; Ich hab mal alle Suchergebnisse der ersten Seite auf "best engine to start game development" durchgeklickt, und nicht eine einzige empfiehlt die UE, oder behauptet, sie sei eine einfache Engine für den Einstieg.

DonDonat schrieb:
Der Vollständigkeit müsste man bei deiner Aussage nämlich noch Kontext hinzufügen wie:
Warum? Ich treffe ja keine Bewertung wie gut oder schlecht die UE für sich genommen ist, sondern nur im Vergleich zu den anderen.
_______________

@ThirdLife Steht das Tor auf Rollen, oder warum bewegen sich die Goalposts so viel? Wir erinnern uns, das waren deine Aussagen:
  • Die GPU-Entwicklung kostet hunderte Millionen, noch bevor man beim ersten Sample ist
  • Sich eine eigene Engine für den eigenen Wunschtitel zu schreiben kostet potenziell weniger als eine Million ("wenige Mio., wenn überhaupt")

ThirdLife schrieb:
PowerVR ist kein Startup im Hinterhof. Das ist ein seit den 90ern etablierter IP-Lizenzierer, der nie komplette GPUs "bastelt", sondern Designs liefert, die von anderen Firmen in Jahren und mit riesigem Engineering- und Produktionsaufwand in Silizium gegossen werden. "Vergleichsweise klein" stimmt zwar, aber das macht die Sache nicht billiger. Im Gegenteil: die Firmen sind IP-Designhäuser und verdienen am Lizenzmodell, nicht daran, dass sie mit ein paar Mio. mal eben Tape-Outs machen.
Du erzählst da viel, aber widerlegen tust du nichts. PowerVR hat mit Umsätzen weit unter 100 Mio. vollständige GPUs entwickelt, das ist Tatsache. Wie hoch dann die späteren Produktionskosten sind, ist für meinen Einwand völlig irrelevant.

ThirdLife schrieb:
Ergo: war nicht dein "brightester" Output.
Ist halt die Frage, wen das stören sollte, wenn mein gedimmter Output für deine Beiträge reicht.

ThirdLife schrieb:
Niemand "haut mal eben ein Sample raus", ohne vorher zig Millionen zu verbrennen. Von hunderten Mio. spricht man schnell, wenn man ernsthaft konkurrenzfähige GPUs mit Toolchains, Treibern und Validierung bauen will. Deshalb gibt es weltweit vielleicht gerade mal fünf Firmen, die es überhaupt stemmen können.
Aber die hunderte Millionen fallen doch noch vor dem ersten Sample an, hast du doch selbst gesagt. Oder widersprichst du dir hier selbst?

ThirdLife schrieb:
Niemand baut eine Engine mit 6,5 Leuten alleine in einem Jahr. Aber Engines entstehen iterativ, oft über Jahre hinweg. Man kann durchaus eine Engine auf ein spezifisches Spiel zuschneiden, ohne gleich die Unreal- oder Frostbite-Dimension nachzubauen.
Also gibst du mir Recht?
Und irgendwo muss die Engine ja konkurrenzfähig sein, wenn wir hier darüber reden, eine eigene als Alternative zur Unreal zu nutzen.

ThirdLife schrieb:
Auch tust du so, als müsste jede Engine von null auf neu sein. Tatsächlich basieren Eigen-Engines oft auf bestehenden Frameworks, Open-Source-Komponenten, bewährten Renderpipelines. Die Kosten sinken dadurch massiv.
Die Goalposts, die Goalposts...
Wenn du sagst, dass man sich für einen Wunschtitel einfach eine Wunschengine schreiben kann, dann ist das was anderes, als davon auszugehen, schon eine in-house Basis verfügbar zu haben.

Zumal OS-Komponenten auch keine Zauberei sind. Im Web-Dev Bereich, also sowohl Front-End und Back-End, hast du heutzutage auch praktisch alles verfügbar, trotzdem würde keiner auf die Idee kommen die Entwicklungskosten eines Facebook-Klons auf <1Mio. zu schätzen.

ThirdLife schrieb:
Es gibt unzählige Beispiele für Studios mit Eigen-Engines (idTech, Anvil, RE Engine, Unity als ehemals winziges Team, CryEngine, etc.). Aber es gibt exakt null Beispiele für eine Firma, die mit ein paar Mio. Euro mal eben eine konkurrenzfähige GPU tape-outet und auf den Markt bringt.
Ich hab keinerlei Aussage getroffen, ob nun die Entwicklung einer GPU oder einer neuen Engine teurer ist, sondern sage nur, dass bei dir die Zahlen auf der einen Seite massiv übertrieben, auf der anderen massiv untertrieben sind.

Und als Bonus: Tatsächlich versucht Bolt Graphics genau das zu machen, was du da beschreibst - schauen wir mal, was da am Ende bei rauskommt.
 
OldNewUser schrieb:
Ich hoffe das war ironie die nicht ganz bei mir ankam. Ich mochte das Oblivion-Remastered weil es sich wie Oblivion in neuer Grafik anfühlt. Aber genau wie das Orginale läuft es halt wie Sch****...

Careful what you wish for. Denn für Orischinol-Feels läufts eigentlich noch zu gut. :D


Be under no illusions, Elder Scrolls IV: Oblivion is a brutally punishing test for any PC. Even the latest 300 million-plus transistor graphics goliaths from ATI and Nvidia simply can't cope with Bethesda Softworks' genre-busting magnum opus at maximum detail. No matter how powerful your PC might be, you'll need to adjust your expectations in terms of the kinds of frame rates and screen resolutions you find acceptable. If you expect to prance around the fictional world of Cyrodiil at a liquid smooth 60 frames per second, you'll be sorely disappointed. Likewise, if it's a completely stutter-free experience you demand, be prepared to run Oblivion at resolutions much lower than almost any other game on the market.



https://www.tomshardware.com/reviews/rig-run-oblivion,1279-15.html
 
Hurricane.de schrieb:
Ich denke das fällt dann doch zu sehr aus unserem redaktionellen Fokus raus. So wenig ich TI auch leiden kann, ComputerBase ist mMn nicht die richtige Plattform um das groß aufzuziehen.
Ein Fach-Artikel darüber der die Entwicklung von Kantenglättung allgemein und die Hintergründe warum sich etwas entwickelt,durchgesetzt hat, bzw. warum der Umstieg von MSAA zu TAA bei deferred renndering und mehr geometrie usw. nötig wurde, würde bestimmt auf gute Resonanz stoßen.

Zudem kann man dann darauf verweisen, wenn diese Diskussionen wieder aufkommen.
Sprich der Weg von keiner Kantenglättung von SSAA zu MSAA, FXAA/MLAA, TAA (TSSAA), zu den hybrid bzw. KI gestützten Verfahren wäre doch superb.
Hurricane.de schrieb:
Am Ende geben wir seinem Kanal damit nur eine noch größere Bühne, und ich möchte hier auch keine Schlammschlacht sehen.
Könnte man als Negativbeispiel für Desinformation anführen.
Hurricane.de schrieb:
Was TI am Ende des Tages macht, ist die Frustration vieler Spieler über den aktuellen Stand der Videospielindustrie auszuschlachten.
Ich verstehe auch gar nicht, warum Frustration entsteht.
Bright0001 schrieb:
Dass es nicht die UE ist, die unerfahrene Entwickler lockt, und es auch nicht die UE ist, die für den Einstieg empfohlen wird;
Die Dokumentation ist sehr umfangreich, insofern würde ich sagen, wenn man anfängt zu entwickeln ist die UE5 schon recht ideal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 192.168.178.1
Einerseits verstehe ich die Aussage von Sweeney und sehe da auch die Entwickler in der Verantwortung, andererseits ist dann aber auch entweder das Produkt (die UE5) so kompliziert aufgebaut oder schlecht dokumentiert, dass es da zu Problemen führt - also auch die Mitschuld von Epic. Das sind ja nicht alle Studios, die gerade ihr erstes Spiel produzieren und da Anfängerfehler machen würden. Wir setzen auch immer mal wieder neu, innovative Software bei uns ein und gerade die Doku bzw. der Support sind da stellenweise unterirdisch. Da hilft die beste Software nichts, wenn ich sie nicht passend einsetze weil mir Infos fehlen.

@Hurricane.de
Weiterhin könnten Ingeneure von Epic Games bei Bedarf auch selbst tätig werden,...
Wer kennt das nicht? "Dem Inschenööör ist nix zu schwöör" 😉
 
Naja, ganz unrecht hat er nicht. Ashes of creation (Alpha 2 phase 3) und Grayzone Warfare z.B. laufen für das gebotene richtig gut. Nutzen aber wie gesagt auch eine aktuelle Version und keine der problembehafteten älteren.
 
Grayzone Warfare läuft wirklich superb, muss ich mal wieder reinstarten.
Riesige map, Nanite Porno, kaum hickups, nur manchmal litten die Server etwas.
 
M@tze schrieb:
ist dann aber auch entweder das Produkt (die UE5) so kompliziert aufgebaut oder schlecht dokumentiert, dass es da zu Problemen führt - also auch die Mitschuld von Epic.
Eine Engine wie die UE ist zwangsweise hochkomplex, weil die ein breites Spektrum an Features, Funktionen und Spieletypen abdeckt. So eine Engine besteht dann aus unzähligen Modulen und Hebeln und Knöpfen. Ja, das kann (und sollte) man alles dokumentierten, aber die Dokumentation wird dann eben genauso komplex und tiefgründig/detailiert.

Da gibt es schlicht Grenzen, wie weit man die Nutzer der Engine, also die Spieleentwickler, an die Hand nehmen kann. Die müssen sich schon selber (anhand der Doku) ausgiebig mit den ganzen Systemen der Engine verrtraut machen und natürlich auch das technische Wissen mitbringen, um die Systeme und Dokumentation entsprechend zu verstehen. Ansonsten hilft die beste Doku nicht gegen eine ineffiziente Verwendung der Engine. Und nein, es ist die nicht Aufgabe von Epic, den Entwicklern Alles vorzukauen. Epic kann durchaus voraussetzen, dass die Engine von Leuten verwendet wird, die eine entsprechende Ausbildung und Berufserfahrungen haben. Manche sind sogar noch mehr spezialisiert in ihrer Ausbildung/Erfahrung (Technical Artist, Lighting Artist).

Von Airbus erwartet ja auch Niemand, dass er seine hochkomplexen Passagiermaschinen für Anfänger oder gar Laien auslegt, sondern da wird vorausgesetzt, dass der Pilot eine entsprechend umfangreiche Ausbildung hat, um das Flugzeug richtig bedienen zu können. Und die Unreal Engine ist eben ein A380 und keine Cessna.
 
  • Gefällt mir
Reaktionen: M@tze und Kuristina
Bright0001 schrieb:
Sich gegens Upscaling zu stemmen ist mittlerweile aber auch nur Glaubenskrieg, denn rationale Gründe - vor allem in hohen Auflösungen - gibt es keine. Zudem ist 4K sicherlich keine "gängige" Auflösung, sondern eher weit am oberen Ende, was auch die 4,6% in der Steam-Survey belegen.
Mag ein stückweit mein eigenes Problem sein, aber Glaubenskrieg ist es für Leute, die auf Monitoren spielen. Ich spiele aber auf einem 65" TV und ja, man sieht sehr einfach den Schärfeverlust von Upscaling. Wofür haben viele Spiele auch einen Schärferegler, sobald man Upscaling benutzt? Weil Schärfe verloren geht.

Und ich bezeichne 4K schon als gängig. Aber von mir aus dann halt nicht. Wenn dann aber Steam rangezogen wird, dann nimm bitte nicht die ~4% die 4K benutzen, sondern die ~35%, die was Höheres als 1080p benutzen.

Und was ich bis jetzt immer bei diesen Upscaling-Diskussionen vermisse: Verargumentiere bitte sich gegen die native Auflösung eines Bildschirms zu stellen!

Nebenbei kommt demnächst DER UE5 Monitor schlechthin. Dual-Mode Monitor von ASUS mit 720p Modus.
Bright0001 schrieb:
Und was genau ist da eigentlich mit deinem Spiel passiert? Die FPS sind da das kleinste Problem. :D
Ja das kann sein, weil ich SpecialK in HDR rechnen lasse und dann aber Screenshots in jxr gemacht werden, die ich wiederum mit nem einfachen Programm von einem Hobbyprogrammiere zu jpg umkonvertieren lasse. Ab und zu kommt sowas dabei raus, aber da das nicht Thema war.....Auf meinem TV sieht es so nicht aus :)
Ergänzung ()

Svennc schrieb:
Und weil das GTX-Killer-Feature Raytracing bei heutigen Entwicklungszyklen erst Jahre später den Eintritt verweigerte.
Ray-tracing zähle ich schon gar nicht mehr mit, weil dann nämlich entgültig Schluss mit FPS ist, auch bei der dicksten GPU, es ein denn es wird nur in geringem Maße verwendet. Halt nur für Beleuchtung oder nur für Reflektionen. Ray-tracing wäre eigentlich DAS Verkaufsargument für SLI.

Ich glaube auch du verkennst außerdem, wie lange sieben Jahre eigentlich sind. Meinst du irgendeiner macht sich vor, ne jetzt schon am Schwitzende RTX4080 (2022) nochmal vier Jahre zu behalten? Wie soll das dann aussehen? 1080p DLSS Ultra Performance (360p) + FrameGen?

Zur Erinnerung: GTX Karten mussten mit dem auskommen, was hatten. Da gabs keine Cheats. DLSS/FrameGen sind keine Features, sondern Krücken!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: EntelodonX
Nova eXelon schrieb:
Zur Erinnerung: GTX Karten mussten mit dem auskommen, was hatten. Da gabs keine Cheats. DLSS/FrameGen sind keine Features, sondern Krücken!
Doch die gab es immer. Ohne diese "Cheats" wäre auch das, was du vor 10 Jahren gespielt hast, nicht möglich gewesen.
Um mal nur ein paar zu nennen: Screen Space Reflections, HBAO, Prebaked Shadows, Culling, LoD usw.
Hier mal eins im Detail:

Der Fast Inverse Square Root Algo in Quake liefert ein falsches Ergebnis, es ist aber nah genug am richtigen Ergebnis, um es nutzen zu können. Gabs damals einen Aufschrei, dass da rumgetrickst wurde? Nö, das stört euch irgendwie nur an DLSS und co. Was als richtig bzw. nativ bezeichnet wird, ist genau so getrickst. Daran ist nichts richtig.
 
  • Gefällt mir
Reaktionen: TomH22, Haldi und Quidproquo77
Nova eXelon schrieb:
Ich glaube auch du verkennst außerdem, wie lange sieben Jahre eigentlich sind. Meinst du irgendeiner macht sich vor, ne jetzt schon am Schwitzende RTX4080 (2022) nochmal vier Jahre zu behalten? Wie soll das dann aussehen? 1080p DLSS Ultra Performance (360p) + FrameGen?

Zur Erinnerung: GTX Karten mussten mit dem auskommen, was hatten. Da gabs keine Cheats. DLSS/FrameGen sind keine Features, sondern Krücken!
Nun ja, DLSS rettet bspw. die RTX2060. Damit kann man auch jetzt noch brauchbare fps erreichen. Viel erwarten würde ich in den nächsten Jahren ausgehend von einer 4080 eh nicht mehr. Man sieht doch jetzt schon wohin es geht. Der Verbrauch steigt bei Nvidia 1 zu 1 mit den fps. Also hat man versucht mit MFG das Offensichtliche zu kaschieren.
 
Nova eXelon schrieb:
Ray-tracing zähle ich schon gar nicht mehr mit, weil dann nämlich entgültig Schluss mit FPS ist, auch bei der dicksten GPU.
Ich glaube du musst dich mal seriös damit befassen, wie gut aktuelle Spiele selbst mit Pathtracing im Vergleich zu dem laufen, was man früher so in maximalen Settings bekommen hat.

Heute hat man sogar noch ultra effiziente und intelligente Hilfsmittel wie Reflex, Frame Generation und KI Upsampling um die Qualität beizubehalten oder gar deutlich gegenüber der Nativen Auflösung zu erhöhen und jede Menge Frames mitzunehmen. Sogar so effektiv, dass Pathtracing heute selbst auf einer Einsteiger GPU realisierbar ist.
Nova eXelon schrieb:
Meinst du irgendeiner macht sich vor, ne jetzt schon am Schwitzende RTX4080 (2022) nochmal vier Jahre zu behalten? Wie soll das dann aussehen? 1080p DLSS Ultra Performance (360p) + FrameGen?
Ja, die Karte wird sehr gut altern und wohl auch noch in 4 Jahren in der Lage sein aktuelle Titel mit ein paar Kniffen ganz gut zu befeuern. Wenn DLSS5 in der Lage ist ein 360P Bild über das Native Niveau zu heben, bitte warum nicht. Und wenn in Zukunft nur noch 240p Nativ gerendert wird und Rest mit KI aufgemöbelt ist das doch cool so.
Nova eXelon schrieb:
Zur Erinnerung: GTX Karten mussten mit dem auskommen, was hatten.
Genau. Heute ist es hingegen Luxus im Vergleich zu damals. Damals musste man Qualitäsregler nach unten drehen um ein Witcher 3 oder Red Dead Redeption oder GTA5 halbwegs flüssig zu spielen. Heute gibts dafür Abhilfe durch Reflex,FG und KI Super Sampling Upscaling.
Nova eXelon schrieb:
Da gabs keine Cheats. DLSS/FrameGen sind keine Features, sondern Krücken!
Genau, es sind eine Art von Krücken mit der man auf einem Jetpack zur Arbeit fliegt anstatt sich in den Rollstuhl zu setzen. Puristen ruckeln sich mit den gebrochenen Beinen lieber in Zeitlupe über den Asphalt.
APK1ä.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TomH22
Zitat:
Dass die Engine an sich auch gut auf Einsteiger- und Mittelklasse-Hardware laufen kann, zeigen beispielhaft die Multiplayer-Titel Valorant und auch das von Epic Games selbst entwickelte Fortnite. Beide Titel bekommt man mit Abstrichen bei der optischen Präsentation „auf jedem Toaster“ zum laufen.

Farm Frenzy und Moorhuhn hat er in der Aufzählung noch vergessen.
 
ElliotAlderson schrieb:
Für das Endprodukt ist nur der Entwickler/Publisher verantwortlich und niemand sonst.
Na klar, pauschaler geht's nicht, mein Name ist Tim "Hase" Sweeney und ich bin wahlweise die Unschuld vom Lande oder weiss von nichts :lol: .

Leistung müssen nur die anderen (Entwickler/Publisher) bringen (aber Epic nicht), und wenn das nicht ziehen sollte, haben notfalls haben einfach die Gamer keine Ahnung/passenden Ansprüche mehr, wenn es nach Deinem Freund Sweeney geht.

Die Unreal Engine 5 ist in allen Belangen ja so perfekt (eine "eierlegende Wollmichsau" sozusagen), auch wenn diese oft genug dem Vergleich mit der Konkurrenz (nicht nur von hauseigenen Studio-/Publisher-Engines) oft nicht stand hält was leistungstechnische Ausgewogenheit und breite, angeblich so einfache Anwendbarkeit angeht.

Ja, man kann eine Engine auch in die falsche Richtung mit Betonung auf aufgeblasenen, extrem leistungshungrigen Mätzchen-Features und Vernachlässigung der grundlegenden Technik (die die o.g. Mätzchen-Features damit eben konterkarieren) entwickeln und dieser Verdacht von "mehr Schein als Sein" liegt bei der (Weiterentwicklung der) Unreal Engine (für eine kleine Gamer-Enthusiastennische) leider zunehmend nahe und wird von nicht wenigen geäußert.

Bei Epic weiss man (außer CEO Sweeney scheinbar, der den Schein wahren will und lieber allen anderen die zuweist) selber ziemlich genau, was für eine Ruckel-Engine man aktuell mit der Unreal Engine 5 hat und gibt das selber zu:

Vor gut einer Woche ging die Aufzeichnung einer ungewöhnlichen Session online. Ungewöhnlich deshalb, weil Epic Games ziemlich selbstkritisch mit dem Thema Framerate-Drops bei Unreal-Engine-5-Spielen umging und weil der Präsentator, Senior Unreal Engine Software Engineer Ari Arnbjörnsson, den Vortrag mit einem Hexenjägerkostüm eröffnete und andere Entwickler dazu aufforderte, "die Hitches zu töten", also die Mikroruckler.
 
Zuletzt bearbeitet:
Zurück
Oben