• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Sims-Konkurrent: Bei Inzoi reicht ein Ryzen 7 5800X3D nur für „Medium“

MalWiederIch schrieb:
meine Schwester hat sich damals rein für die Sims ein Gaming-Notebook geholt, meine Frau würde niemals wieder zurück zu einer RTX 3060 - eben eine Sache der eigenen Ansprüche und Kompromissbereitschaft
Und meine Frau daddelt Sims 4 am MacBook Air mit M2. Mit der 8GB Variante! Das funktioniert. Sehr gut sogar. Besser als mit jedem Laptop, denn sie vorher hatte. Und vor allem erleidet man keinen Tinnitus :x

Das moderne Spiele auch etwas modernere Ansprüche haben - normal. Aber das, was hier präsentiert wird, finde ich abgehoben für ein Spiel das mit Sims konkurrieren möchte und damit mit einem riesigen Markt von "Casual Gamern".
 
Klassisches UE5 game. NASA-Rechner für "60fps high"
 
  • Gefällt mir
Reaktionen: icetom und Blackfirehawk
@AbstaubBaer
Naja, die Systemanforderung, insbesondere beim CPU sind selten reprentativ und meisten auf ein worst case Szenario ausgelegt.... oder einfach auf eine optische leistungskurve...

Ich habe nur ein einziges mal erlebt das mein CPU zu langsam war, das war bei Battlefield 3, wo ich noch mit nem PhenomII 955BE rum gegegurkt bin. Das lag aber auch an der Kernanzahl, und weniger an der IPC.

Daher sind zweifel angebracht das die CPU limitiert. In der Regel war und ist das Bottleneck immer die GPU. Aber wen sich das ändert, freue mich auf einen Test der uns zeigt das die AM4 tatsächlich auch in Spielen am sterben ist.
Ergänzung ()

GeleeBlau schrieb:
Klassisches UE5 game. NASA-Rechner für "60fps high"
Und braucht man für UE5 auch AM5? Also wird da AM4 tatsächlich zum bottleneck?
 
Aslo schrieb:
Bisher ist mir der Fokus zu sehr auf den Futzis. Ich will nur geile Häuser bauen. Hoffentlich ist das auch gut umgesetzt.
Es wird bestimmt 1000 DLCs geben ;)
Ergänzung ()

lynx007 schrieb:
Und braucht man für UE5 auch AM5? Also wird da AM4 tatsächlich zum bottleneck?
je nach dem wie dumm man sich anstellt: ja
Stalker2 läuft bei mir nicht rund. 98X3D und DLSS Balanced aber mit als 70 FPS sind nicht drin, Input lag hoch, stottern viel, Spielbarkeit am Arsch. Stalker SoC fühlt sich mit 40 FPS besser an.
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
Das lässt sich pauschal doch garnicht sagen, gibt viele Spiele die vom X3D-Cache nicht profitieren und dann hat man eben mit einem 5800X3D nur noch einen langsameren 5700X (geringerer Takt). Hier ein Beispiel - da liegen mal kurz 43% (!) zwischen 5800X3D und 14700K:
Anhang anzeigen 1595577
Da dürfte Starfield aber auch wirklich das einzige negativ Beispiel sein
 
TheHille schrieb:
Es scheint auch, dass es wohl auch sehr CPU-lastig sein wird.
Ist das jetzt deine Vermutung, nachdem im Text mehrmals darauf hingewiesen wurde und in der Headline schon vom CPU Hunger zu lesen war?

Ich habe die Sims damals wirklich sehr gerne gespielt. Sims 4 spielen aktuell die Kinder. Hoffentlich erfahren die von diesem Spiel nicht. Auf einen potenten PC im Haushalt habe ich wirklich keine Lust mehr!
 
  • Gefällt mir
Reaktionen: Pisaro
lynx007 schrieb:
Und braucht man für UE5 auch AM5? Also wird da AM4 tatsächlich zum bottleneck?
Selbst AM5 und n aktueller X3D kann dir in UE5 problemlos zum bottleneck werden..

Gerade wenn es viele kleine verschiedene assets und Figuren/Modelle sind die geladen werden müssen..

Zb bei ARK Survival... Es ist einfach soviel los im Hintergrund...
Und dann fängste an deine Base zu bauen... Hier ne Kleinigkeit hin.. da ne Kleinigkeit hin.. dazu n paar Dinos und ruck zuck hast du selbst auf einen 5000€ PC keine 50FPS mehr weil die CPU nicht hinterher kommt...


Wenn das hier ähnlich ist...
Weil es ja wie Sims eine Aufbau Simulation ist.. wirst du ganz schnell im midgame mit ner kleinen bis mittelgrossen Basis/Stadt/Aufbau etc ins CPU bottleneck rauschen.

UE ist zwar eine "Universal engine".. aber dafür eigentlich nicht geeignet..
Mit ihr kann man theoretisch zwar alles Realisieren.. aber halt nix wirklich effizient umsetzen...

Bezahlen muss das in der Regel der Endkunde indem er das Problem mit Hardware Power zuscheissen muss.. die weder das Spiel noch die entsprechenden Optik rechtfertigt.
 
Botcruscher schrieb:
Boa da ist es wieder einer der Ergebnisse nicht versteht.
Mal so als Denkanstoß: Ich hab 4 Systeme. Ein moderner Hauptrechner, ein alter Rechner mit einem Sandy der einfach funktioniert für Dinge die er machen soll sowie 2 Laptops für Mobilität. Auf allen ist Steam um etwas zu chaten und zur Not mal was zum Zeitvertreib zu spielen. Der Median aller Systeme sind 4 Kerne, Der Durchschnitt 5.
Die Quizfrage: Auf welchem der Rechner werden wohl die Hardwarefresser gespielt und welche Aussagekraft haben die restliche 75% der installierten Basis.

Aber warum glaubst du, dass deine 4-Rechner irgendwie dem Durchschnitt der Spielerbasis nahekommen und du von deiner eigenen Nerdhöhle irgendwas Substanzielles ableiten kannst? :confused_alt:
 
Blackfirehawk schrieb:
Zb bei ARK Survival... Es ist einfach soviel los im Hintergrund...
Und dann fängste an deine Base zu bauen... Hier ne Kleinigkeit hin.. da ne Kleinigkeit hin.. dazu n paar Dinos und ruck zuck hast du selbst auf einen 5000€ PC keine 50FPS mehr weil die CPU nicht hinterher komm
Aber liegt das an der Qualität des Codes? Oder daran das man UE5 viel weiter hochskalieren kann, als es die CPU leistung hergibt?!
Ergänzung ()

Blackfirehawk schrieb:
UE ist zwar eine "Universal engine".. aber dafür eigentlich nicht geeignet..
Mit ihr kann man theoretisch zwar alles Realisieren.. aber halt nix wirklich effizient umsetzen...
Woran macht man das fest? Oder woran erkenneich die richtige Engine? Ich mmein früher war UE lange state of the art... Mitlerweile scheinen aber auch viele Entwickler lieber zu alternativen zu greifen. Was nicht heißt das UE unbeleibt ist....
Ergänzung ()

Aimero schrieb:
Da dürfte Starfield aber auch wirklich das einzige negativ Beispiel sein
Jein... bei solchen test läuft aber in der Regel die GPU nicht auf vollllast.... Man will ja den unterschied zwischen den CPUs isulieren...

Aber das heißt ja umgekehrt nicht, nur weil der CPU 40% schneller ist, das auch von der ANwendung gebraucht und genutzt wird. Auch nicht wen Sie es in dei Requiremtn schreiben. Also zumindest war das in den letzten 30 Jahren wo ich Zocke so. Klar irgendwann ist eine CPU zu alt. Aber in der Regel hat das wenig bis nichts mit den (Grafik)Settings und Requiremnts zu tun zu tun. Bei GPU sind die Requirement genauer... oder zumidnest hat man es direkter gespürt wen mman das von den Empfehlungen abweicht.

1741894614506.png
 
Zuletzt bearbeitet:
Was das cpu limit problem angeht die ue allgemein kann sehr gut skalieren das hängt primär vom Spielcode ab
Was wird in einer frame Erzeugung als basis gebraucht je mehr Echtzeit daten gebraucht werden desto härter das cpu limit.
Dafür gibt es tricks und Einsparpotenzialle auch mit directx Vorgabe in dx11/dx12 mit der command list damit entlastet man den mainthread und kann das potenzial der cpu auslasten.
Nutzt man das nicht und versagt noch beim ram management haut das cpu limit richtig rein.
Das zeigt das der Programmierer der software zu faul ist sich mit directx zu beschäftigen.
Gemäß läuft ja mit min fps die oft nur das ziel sind.
 
Ich bin da sehr gelassen. Wie ein UE5 Spiel laufen kann sieht man an Hellblade2. Dieses Spiel interessiert mich zum Glück nicht, deswegen sind mir auch die Anforderungen schnuppe. Mich interessierst das neue Doom im Mai und Ende des Jahres Anno.
 
Fujiyama schrieb:
Letztlich kommt es drauf wie Spiele auch Funktionen einen CPU nutzen, die X3D CPUs sind ja auch keine Wunder CPUs, auch wenn das hier gern so getan wird.
Hast recht.Hätte AMD nie mit Ryzen und den dazu gehörigen Innovationen angefangen, hätten wir halt Intel, die vielleicht im Jahr 2022 angefangen hätten mehr als 4 Kerne für nicht Workstation PCs zu bringen.Wobei die auch bis 2025 gewartet hätten.Also manchmal muss man hier echt Schrott lesen.
 
lynx007 schrieb:
Aber liegt das an der Qualität des Codes? Oder daran das man UE5 viel weiter hochskalieren kann, als es die CPU leistung hergibt?!
Es liegt vor allem daran daß sich die Spiele Entwickler nur soweit mit der Engine beschäftigen wie sie es für nötig halten und das Finetuning weglassen.

Bzw das man funktionen der Engine... die einen weiterhelfe.. teilweise gar nicht kennt oder versteht.
Oder Ressourcen reinstecken will aus Zeit, Personal oder Geld Gründen.

Die Engine selbst ist im Grunde ein riesen Baukasten und es wird einfach eine Menge vorgefertigter Funktionen ect genommen um das ganze zusammen zu kloppen..

Auch hat nicht jeder Entwickler oder sein Management das Interesse daran so etwas mit mehr als 30-60 FPS lauffähig zu machen.. und zur Not nimmt man upscaling.. (was einem im CPU Limit natürlich nicht hilft)


lynx007 schrieb:
Woran macht man das fest? Oder woran erkenneich die richtige Engine? Ich mmein früher war UE lange state of the art... Mitlerweile scheinen aber auch viele Entwickler lieber zu alternativen zu greifen. Was nicht heißt das UE unbeleibt ist....
Eine eigene inhouse Engine ist in der Regel auf die Bedürfnisse des Spieles hin programmiert und zugeschnitten..
Und das war früher auch mehr der Standart als Heutzutage.
Nur muss man diese auch pflegen, bugfixen und im Laufe der Zeit erweitern.. was in der Engine geschultes Personal vorraus setzt...
Es hat den Vorteil das die Programmierung viel individueller auf das Spiel zugeschnitten ist.


Unreal Engine war schon immer eine "Universal Engine" nach den Motto "jack of all Trades.. master of nothing"
Was es durch seine Verbreitung und den Baukasten Prinzip leicht macht Spiele entwickeler/Programmierer und Art Stylisten zu finden und nach Projekt Ende zu Feuern..
Und das sind teils Leute die sich nur soweit mit der engine auskennen wie nötig und sich nicht immer unbedingt selbst auf dem laufenden halten oder darin weiter geschult sind als nötig.

Es macht halt den Unterschied ob du etwas selbst entwickelst und herrstellst oder ob du es einkäufst.. und so wird damit auch umgegangen.
 
Zuletzt bearbeitet:
Wie sieht denn das Bezahlmodell aus, ist da schon was bekannt?
Wenn Sie nur Basispiel und viel Bezahlzeugs planen ist das Spiel direkt raus.

Sims geht schon nicht mehr, ist kaum mehr refinanzierbar. Wenn man bedenkt das es mal ne ganze Collection umsonst gab.
1500 Mods anpassen, sichern, auf Kompatibilität prüfen - das ist nichts womit man sich als Erwachsener noch zufrieden geben möchte. ;)
 
ecth schrieb:
7700 (non-X) und ne 5700 XT und die 9070 (non-XT)
Woher kommt eigentlich dieses non-XT, non-Super, non-k und was es nicht noch alles gibt? Wenn ich von einem Ryzen 7700 spreche, dann meine ich doch offensichtlich nicht die X-Version. Selbiges bei den GPUs. Hab deinen Beitrag jetzt nur exemplarisch zitiert, machen ja einige Leute so. Wird das sonst wirklich häufig verwechselt? Hier wissen die meisten doch Bescheid, was diese Zusatzkürzel angeht.
 
@Poati Naja, es ist so ein Bisschen unklar. Ich spreche normal ja auch nur von einer "5090", nicht "RTX 5090". ODer tatsächlich, als ich den Ryzen 9 5900X hatte, habe ich den beim Sprechen "5900" genannt. Dabei gibt es glaube ich auch eine non-X Variante?

Ich habs mir beim Schreiben aber auch getan. Du triffst nen Punkt. Viel angenehmer ist es, wie bei den 7900er Grafikkarten. Es gibt die XT und XTX. Und natürlich noch GRE. Ähnliche Namen, aber eigentlich hier im Forum keine Verwechslungsgefahr. Und Kontextsensitiv kannst sagen "meine XTX" und alle nicken wissend.
Das Fehlen eines Suffix macht alles schwierig.
 
Die Kürzel stehe für Modelle die den maxed clock haben mehr alu oder eine höhere tdp
Der r7 7700 hat nur 65w tdp 88w ppt ist also nicht so hart betroffen von den hohen temps der zen4 generation +- 80°c statt den 90°c
Die neue gen also Zen5 hat das gefixt so das die cpu nicht mehr am temp limit Takten auch dank n4 node -22% Energie.
Wenn am5 dann zen5 bzw bald zen6
 
@syfsyn
Danke für die Ergänzung, ging aber nur um 7700 ist gleich 7700 "non X".
 
  • Gefällt mir
Reaktionen: ecth
Zurück
Oben