• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Godfall will schon für 1080p Leistung sehen

Sebbi schrieb:
Konsole: hier mal ein bewegter Grasbüschel, dort mal ein Baum, etwas Gestrüpp, vielleicht mal ein Tier
PC: ganzer Wald mit vollem animierten Gras bedeckten Boden, schön verteiltes Gestrüpp, Tiere in verschiedenen Distanzen.

Beispielgame: GTA V

Aber ja, wer sich nur für die Story ober nicht für die Umgebung etc interessiert, zahlt sich das aus. Wobei dann auch solche Klassiker wie Monkey Island oder TES II durchaus auf einen 200 € Rechner voll flüssig und stabilen 60, 120, 144 fps etc laufen.

Ich kann mir auch für 50Taler ne gebrauchte PS3 mit 4-5 Spielen holen. Welchen PC um 50Taler gibt es der auf gleichem Niveau liegt? Hmmmm...genau: Keinen, nicht mal gebraucht findet man soetwas.

Für PC Klassiker reicht ein Emulator auf dem HANDY - da braucht man sich nicht extra ne "Nostalgiekiste" zusammenschustern.

Du erkennst anscheinend nicht, das das Verhältnis überhaupt nicht mehr stimmt. Aber es waren ja die bösen, bösen Miner die daran Schuld sind und auf gar keinem Fall NVIDIA oder AMD wobei man am Beispiel NVIDIA gerade wieder sieht, wie sehr sich eine Verknappung der Verfügbarkeit zusätzlich auf den Preis niederschlägt. Von 500Euro Mittelklasse Werbeanzeigepreis fang ich gar nicht an....
 
DrSmile

Ja ne PS3 hatte ich zwischen durch auch einige Top Titel. Motor Storm fand ich Hammer war der Grund warum ich mir ein PS3 geholt hatte.

Resistance
Heavenly Sword
Lair

Genji: Days of the Blade

Das war mein Liebslingspiel
 
Zuletzt bearbeitet von einem Moderator:
Sly123 schrieb:
Verbesserte Texturen sind fast ohne Performance-Verlust realisierbar und Godfall nutzt es auf eine etwas extreme Weise aus. Damit sieht das Spiel im Idealfall in jeder kleinen Ecke gestochen scharf aus. Das trägt viel zur Immersion bei.
Finde das überhaupt nicht verwerflich und "fast" jeder wusste doch dass 8GB irgendwann nicht mehr ausreichen.

Ob die Texturen besser aussehen wird man erstmal sehen müssen und dann bewerten ob sie die zusätzlichen Gigabytes and Hardware wert sind. Ich glaube nicht. Denn die Vergangenheit hat bereits gezeigt dass Ultra-Texturen und die nächst kleinere Stufe bestenfalls vernachlässigbare Unterschiede aufzeigen.
Von geringeren Auflösungen als Ultra HD brauchen wir glaub ich gar nicht erst anfangen. Da ist sowas eh Perlen vor die Säue geworfen.

Für mich ist dieses Spiel ne ähnliche Nummer wie Ashes of the Singularity. Es soll die Vorteile der neuen AMD Karten aufzeigen, und das was sie von der Konkurrenz absetzt nutzen. Damals war das z.B. Async Compute, heute ist es unter anderem VRAM. Das Video zeigt die Intention ja ziemlich eindeutig auf. Ein Werbespiel.
Und ich denke wenn sie ihre überbordenden Systemanforderungen, selbst für FullHD, nicht in den Griff kriegen wird es auch genauso ein Erfolg wie AotS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: USB-Kabeljau und bender83
Wir hier legen Wert auf hohe grafische Qualität und Leistung. Wir sind jedoch nur die Ausnahme. Den allermeisten Spielern ist das egal oder sie können es sich nicht leisten. Wenn die Einstellungen der Xbox Series X oder PS5 auf dem PC mittleren bis hohen Einstellungen entsprechen und dies mit z.B. einer GTX1070 o.Ä. noch spielbar (>30 FPS) sind viele zufrieden. Sehr viele werden sogar nur auf Niedrig bis Mittel spielen und die Auflösung wird nicht höher als 1080p sein. Da wird man wohl mit deutlich älteren GPUs noch spielen können. Der Entwickler entwickelt so ein Spiel ja nicht nur für Enthusiasten, da verdient man ja kein Geld mit. Auch ein Grund wieso ich 4K Gaming nicht nutze. Die Kosten dafür waren bisher einfach zu abgehoben. Volle Details in 4K war bisher kaum möglich und wenn das vereinzelt möglich war, dann nur teuren Grafikkarten, wofür sich andere einen ganzen Rechner gekauft haben. WQHD reicht mir und die Anforderungen von 1080p her waren schon bedeutend höher. Trotzdem konnte ich bisher das meiste ohne Einschränkungen mit meiner 2070 Super spielen.
Wer also auf dem PC alles auf Maximum in 4K spielen will und das am besten noch mit 60fps+, der muss viel Geld in die Hand nehmen. Aber mit Raytracing (nativ ohne DLSS) ist das bereits jetzt nicht möglich (siehe Watch Dogs Legion Benchmark). Ich nutze eine Grafikkarte so lange, bis ich hohe Einstellungen nicht mehr flüssig mit 50-60fps+ darstellen kann. Ich spiele zu 80% Singleplayer, da geben mir 100 fps+ keinen wirklichen Vorteil.
Und viele sehen wohl zu Hause die bessere Qualität der neuen Konsolen noch nicht mal. Bei Konsolen sind vermutlich 90% der Spieler zufrieden mit den 30 fps und kaum einem ist aufgefallen, dass die Auflösung dynamisch angepasst wurde, wenn die 30 fps nicht gehalten werden konnten. Dazu kommt, das vermutlich immer noch viele keinen TV >40" besitzen. Viele nutzen noch 1080p und besitzen keinen 4K TV. Der Sitzabstand ist bei vielen vermutlich so oder so zu gross, dass man den Unterschied zwischen 1080p und 4K noch nicht einmal sieht.

Darum, wer alles auf Anschlag möchte und in 4K, der muss halt wieder richtig Geld ausgeben. Das viel VRAM notwendig ist, weiss man nicht erst seit gestern. Alles mit mit hohen bis sehr hohen Einstellungen in 1080p - WQHD leben können, die dürften viel Spass mit den kommenden Spielen haben. Wichtiger ist eine gutes Story, bzw. guter Inhalt, dann nimmt man auch grafisch gerne weniger Qualität in kauf. Man gewöhnt sich so oder so schnell an das sichtbar. Selbst gemerkt mit RDR2. Auf der Xbox One X und nun auf dem PC. Ich erkenne ohne direkten Vergleich keinen Unterschied. Vergleiche ich dies, sieht es auf dem PC natürlich besser aus, aber es fällt mir während dem Spielen nur dann auf, wenn ich speziell darauf achte.

Ich hoffe das ich mit meiner 2070 Super in WQHD Cyberpunk 2077 noch mit flüssigen 50-60 fps spielen kann. Wenn dass noch möglich ist, dann wird sie noch eine Weile in meinem Rechner arbeiten.
 
Jo danke @.Sentinel. Das war so klar :)
Und an all die, die der 3070 attestiert haben, dass die 8GB das Verhängnis in der Zukunft sind und nicht die Leistung, sei gesagt: Nein, die 8GB sind nicht das Problem. Das sieht man aktuell gut an AC, Dirt5 & Co.


foo_1337 schrieb:
Und ob die 12GB wirklich gebraucht werden, weiß auch keiner. Das einzige woran man sich fest hält, ist der eine Satz dieses Marketing Fuzzis.
 
Zuletzt bearbeitet von einem Moderator:
Ja, war eh klar, dass die Angabe kompletter Unfug war.
Hätte aber auch stimmen können, wenn man unsinnig hohe Auflösungen gefahren wäre.

Bin mal gespannt, was die AMD-Fans jetzt sagen, die bei NVidia ja immer gerne sehr laut schreien, wenn sie meinen, dort solche Praktiken ausgemacht zu haben.
 
  • Gefällt mir
Reaktionen: foo_1337
Kompletter Unfug würde ich das nicht nennen. Die Angabe bezog sich, denke ich, auf alles maximal. Wie im Text weiter unten ja steht wird mit HDR FidelityEX LPM 11-12 GB VRAM genutzt. Er vermutet ja nur, dass dies reserviert wird und auch weniger ausreichen. Wissen tut man das im Moment nicht. Ich weiss auch nicht welchen Vorteil der Hersteller haben sollte mit falschen Angaben. Das könnte sich negativ auf den Verkauf auswirken. Und nur um die Leute zu einer neuen AMD Karte zu treiben? Mal abwarten was dann die definitiven Tests sagen. In WQHD hat man eher keine Probleme und trotzdem würde ich mir keine 3070 mit 8 GB VRAM kaufen. Die sind auch jetzt schon bei einigen Spielen knapp und das in WQHD. So ein Fall ist z.B. Red Dead Redemption 2, welches bei mir 6-7 GB benötigt... und mit der 2070 Super ist da nicht alles MaxedOut. Die neuen Konsolen haben auch mehr Speicher zur Verfügung, ich denke die Zukunft geht auch da zu mehr. Steht mehr zur Verfügung, wird auch mit der Zeit mehr genutzt. Mit Direct Storage (DX12) steht zudem eine weitere Technologie in den Startlöchern. Wenn man also in Zukunft die Daten schneller zur Grafikkarte bringt und diese mehr Speicher hat um diese auch umfangreicher/länger zu speichern, hat man mit mehr Speicher nur Vorteile. Zudem ergibt dies auch für die Spieleentwicklung neue Möglichkeiten... nicht nur schnellere Ladezeiten.
Meine letzten 3 Karten waren von Nvidia und ich war soweit immer zufrieden. Aber aktuell würde ich jedem raten, noch abzuwarten was von AMD noch kommt. Sind die AMD Karten auf Augenhöhe (oder gar schneller), würde ich zur Karte mit mehr VRAM raten. Gerade wenn man die Karte drei oder mehr Jahre nutzen möchte. Wer jedes Jahr was neues kauft, den interessiert das nicht. Bis dahin dürften auch neue Nvidia Karten kommen mit mehr VRAM. Ich denke wenn der AMD Big Navi Launch erfolgreich sein sollte, wird Nvidia schnell reagieren... vielleicht schaffen sie es dann auch, genügend Karten zu produzieren.
 

Das zum Thema 12gb VRam.. :daumen:
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Frage mich echt wozu dieses Gelüge gut sein soll, dann finde ich das Game zudem noch ziemlich mies (zu leicht, wenig Abwechslung etc.), dann noch always on - echt eine tolle Zeit.

Dennoch ist diese ganze VRAM-Diskussion schon gerechtfertigt, egal was die Fans hier reden, denn es gibt bereits Beispiele wie Avengers bei denen selbst 10 GB an bestimmten Stellen die Performance beeinträchtigen, während 8GB indiskutabel sind.

Und die Gerüchte zeigen ja auch, dass nvidia wohl reagieren wird.
 
bender83 schrieb:
Kompletter Unfug würde ich das nicht nennen. Die Angabe bezog sich, denke ich, auf alles maximal. Wie im Text weiter unten ja steht wird mit HDR FidelityEX LPM 11-12 GB VRAM genutzt. Er vermutet ja nur, dass dies reserviert wird und auch weniger ausreichen.
Die Vermutung scheint korrekt:
Hier mit FidelityFX LPM aktiv. Braucht nicht mehr VRAM als UWQHD ohne FidelityFX LPM in anderen Videos.
 
Zurück
Oben