• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Godfall will schon für 1080p Leistung sehen

@SavageSkull

Es ist eben nicht egal, weil die Texturen lange oder sogar dauerhaft matschig bleiben, weil der Speicher eben voll ist und das kann z.B. eine ganze Straße, Teile des Bodens, Gebäude, Autos etc. betreffen (will jetzt nicht zur Konkurrenz verlinken, aber es gibt etliche VRAM-Tests, die die Probleme schön verdeutlichen).

Natürlich wissen wir nicht, wie sich der VRAM-Verbrauch entwickelt, aber schau dir doch Benchmarks zu Marvel's Avengers, Ghost Recon Breakpoint, Control, Final Fantasy XV, Horizon Zero Dawn etc. an, da sieht man schon jetzt matschige Texturen und auch heftige Framedrops (nicht jede Engine reagiert nur mit reduzierten Details).

Ich habe auch nicht behauptet, dass es keine Möglichkeiten gibt an der Grafik zu schrauben, alles auf max. settings ist meist absoluter Overkill und kostet unnötig fps, ABER maximale Texturen kosten eben keine Leistung und je nachdem in welcher Form die Texturen vorliegen kann der Unterschied zwischen ULTRA und HIGH schon ziemlich groß (oder auch gar nicht sichtbar) ausfallen.

Ja, es bleiben (geschätzt) 4-5 GB Arbeitsspeicher auf PS5 übrig, die PS4 Pro und Xbox One konnten ca. 5 GB als VRAM nutzen, Konsolen sind eben auf Gaming zugeschnitten, das ist kaum vergleichbar mit der Situation am PC.

Und in einer Zeit als Konsolen ca. 5 GB VRAM hatten, wieviel haben Ports für den PC benötigt? Meist deutlich mehr.

Ich finde nicht, dass dem Thema eine übertriebene Bedeutung zugemessen wird, 10GB sind für eine Enthusiastenkarte einfach wenig, AMD liefert in derselben Preisklasse einfach mal 6GB mehr.
Und wenn man sich dann anschaut wie Features ala DLSS plötzlich doch nicht immer optimal sind (siehe WD:L + RTX on) und einen ohnehin winzigen Verbreitungsgrad haben, warum dann nicht die günstigere Karte mit mehr VRAM nehmen?
Wenn die Tests zu RDNA2 raus sind, weiß man endlich mehr.
 
Zuletzt bearbeitet:
Sebbi schrieb:
So also was bringt ein größerer VRAM:

  • Texturen etc. können, wenn der Speicher nicht für was anderes benötigt wird, im VRAM verbleiben
  • Dadurch muss auch weniger wieder nachgeladen werden, du hast sogesehen eine VRAM Disk
  • Das beschleunigt dein gesammtes System, da nicht erst wie daten wieder vom Datenträger geladen werden müssen und damit das BUS System etc belasten, sondern direkt angesprochen werden können
Dafür gebe ich aber sicher kein Geld aus für mehr Speicher.
Daten im Speicher zu behalten, damit man sie später nicht nachladen muß bringt mir kein besseres Bild oder bessere FPS.
Die Spielengine muß halt so schlau sein, dass sie im richtigen Moment die Daten in den Speicher lädt und nicht erst, wenn sie schon zur Darstellung gebraucht werden.
Damit genau das nicht zum Flaschenhals wird, kommt ja gerade die Funktion, dass die GPUs Direktzugriff auf die SSD bekommen und genau das ist doch das "Killerfeature" von der Playstation.
Mehr Speicher sollte dazu da sein, bessere Texturen im Speicher zu haben, damit das Bild besser wird. Einfach nur zum Datenmüll sammeln, braucht kein Mensch mehr Speicher.
Ergänzung ()

Beg1 schrieb:
Und in einer Zeit als Konsolen ca. 5 GB VRAM hatten, wieviel haben Ports für den PC benötigt? Meist deutlich mehr.
Mit exakt denselben Texturen, die die Konsole darstellt? Ich glaube nicht. Schau dir mal ein GTA5 an, was man da so alles hochstellen kann. Viele Einstellungen auf mittel sind bereits erheblich mehr, als was die Konsolen bisher darstellen
 
SavageSkull schrieb:
Damit genau das nicht zum Flaschenhals wird, kommt ja gerade die Funktion, dass die GPUs Direktzugriff auf die SSD bekommen und genau das ist doch das "Killerfeature" von der Playstation.

nennt sich DMA und das gibt es schon lange aufm PC, belastet dennoch die BUS Systeme und ist langsamer als der zugriff direkt aus dem VRAM

SavageSkull schrieb:
oder bessere FPS.

Damit disqualifizierst du dich gerade. denn genau das bringt das mitsich, denn das game ruckelt nicht weil die GPU die daten direkt aus dem schnellen Speicher laden kann und damit höhere FPS möglich ist, da die GPU mehr Zeit hat andere Frames zu berechnen und nicht erst auf den "langsamen" Datenträger warten muss.
 
Sebbi schrieb:
Damit disqualifizierst du dich gerade. denn genau das bringt das mitsich, denn das game ruckelt nicht weil die GPU die daten direkt aus dem schnellen Speicher laden kann und damit höhere FPS möglich ist, da die GPU mehr Zeit hat andere Frames zu berechnen und nicht erst auf den "langsamen" Datenträger warten muss.
lesen was ich geschrieben habe:
SavageSkull schrieb:
Die Spielengine muß halt so schlau sein, dass sie im richtigen Moment die Daten in den Speicher lädt und nicht erst, wenn sie schon zur Darstellung gebraucht werden.
Und da sind wir wieder bei dem Punkt, wo die Spieleprogrammierer ihre Arbeit machen müssen...
 
Naja, mit solchen Systemvorraussetzungen für den PC wird es immer einfacher den PC gedanklich zu verkaufen und sich ne neue Konsole dafür zu holen.

Konsole: 400-500Euro - passt 4k alles palletti.
PC: 400-500Euro GPU - 4k HAHAHA lass liegen deine Taler - mindestens 650 Straßenverkaufspreis....ohne CPU, Mainboard, RAM, Netzteil.....

Ich weiß ja nicht, aber als die XBOX360 rauskam hab ich einfach 150Euro für ne 6800 ausgegeben und hatte dieselbe Leistung im PC.
Heute soll ich "MasterRace" Premiumaufschlag zahlen und mir selber noch auf die Schulter klopfen weil ich ja so ein guter "MasterRace Moron²" bin?

Ich werde zu alt....
 
Beg1

Horizon Zero Down ca 8.8GB bzw 9,2 GB.
Grafikeinstellungen auf ULTRA bei 3440x1440
 

Anhänge

  • Horizon Zero Dawn_ Complete Edition 04.11.2020 21_53_10.png
    Horizon Zero Dawn_ Complete Edition 04.11.2020 21_53_10.png
    7,2 MB · Aufrufe: 278
  • Horizon Zero Dawn_ Complete Edition 04.11.2020 21_54_58.png
    Horizon Zero Dawn_ Complete Edition 04.11.2020 21_54_58.png
    7,9 MB · Aufrufe: 271
Zuletzt bearbeitet von einem Moderator:
Damit ich das richtig verstehe:

[...]...Ultra-HD-Texturen anbieten wird. Sie setzen laut Entwicklerstudio 12 Gigabyte Videospeicher voraus ...[...]

Es handelt sich um "used" vram, welches also aktiv genutzt wird. Und nicht um "allocated" memory, was sich das Spiel nur reserviert, weil es es sich eben reservieren kann, da die Menge vorhanden ist und das Spiel meint:"Jo, ich nehm mal 12GB, auch wenn ich nicht unbedingt die vollen 12GB brauchen werde. Aber nice to have."

Dazu empfehle ich dieses Video mal, da wird der Unterschied zwischen used und allocated (wie es MSI Afterburner anzeigt und was fälschlicherweise oft als used fehlinterpretiert wird).
Gutes Indiz, dass der vram voll ist, sind auftauchende und fühlbare Mikro-Ruckler in kurzen Intervallen.
Auch gut an fiesen frametime-Spitzen zu sehen.

Nvidia RTX 3080 vs RTX 3090: Is 10GB vRAM enough
Nvidia RTX 3080: Is 10GB Vram enough? Part II

Wie verhält es sich mit Watch Dogs: Legion. Die Engine ist ja hard im CPU-Limit, doch limitieren da die 10GB der 3080? Unter DX11 sind die frametimes deutlich schlechter als unter DX12. Warum? Hat DX12 ein anderer Speichermanagement oder wo liegt der Hase begraben?
 
DrSmile schrieb:
Konsole: 400-500Euro - passt 4k alles palletti.

Konsole: hier mal ein bewegter Grasbüschel, dort mal ein Baum, etwas Gestrüpp, vielleicht mal ein Tier
PC: ganzer Wald mit vollem animierten Gras bedeckten Boden, schön verteiltes Gestrüpp, Tiere in verschiedenen Distanzen.

Beispielgame: GTA V

Aber ja, wer sich nur für die Story ober nicht für die Umgebung etc interessiert, zahlt sich das aus. Wobei dann auch solche Klassiker wie Monkey Island oder TES II durchaus auf einen 200 € Rechner voll flüssig und stabilen 60, 120, 144 fps etc laufen.

SavageSkull schrieb:
lesen was ich geschrieben habe:

habe ich

SavageSkull schrieb:
Und da sind wir wieder bei dem Punkt, wo die Spieleprogrammierer ihre Arbeit machen müssen...

und was ändert das an meiner Aussage? wenn du entspechend viele Details einstelllst, so das die Engine nicht so hinterher kommt bzw das will aber der VRAM dafür nicht aussreicht, werden eben die FPS reduziert um die Details nachzuladen. Da kann die Engine noch so intelligent sein. Mehr VRAM, weniger nachzuladen bzw mehr Details / Texturen vorladbar während weniger anspruchsvollen Phasen -> flüssigeres Spielerlebniss = mehr fps

Kurz gesagt: kleinerer VRAM = Weniger Puffer = nicht so flüssiges Spielerlebniss = weniger fps

Möglichkeiten und mehr FPS bekommen wären weniger Details oder geringere Auflösung, sprich Reduzierung der Bildqualität.
 
Doom
The Ancient Gods

Grafikeinstellung alles auf Ultra-Alptraum

Die 3080FE ist schon ein Monster hält auch die FPS stabil, das war z.b. bei der MSI RTX 2080Super nicht so da sind dann die FPS schon Stark gefallen manchesmal.

Die Grafikqualität ist schon Enorm das sieht man auf den Bilder nicht so. Die Grafik wirklich erste Sahne kann man nur sagen.

Und das mit IPS und 144Hz dazu noch 10Bit. Man kann ihn auch auf 160Hz dann nur 8 Bit. G-Sync ganz ehrlich was will man mehr. ich finde das ist mehr als genug.

Ich bin voll Zufrieden.
 

Anhänge

  • 20201104_220129.jpg
    20201104_220129.jpg
    1,2 MB · Aufrufe: 263
  • 20201104_220133.jpg
    20201104_220133.jpg
    1,1 MB · Aufrufe: 277
  • 20201104_220142.jpg
    20201104_220142.jpg
    1 MB · Aufrufe: 284
  • 20201104_220145.jpg
    20201104_220145.jpg
    1 MB · Aufrufe: 280
Zuletzt bearbeitet von einem Moderator:
@Buck Rogers What? Welchen Moni hast du denn? 10 bit @ 144Hz! Ist ja nice!

Jetzt stelle man sich vor, weitere AAA-Spiele würden alternativ zu DX12 auch Vulkan unterstützen.
Hoffe, dass Vulkan mit dem Kauf von id Software durch Microsoft nicht völlig in die Bedeutungslosigkeit versinkt und sich weitere Studios dieser API annehmen werden.
 
Zuletzt bearbeitet:
5hred

LG34GN850-B

Also 10 Bit 144Hz, ist auch OC möglich auf 160Hz aber dann halt nur 8Bit.

Also Vukan mit Doom bei der Grafik Absolut Unschlagbar ein Traum, hab ca 160FPS bis 200FPS und das in 3440x1440p. und Grafikeinstellungen auf Albtraum.
 

Anhänge

  • 118153681_296639351627465_2063883149320972425_o.jpg
    118153681_296639351627465_2063883149320972425_o.jpg
    161,1 KB · Aufrufe: 266
  • 117218057_286361572655243_7023179035471447930_o.jpg
    117218057_286361572655243_7023179035471447930_o.jpg
    316,2 KB · Aufrufe: 263
  • 119167539_1180778062292436_378418426641912427_n.jpg
    119167539_1180778062292436_378418426641912427_n.jpg
    41,1 KB · Aufrufe: 262
  • Gefällt mir
Reaktionen: USB-Kabeljau
SavageSkull schrieb:
Auf Computerbase wird das Thema VRAM Größe eine völlig übertriebene Bedeutung zu gesprochen. Klar hätte ich weniger Bauchschmerzen wenn die 3080 zumindest 12GB gehabt hätte.


Moment CB berichtet schlicht das was Sache ist und aktuell ist Sache das wohl eine 3080 TI mit 20GB Ram ansteht. Warum wohl? Zusätzlich soll die Karte 10.496 anstatt 8.704 FP32-ALUs Einheiten haben damit sie mehr Leistung bietet weil die AMD RX 6800 XT bei gleicher Leistung zur 3080 weniger kostet aber 16Gb bietet und die RX 6900 XT ebenfalls 16GB bietet aber die Leistung der 3090 hat und dabei nur 999,- kosten soll vs. den 1499,- (wenn man sie denn dafür bekommt) der 3090.

SavageSkull schrieb:
Aber 99% der Käufer einer 3080 beklagen sich nicht, dass die Karte nicht das bringt, was sie erwarten.

Natürlich nicht weil "noch" gibt es keine Spiele die sie ohne Manuell installierte Texture Mods auslasten können.
Das wird durch die kommenden Spiele für die neuen Konsolen sich aber Schlag auf Schlag ändern. Nochmals "Godfall" ist nur das erste das es öffentlich angekündigt tut, weitere werden folgen! Soll heißen es geht nicht mehr darum ob , sondern nur noch um das wann im nächsten Jahr!

Wir sind in einem Forum hier das zu einer Hardware Webseite gehört. Wer würde hier noch einen neuen spiele PC mit 8GB Ram zusammen bauen?
Genau niemand! -> https://www.computerbase.de/forum/t...g-pc-spiele-pc-selbst-zusammenstellen.215394/
Keiner der auf CB empfohlenen Spiele PC's hat noch 8GB Ram ebenso ist 8GB VRAM das Minimum bei allen Spiele PC Empfehlungen. Sobald die AMD Karten da sein werden wird sich das bei den Modellen ab ca. 900€ auf 16Gb unweigerlich anheben!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sebbi
Wie steht du zu curved? Nur, wenn ulta-wide oder würdest du curved auch @ 27" 16:9 bevorzugen?
Ich mache teils Bildbearbeitung und da könnten die gekrümmten Linien bisschen triggern.
Mein Wunschkandidat ist, bzw. in enger Auswahl, der LG 27 4K IPS 144, den es anscheinend noch nirgends zu kaufen gibt...Bei Bedarf einfach die Auflösung in Spielen intern runterstellen auf 75% oder so und dann CAS/RIS nachschärfen, was sehr nah an die native Auflösung kommt, bei deutlich mehr FPS.
Bin noch unschlüssig ob 4k @ 27" nicht doch zu krass ist, wenn man im Desktop/Windows abhängt oder rumsurft.
Da hilft dann wohl nur noch die Windows-Skalierung...oder eben einen 32", 4k, 120/144Hz nehmen.
Die Wahl treffe ich dann 2021.
 
Fürher fande ich es Interessant Curved Heute nicht mehr so, habe ein 4k Samsung KS 9090 Hammer Bild und 10Bit aber mit Fenster im Rücken spiegelt es doch.

Der hier Spiegelt nicht zum Glück aber durch 21:9 halt mer Bild, ist aber natürlich Gewöhnungsbedürftig. Aber eingentlich finde ich 27 Zoll am besten nicht zu Gross und nicht zu klein.

Ich bevorzuge Heute lieber Flat aber den LG34 gibt es leider nicht in Flat. Ich meine die Krümmung ist auch nicht so Stark.

Ich meine der Monitor ist schon Hammer, vom Bild und Geschwindigkeit aber ich werde mir auf jeden Fall Anfan nächsten Jahres den LG 27GN950-B holen weil er auch Flat ist.

4k mit 144Hz reizt schon, kleiner zusatz er hat auch das RGB hinten.
Ja die Schrift ist wirklich sehr klein dann muss man die Windowsskalierung ändern.

Wie gesagt jetzt im nachhinein würde ich auf jeden fall Flat bevorzugen, aber als es kam auf den Markt war es natürlich Interessant sieht auch Top aus. Man ist halt mit Flat aufgewachsen vieleicht deswegen auch.
https://geizhals.de/lg-ultragear-27gn950-b-a2314824.html?hloc=de
 

Anhänge

  • LG-UltraGear_01.jpg
    LG-UltraGear_01.jpg
    498,4 KB · Aufrufe: 250
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: USB-Kabeljau und 5hred
Buck Rogers schrieb:
Die 3080FE ist schon ein Monster hält auch die FPS stabil, das war z.b. bei der MSI RTX 2080Super nicht so da sind dann die FPS schon Stark gefallen manchesmal.

Ich bin voll Zufrieden.

Meine Beispiele bezogen sich auch eher auf 8 GB VRAM (wobei in UHD teilweise auch 10 geknackt werden, bei z.B. Ghost Recon), hätte ich vielleicht anmerken sollen.

Und ich möchte auch keinem seinen Kauf schlecht machen, finde es einfach schade, dass nvidia bei einer Komponente gegeizt hat, die bereits in der Vergangenheit schon negativ aufgefallen ist.
 
LG 27GN950-B. Dito, genau mein Fall. Ujj, schon zu kaufen....
Mal schauen, ob weitere Hersteller folgen werden. Acer Predator oder die günstigeren AOC oder Acer. Die Pixeldichte muss ja gewaltig sein bei diesem Monitor. Perfekt für Spiele wo man einen Gegner aus weiter Entfernung orten möchte (PUGB, etc.) Dieser Monitor hat aber kein G-Sync-Modul drin sonder ist "nur" NVIDIA G-Sync Compatible. Ich frage mich, ob die Hersteller für den G-Sync-Sticker, der da immer groß daherkommt und schön in Szene gesetzt wird, nicht ein wenig "monetäre Unterstützung" bekommen.
Keiner wirbt für Freesync in dieser Form, was mich doch sehr verwundert. Ob Nvidia da ein Wort mitredet.

EDIT: leider kein HDMI 2.1. Somit wohl disqualifiziert, wenn man einen in Verbindung mit einer Next-Gen-Konsole nutzen möchte...
 
Zuletzt bearbeitet:
5hred schrieb:
Wie steht du zu curved? Nur, wenn ulta-wide oder würdest du curved auch @ 27" 16:9 bevorzugen?
Ich mache teils Bildbearbeitung und da könnten die gekrümmten Linien bisschen triggern.

Auch wenn die Frage an Buck war, ich gebe gerne Feedback zum LG 34GK950G, welcher ebenfalls curved ist.
Grundsätzlich empfinde ich das curved display als sehr angenehm und immersiv, vor allem in Spielen bietet es einen Mehrwert, aber auch produktive Arbeiten sind gut möglich, allerdings ist es wie du vermutest in der Bildbearbeitung etwas nervig.
Würde bei einem normalen 27 Zoll Display aber wohl nicht zu einer curved Variante greifen und selbst bei ultrawides empfinde ich es nicht als zwingend erforderlich, habe im Büro einen LG 34WK650 (2560x1080 @75 Hz) und empfinde das Display als angenehm.

In jedem Fall würde ich dir empfehlen, mal ultrawide auszuprobieren, ist wirklich eine sehr coole Erfahrung und wird von vielen Spielen unterstützt.

Die RGB-Beleuchtung direkt hinterm Bildschirm ist auch sehr praktisch.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Beg1

Ja klar kann ich nachvollziehen wie gesagt hatte nie Probleme bzw hatte mich nie damit Beschäftigt. Klar 10 oder 12Gb sind schon Top.

Spiele werden ja auch immer Anspruchsvoller, aber kommt ja auch immer drauf an welche Auflöung und wie Hoch man die Grafikeinstellung schraubt. Nicht jeder zockt ja halt in 3440x1440 oder 4k und alles auf Anschlag.

Ich meine ich ja schon etwas das die 3080 10GB hat statt 8GB. Ok die 3070 nur 8GB. Vieleicht ist das auch ne Kostenfrage von Nvidia spart wer weiss.

Na ja Nvidia halt, ich komme halt besser mit der Systemsteuerung klar. Vor 15 Jahren hatte ich auch viel ATI Karten.




Beg1

Ja stimmt schon bei 27 Zoll hast du ja halt ein kürzers Panel in dem Sinne als wie Ultrawide den da da du ja rechts und links noch was hast in dem Sinnne bzw von der Länge.

Klar gut ist es ich sage mal bei Ultrawide durch die Grösse fällt es nicht halt so auf bzw ist anders als wenn man ein 27 Zoll mit Curved hat.

Beim Spielen das erste mal hab ich es auch so Empfunden, das das Spiel bzw es ist Intensiver halt durch das Curved bzw Gebogene, weil ich auch sehr nahe am Monitor sitze ist man eben mehr mitten drinn durch die Wölbung.

Anders ist es natürlich beim TV wo man weiter weg sitzt und den Gesammten TV im Blickfeld hat. Wie gesagt sitze sehr nahe ok es ist auch Altersbedingt mit fast 51 nach 40 Jahre zocken sind die Augen halt nicht mehr so.
 
Zuletzt bearbeitet von einem Moderator:
@Buck Rogers
Klar spart nvidia am VRAM, der GDDR6X dürfte relativ teuer sein und es gibt bisher wohl nur 1GB Module, die 2GB Variante soll erst nächstes Jahr kommen.
Ist halt bei einem Enthusiastenprodukt - und das ist die xx80er Reihe - einfach schade.

Und ja, 34 Zoll ultrawide ist 27 Zoll + extra Breite, hat mir ein Dual-Monitor-Setup gespart, hatte erst überlegt auf 49 Zoll ultrawide zu gehen, aber das wäre mir dann zu mächtig geworden und sowohl Support als auch benötigte Rechenleistung sind noch einmal ein anderes Niveau.

Die schlechten Augen kenne ich leider auch, früher zu viert an einem winzigen RöhrenTV stundenlang im 4Player-Splitscreen gezockt, da hätte ich mir den heutigen Standard gewünscht, dann wären sie eventuell noch besser ;)
 
Wobei Dual-Moni-Betrieb auch seine Vorteile hat. Zum Beispiel für das Spiel Escape from Tarkov.
Als Anfänger ist man das völlig überfordert mit den Items und den Karten. Da ist es sehr vorteilhaft, mal diese Infos neben dem Spiel parat zu haben. Alternativ könnte man die Sachen auch auf einem Tablet oder einem Handy wiedergeben, nur eben in kleiner Ansicht und weniger benutzerfreundlich. Man muss viele Infos abrufen, wenn man das noch nicht verinnerlicht hat.
 
Zurück
Oben