• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Battlefield V verlangt nach mehr Grafikspeicher

Schön und gut, aber was hat das jetzt mit BV5 zu tun? :confused_alt:
 
guillome schrieb:
Schön und gut, aber was hat das jetzt mit BV5 zu tun? :confused_alt:

BF5 verlangt halt nicht nur einiges an Systemressourcen, sondern als weitere ,,Anforderung`` um es spielen zu können auch die Installation des Dateneschnüfflers Origin mit Adminrechten auf dem System des EA-Kunden. Wenn man dann in Zukunft aufgrund der von Origin gesammelten Daten über das eigene Verhalten von einer KI in Kategorien eingeteilt und sogar als potentieller Verbrecher abgestempelt werden kann, dann ist das Geld für neue Hardware eher nebensächlich, denn die Installation des Spiels kann einen die Freiheit, Job und Privatleben kosten, wenn alle einen für einen Verbrecher halten, weil sie den Ergebnissen einer KI glauben, die behauptet die eigene Spielenutzung würde bei Verbrechern beobachtete Muster aufweisen.

Daher halte ich mich von Spielen welche die Installation einer Spyware mit Adminrechten voraussetzen grundsätzlich fern und BF5 ist offensichtlich so ein Spiel. Das haben meine vorherigen Ausführungen mit BF5 und dessen Anforderungen zu tun.
 
Gut das man anderer Leute Meinung nicht teilen muss :evillol:

Hoffentlich bekomme ich für Unfälle in Assetto nicht bald Punkte in Flensburg. Vlt. wird ja irgend ein großer GameDev auf mich aufmerksam oder ich darf bald Gefängnisse bauen. Stadtplanung wäre vlt. auch was.

Klar nutzt EA die Daten um mir ein tolles "Spielerlebnis" geben zu können. Deine Gedankengänge gehen aber wohl ein bisschen weit. Da gibt es bestimmt ganz andere Datenkraken in den weiten des Netzes.
 
Alter Schwede dem Typen ist echt nicht mehr zu helfen :freak:

Da hat anscheinend jemand zu viel Filme geschaut. Geh am besten zurück in dein abgeschirmten Keller und bleib auch dort und laber andere Leute nicht mit deinem Gehirnschmalz voll :'D
 
Die RT-Leistung müsste in fertigen Titeln schon um 100% gesteigert werden, dass man mit einer 2070 auf Full-HD mit RT spielen kann. Das erscheint 1. ziemlich unrealistisch und 2. kaum jemand spielt mehr auf FullHD. Und die, die auf FullHD mit einer 500,- Euro teuren Graka spielen, wollen in der Regel mehr FPS.

Deshalb erscheint für mich die 2070 RTX zum RT-Spielen ziemlich unbrauchbar zu sein. RT verkommt dann nur noch zu einem Marketing-Gag. Quasi einsetzbar aber in Wahrheit hat man nichts davon außer einen netten RTX Namen.

Wenn die RT-Leistung in fertigen Titeln kaum steigen wird, ist der Einsatz sogar bei einer 2080 Ti auch in Full-HD fragwürdig. Wer zockt denn in Full-HD mit 40 FPS nur wegen ein paar zusätzlichen Spiegelungen, wenn er einen 144 hz Monitor sein eigenen nennt?

In meinen Augen ist das heutige RT eine Totgeburt, ähnlich wie ein Elektrofahrzeug mit einer Reichweite von 20 km. Quasi vorhanden aber praktisch nicht einsetzbar.

Ich warte noch eine Graka-Generation, bis ich auf RT spiele, da ich sowieso ein 4K-Display habe und auf einem 4K Display auf FullHD zu spielen, da bekomme ich ja Augenkrebs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pleasedontkill
Gottes Sohn schrieb:
Die RT-Leistung müsste in fertigen Titeln schon um 100% gesteigert werden, dass man mit einer 2070 auf Full-HD mit RT spielen kann. Das erscheint 1. ziemlich unrealistisch und
Wieso? Rays pro Pixel halbieren und dafür die Tensor cores stärker entrauschen lassen. Schon haste natürlich unter geringen Qualitätseinbußen die Kapazität verdoppelt.

Zweitens tatsächlich die Tensor cores zum Entrauschen verwenden. Hatte DICE in der Demo nicht gemacht, die sind über Shader gegangen.

Drittens das Raytracing gleichzeitig zu Berechnung der rasterisierten Szene ablaufen lassen. Und nicht dann starten, wenn die anderen Berechnungen schon durchgeführt wurden.

Und und und.... DICE hat ja selbst schon einige Möglichkeiten genannt, das alles noch zu beschleunigen.

Wart doch einfach mal ab, wie sich die Leistung entwickelt. Bis jetzt weiss doch hier niemand (wahrscheinlich nicht mal die Programmierer selbst), was die Technik leisten kann und mit welchen Tricks man dadurch Dinge beschleunigen kann.

Und wie weiter oben schon als Beispiel genannt. Schau Dir ein PS3 Spiel der ersten Stunde an und dann die Dinger, die zum Schluss auf den Markt geworfen wurden.
Gleiche Hardware aber 1000% bessere Optik.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FCK-THIS
ZeroZerp schrieb:
Zweitens tatsächlich die Tensor cores zum Entrauschen verwenden. Hatte DICE in der Demo nicht gemacht, die sind über Shader gegangen.

Im Grunde genommen eine gute Idee. Nur dann ist die Qualität der Spiegelungen ähnlich denen ohne RT. Wenige Spiegelungen bleiben übrig, die es ohne RT nicht gibt. Dann wird RT langsam sinnfrei, wenn man dafür ziemlich viel Performance einbüßt. Man kann auch den zweiten Weltkrieg schönreden, wenn man das unbedingt möchte, so wie du gerade das bei RT versucht hast.

Golem.de hat das mal verglichen, Szenen mit und ohne RT. Ich konnte kaum einen Unterschied erkennen.
 
Gottes Sohn schrieb:
Im Grunde genommen eine gute Idee. Nur dann ist die Qualität der Spiegelungen ähnlich denen ohne RT.
Der Witz der Tensor cores ist ja, dass sie ein Scaling einer niedrigeren Auflösung fast ohne Qualitätsverlust nach oben ziehen kann.

Zwischen den korrekt (auch im Winkel, in der Tiefe und auch außerhalb des Screenspaces) berechneten Spiegelungen und den Fake- Spiegelungen besteht dennoch ein großer unterschied, da alle Shader- Effekte im Spiegel sichtbar sind und nicht nur ein par vordefinierte Objekte.

Man muss sich da in seiner Argumentation auch mal entscheiden. Es heisst ja hier immer grundsätzlich, dass man bei schnellen Shootern sowieso auf Dinge wie z.B. Spiegelungen nicht achten würde.
Andererseits sollte es dann aber plötzlich ins Auge stechen, wenn diese minimal niedriger aufgelöst sind, als die voll berechneten RTX Spiegelungen?

Das widerspricht sich doch heftig. Zudem werden die üblichen Screenspace- Reflections onehin auch mit deutlich geringerer Auflösung bzw. Strahlentiefe generiert werden, weil es zu viel Leistung schluckt. Zudem produzieren sie am laufenden Band Grafikfehler.

Wenige Spiegelungen bleiben übrig, die es ohne RT nicht gibt.
Ohne RT funktioniert eben eine ganze Menge an Spiegelung nicht.

Ziel sollte es ja eigentlich sein, die für die Shader "teuren" Effekte auf die RT und Tensor- Cores auszulagern um sowohl mehr Geschwindigkeit, als auch bessere Renderqualität zu erzielen, weil dadurch Kapazität für die Shader frei wird.

Dann wird RT langsam sinnfrei, wenn man dafür ziemlich viel Performance einbüßt. Man kann auch den zweiten Weltkrieg schönreden, wenn man das unbedingt möchte, so wie du gerade das bei RT versucht hast.
Was hier viele nicht verstehen ist, dass in den Engines bereits viele auf RT basierende Effekte verwendet werden, die Shaderleistung zum Frühstück verspeisen. Sämtliche Formen von Screenspace- Reflections, realtime cubemapping, Ambient Occlusion, voxel traced GI, Light Probing und und und...

Das sind die Dinge, die RICHTIG auf die Shader gehen und diese kann man jetzt unter dem eklatanten Zugewinn an Qualität auf andere Rechenwerke auslagern.

Golem.de hat das mal verglichen, Szenen mit und ohne RT. Ich konnte kaum einen Unterschied erkennen.
Dann ist die Grafikqualität für Dich ab jetzt an der Spitze der Fahnenstange angekommen, wenn Du keinen Unterschied erkennen kannst.
Es ist aussichtslos, diese Grafikqualität mit normaler Rasterisierung erreichen zu wollen. Da müsste man so viel faken bzw. unter größten Performanceeinbußen so komplexe Shader wirken, dass man das durch RTX eben auch gleich raytracen kann.

Wie gesagt- Wenn Du da keine Unterschiede bezüglich der Grafikqualität zu den "üblichen" Spielen erkennen kannst, dann ist für Dich bereits jetzt der Grad des Photorealismus erreicht. Ist ja in Ordnung.

Mich stört aber in den Spielen heutzutage noch die platte Beleuchtung, das qualitativ schlechte AO (das wenn es besser gemacht wird wie bei VXAO dann auch wieder die Performance tötet), die unrealistischen Schatten und die gefaketen Spiegelungen.

Insofern- Es ist in Ordnung, wenn der normalo keinen höheren Anspruch mehr an die Grafik stellt und zufrieden mit Status jetzt ist. Für den ist dann ne 1080TI das höchste der Gefühle.

Mich stören oben erwähnte Tricks oft und reissen mich aus dem Spielgeschehen raus (z.B. wenn man in Fallout 4 in einer Wasserflasche einen gespiegelten Himmel sieht, obwohl man sich in einem Gebäude befindet...)

Die immer gleich dunklen Schatten in Gebäuden, obwohl sich teilweise mehrere Schatten überlappen. Das sind alles Atmosphärenkiller. Gäbe es in Szenen im Innebereich kein AO, dann sähe es so aus, als ob es garkeine Schatten gäbe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FCK-THIS
ZeroZerp schrieb:
Wieso? Rays pro Pixel halbieren und dafür die Tensor cores stärker entrauschen lassen. Schon haste natürlich unter geringen Qualitätseinbußen die Kapazität verdoppelt.

Zweitens tatsächlich die Tensor cores zum Entrauschen verwenden. Hatte DICE in der Demo nicht gemacht, die sind über Shader gegangen.

Drittens das Raytracing gleichzeitig zu Berechnung der rasterisierten Szene ablaufen lassen. Und nicht dann starten, wenn die anderen Berechnungen schon durchgeführt wurden.

Und und und.... DICE hat ja selbst schon einige Möglichkeiten genannt, das alles noch zu beschleunigen.

Wart doch einfach mal ab, wie sich die Leistung entwickelt. Bis jetzt weiss doch hier niemand (wahrscheinlich nicht mal die Programmierer selbst), was die Technik leisten kann und mit welchen Tricks man dadurch Dinge beschleunigen kann.

Und wie weiter oben schon als Beispiel genannt. Schau Dir ein PS3 Spiel der ersten Stunde an und dann die Dinger, die zum Schluss auf den Markt geworfen wurden.
Gleiche Hardware aber 1000% bessere Optik.

Grüße
Zero

Hört sich tatsächlich sehr interessant an falls Dice tatsächlich viel viel viel vielmehr raus holen kann als sie es bis jetzt gezeigt haben.
Wir sind uns einig, Raytracing ist wahrscheinlich die Zukunft.

Aber ich stimme zu, 100% Performanceschub ist schlichtweg nicht erreichbar! Das will ich sehen und ich nehme das Statement mit gebäugtem Haupt zurück.

ps: von wegen StarCitizen war am Anfang nur 15-30fps ...die sind schon seit Jahren dran haben schon 5 oder 6 mal Open-Probespiel gehabt und es läuft immernoch einfach nur BESCHISSEN!

Battlefield hat jetzt 2Monate bekommen seit der Presentation reicht das?
 
Chillaholic schrieb:
Mehr als 4GB Videospeicher braucht kein Men... Oh... ;)

Wer soll das jemals behaupet haben?
Selbstverständlich braucht man mehr bei Auflösungen wie UWQHD und 4K oder einfach nur Ausnahmen mit schlecht komprimierten Texturen.

Dafür fehlt Grafikkarten mit unter 4GB VRAM aber sowieso in fast allen Fällen die Leistung, also weshalb immer die sinnlose Diskussion über fehlenden VRAM in der Mittelklasse, die für mehr als max. 1440P sowieso nicht geeignet ist?

Für 1080P und sogar 1440P sind 4GB selbst bei anspruchsvollen Spielen wie Battlefield V bei Ultra Settings ausreichend:

„VRAM usage wasn’t that extreme, with a GTX 1080 Ti we saw just 3.4 GB’s allocated at 1080p and and about 3.8 GB’s at 1440p, this explains why the 3GB 1060 did so well at 1080p.“

https://www.techspot.com/review/1692-battlefield-5-beta-gpu-performance/

Sprich bei einer Grafikkarte mit 11GB VRAM wurden bei 1440P und Ultra Settings gerade einmal 3,8GB belegt ...

Und nein, die Release Version wird nicht wenige Wochen später das Doppelte an VRAM benötigen.

Ich verstehe nicht was CB hier interpretiert hat. Es wurden lediglich die empfohlenen Grafikkarten geändert ohne dabei auf den VRAM direkt eingegangen zu sein. Es wird lediglich die Leistung einer RX580 oder einer GTX1060 empfohlen, nicht der VRAM ...

Manchmal sollte man sich vielleicht einfach selbst genauer informieren, bevor man alles glaubt, was CB usw. von sich geben.

supermanlovers schrieb:
Zum Glück habe ich statt der 2080 eine 1080 Ti gekauft.

Schau mal weiter oben in diesem Beitrag.

Zum Glück macht das bei 3,8GB VRAM Nutzung @1440P einen großen Unterschied wie groß dein Puffer ist ... selbst für 4K wären die 8GB der RTX 2080 ausreichend gewesen. Wobei für 4K eine RTX 2080 Ti wohl angebrachter wäre.
Ergänzung ()

PTS schrieb:
auf low settings??^^

Die GTX 1060 3GB schafft laut Techspot 67 FPS @1080p und Ultra Settings, weshalb sollte eine GTX970 für 1080p@60Hz nicht ausreichend sein?
Ergänzung ()

Gottes Sohn schrieb:
und 2. kaum jemand spielt mehr auf FullHD..

Wer sagt das? Du?

Laut Steam ist Full HD mit über 64% die am meisten genutzte Auflösung:

https://store.steampowered.com/hwsurvey/Steam-Hardware-Software-Survey-Welcome-to-Steam
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wei3nicht_T und Leonthepro
Pleasedontkill schrieb:
ps: von wegen StarCitizen war am Anfang nur 15-30fps ...die sind schon seit Jahren dran haben schon 5 oder 6 mal Open-Probespiel gehabt und es läuft immernoch einfach nur BESCHISSEN!

Also bei mir lief das am Anfang 1080p mit zwischen 5 und 40 FPS und jetzt läufts bei mir auf 60FPS mit sporadisch auftretenden Rucklern, wo es dann aber wirklich nur für ein Augenzwinkern auf 30 FPS fällt.

Es ist meines Erachtens deutlich besser geworden. Nicht perfekt, aber deutlich besser.

Battlefield hat jetzt 2Monate bekommen seit der Presentation reicht das?
Um das volle Potenzial von RT und Tensor cores auszuschöpfen sicherlich nicht.

Ich sehe da eine eher eine Entwicklung wie bei den unified shadern auf uns zukommen, wo kreative Programmierer einfach immer wieder die Grenzen des Möglichen durch kreative Programmierung gesprengt haben.
Kein Mensch konnte sich damals ausmalen, zu was man die Shader alles treiben kann und vor allem mit welchen Beschleunigungsmöglichkeiten.

Ich gehe davon aus, dass die RT cores und tensor cores in kurzer Zeit eben genau nicht nur ihren eigentlichen Zweck erfüllen, sondern zu allerlei sonstigen Dingen misbraucht werden (vielleicht auch um die Performance in Raster- Only Spielen zu steigern).

Die neue Hardwarekombination ist noch sehr jung und zu früh, weil ohne Software, die Nutzen daraus zieht, auf den Markt gekommen.

Da muss man schon ein wenig Geduld beweisen, denke ich.

Grüße
Zero
 
@PTS: hab jetzt nicht die FPS gezählt sondern subjektiv das Spiel als flüssig und schön in 1080p wahrgenommen. Wer die Grafikregler eines Spiels bedienen kann, braucht nicht stets die neueste Grakageneration und kann somit sogar Geld sparen ;)
 
ZeroZerp schrieb:
Ohne RT funktioniert eben eine ganze Menge an Spiegelung nicht.

Golem hat das mal in einem Video veranschaulicht. Ich war verwundert darüber, dass viele Spiegelungen trotzdem da waren, die ich ohne RT nicht erwartet hätte.

Da kam mir der Gedanke: "Die Anhebung von Realismus durch RT hält sich erstaunlicher Weise ziemlich in Grenzen. Lieber zocke ich ohne RT und dafür konsequent bei über 60 FPS."

Hier das Video. Mit einer 2080 TI und einer 1080 TI. Ich sehe kaum einen Unterschied. Ihr?

https://video.golem.de/software-ent...tracing-demo-rtx-2080-ti-vs.-gtx-1080-ti.html

RT im Vergleich.jpg
 
Zuletzt bearbeitet:
Gottes Sohn schrieb:
Da kam mir der Gedanke: "Die Anhebung von Realismus durch RT hält sich erstaunlicher Weise ziemlich in Grenzen. Lieber zocke ich ohne RT und dafür konsequent bei über 60 FPS."

Oder eben mit 120 FPS um auch mal 144Hz sinnvoll zu nutzen.. Was soll ich auch in einem Multiplayershooter mit so wenig FPS, da gehts doch um die maximale FPS
 
  • Gefällt mir
Reaktionen: Gottes Sohn
Gottes Sohn schrieb:
Golem hat das mal in einem Video veranschaulicht. Ich war verwundert darüber, dass viele Spiegelungen trotzdem da waren, die ich ohne RT nicht erwartet hätte.

Da kam mir der Gedanke: "Die Anhebung von Realismus durch RT hält sich erstaunlicher Weise ziemlich in Grenzen. Lieber zocke ich ohne RT und dafür konsequent bei über 60 FPS."

Hier das Video. Mit einer 2080 TI und einer 1080 TI. Ich sehe kaum einen Unterschied. Ihr?

https://video.golem.de/software-ent...tracing-demo-rtx-2080-ti-vs.-gtx-1080-ti.html

Anhang anzeigen 722078
Wieso sollte es denn einen Unterschied geben?
Gibt ja bei der Star Wars Demo (hab ich untern verlinkt) auch keinen.

Nur dass bei entsprechenden Demos die RTX Karten 10x schneller rechnen.
Hier nutzt ja bereits jeder in seinen AAA Spielen Raytracing Techniken. Wieso sollte die denn anders aussehen?
Ich kann auch auf den normalen Shadern Raytracing berechnen und einen Denoiser überstülpen.

Nur können die das einfach nur in einem Bruchteil der Geschwindigkeit einer RTX Karte.
Die neuen Karten sind unter anderem dazu da, genau die Bereiche in denen Shader versagen oder brutal einbrechen in Zukunft zu BESCHLEUNIGEN!
Nicht langsamer machen, nein. Die RT und Tensor Cores sind Beschleuniger diverser Berechnungen.

4k! Star Wars Demo:
https://video.golem.de/audio-video/...tracing-demo-rtx-2080-ti-vs.-gtx-1080-ti.html

Ich habe echt das Gefühl, dass hier die wenigsten verstanden haben, was RTX bzw. DXR machen bzw. wozu man RT oder Tensor- Cores benutzt.

Du brauchst eben für derartigen Speed keine 60.000$ mehr dafür hinzulegen:
https://arstechnica.com/gaming/2018...just-how-great-real-time-raytracing-can-look/
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Nur dass bei entsprechenden Demos die RTX Karten 10x schneller rechnen.

Dann müsste es doch der Logik nach mit eingeschaltetem RT deutlich mehr FPS und nicht deutlich weniger geben?
 
Gottes Sohn schrieb:
Dann müsste es doch der Logik nach mit eingeschaltetem RT deutlich mehr FPS und nicht deutlich weniger geben?
Genau so ist es!

Nur haben nach alldem, was bisher bekannt ist, die Programmierer die Demos, die bezüglich RTX gezeigt wurden eben nicht unter Einbeziehung der technischen Fähigkeiten programmiert, weil das in den zwei Wochen, in denen Sie die Karten in ihren Fingern hatten, einfach nicht möglich war.

Deshalb haben sie das Raytracing ON TOP zu den "normalen" Berechnungen einfach nachgeschalten.
So ist das aber nicht gedacht... Siehe Interview von DICE zu Battlefield 5:

Right now, the RT cores start their work after the rasterisation of the g-buffer has already occurred. If the RT cores were to be working in parallel with the rasterisation of the g-buffer as soon as rendering gets started, they would see much greater performance overall due to them working asynchronously, instead of the RT cores having to idle and wait

Sprich die RT Cores arbeiten in der Zeit der Rasterisierung des G- Buffers nicht!
Also quasi die meiste Zeit über, obwohl das parallel ablaufen müsste.

Grüße
Zero
 
ZeroZerp schrieb:
Genau so ist es!

Nur haben nach alldem, was bisher bekannt ist, die Programmierer die Demos, die bezüglich RTX gezeigt wurden eben nicht unter Einbeziehung der technischen Fähigkeiten programmiert, weil das in den zwei Wochen, in denen Sie die Karten in ihren Fingern hatten, einfach nicht möglich war.

Deshalb haben sie das Raytracing ON TOP zu den "normalen" Berechnungen einfach draufgepflanzt.
So ist das aber nicht gedacht... Siehe Interview von DICE zu Battlefield 5:



Sprich die RT Cores arbeiten in der Zeit der Rasterisierung des G- Buffers nicht! Also quasi die meiste Zeit über, obwohl das parallel ablaufen müsste.

Grüße
Zero

Was du sagst, macht Sinn. Ich lasse mich gerne belehren. Danke für die Mühe.

Fazit: Dann können wir alle gespannt sein, was die Zukunft bringt und ob du mit deiner Meinung bezogen auf die RT-Technologie tatsächlich recht hast.
 
Gottes Sohn schrieb:
Was du sagst, macht Sinn. Ich lasse mich gerne belehren. Danke für die Mühe.
Deswegen sag ich ja- Dass die eine an sich gelungene Technik völlig verfrüht und falsch vermaktet haben.
Da hat nVIDIA einen riesen Mist gebaut.

Der erste Eindruck zählt nunmal und der ist mit den dahingepfuschten Demos komplett dahin...
Es ist doch völlig klar, dass die Performance ein entscheidender Faktor der neuen Karten werden würde.
Und da haben sie MAXIMAL versagt, die Leistung in den richtigen Kontext zu setzen.

p.S. Ich hab meinen vorhergehenden Post mal noch um ein Zitat von DICE selbst dazu ergänzt, wo sie das klar herausstellen, dass sie die Berechnungen "noch" nicht parallel haben laufen lassen.
 
Zurück
Oben