• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Baldur's Gate 3 im Test: 39 Grafikkarten und Asus ROG Ally im Benchmark

Läuft super unter Linux, seit Release funktioniert auch Vulkan vorher hatte nur DX11 bzw. DXVK funktioniert. :)
 
pitu schrieb:
spielt hier zufällig jemand mit einem Controller (Xbox, PS4) und kann etwas zur Spielbarkeit sagen?
Nutze einen Stadia-Controller (Xbox-Tasten) und funktioniert einwandfrei unter Linux & Windows.
Um die Steuerung intuitiv nutzen zu können, benötig(t)e ich aber (noch) eine Weile.
 
  • Gefällt mir
Reaktionen: pitu
@Wolfgang @AbstaubBaer ...

Danke für eure Ergebnisse, damit gibt es neben pcghardware & techpowerup den dritten, größer angelegten Benchmark/Test..
https://www.pcgameshardware.de/Bald...rk-Test-Review-Grafik-Ersteindruck-1425826/2/
https://www.techpowerup.com/review/baldur-s-gate-3-benchmark-test-performance-analysis/

Ich bin Besitzer einer Arc A770 und habe in BG3 bereits selbst einige Tests gemacht, mit zT. ganz anderen bzw 'besonderen' Erkenntnissen was BG3 auf Arc und Vulkan vs Dx11 betrifft..

Mir ist primär aufgefallen wie schwer es ist in bg3 konsistente und gut vergleichbare Ergebnisse zu erhalten,
besonders was aussagekräftige x % percentile / low fps average Werte bzw frame times allgemein betrifft.
Gerade bei nur 15 Sekunden der Sequenz, oder im Falle von pcgh 30(?) Sekunden,
nur mal nen Bruchteil zu früh/zu spät gestartet oder die Kamera ein paar Grad anders gedreht oder leicht raus statt rein gezoomt, und schon ist das Ergebnis merkbar anders.


je nach Szene ist es dann bei mir auf der Arc dann aber auch gelegentlich ganz anders als der allgemeine Tenor, was den Vergleich von DX11 und Vulkan betrifft...
im Endeffekt haben dort beide ihre Vor & Nachteile, "zufriedenstellend" läuft hier bei mir aber keins davon finde ich (auch was den relativen Abstand zur direkten Konkurrenz betrifft)


Vulkan läuft bei mir auf der Arc in BG3 teils schlechter als erhofft,

und DX11 'besser' als erwartet.

Ich hab dazu 3 Sequenzen verglichen,

ein Savegame direkt nach der Intro Sequenz ganz am Anfang bzw Start des Spiels genommen,
sowie das "GPU" Savegame und das "CPU" Savegame welches drüben bei euren Kollegen von PCGH zum Einsatz kam und dort zum DL zur Verfügung gestellt wird..

Um es jetzt endlich etwas kürzer zu machen :

agesehen davon dass ich vielleicht einfach was übersehen habe, falsch gemacht oder falsch interpretiert habe - es könnte ja ganz andere Gründe haben, aber:

mich lässt diese "Story" hier einfach grade nicht los:

https://www.reddit.com/r/IntelArc/comments/13ycjpf/intel_arc_owners_vulkan_resizeable_bar_check/
tl;dr - You need to have an Intel processor with integrated graphics enabled and running for ReBAR to be on in Vulkan (as it stands right now)

Der entsprechende Eintrag im IGCIT auf github:
https://github.com/IGCIT/Intel-GPU-Community-Issue-Tracker-IGCIT/issues/330

Karen-Intel :
Hey guys just a quick update. Like Arturo mentioned we have confirmed this behavior is not expected.
We are reporting it asap and will make sure to share with you when we have a fix available in a public release.
Let's keep this post open until we have news so, stay tuned and thanks for all your help!


Das könnte einiges erklären finde ich, was die Ergebnisse der eher weit abgeschlagenen Arc betrifft (die nach all der Zeit jetzt hier in BG3 erstmals hinter meinen persönlichen Erwartungen zurückbleibt, kurz nachdem sie in JA3 übetroffen wurden ;) )..

wenn unter Windows dann reBAR in Vulkan gar nicht (richtig) oder nur teilweise funktioniert sollte?
Und das für Arc ungünstige DX11 auf der anderen Seite? Naja, dann fänd ich es 'logisch' dass das erstmal nix wurde.

Kann aber natürlich auch einfach Larians Divinity-Engine an sich sein, vielleicht liegt die eben der Arc und generell den neuesten Generationen einfach (noch) nicht richtig (oder umgekehrt).

Jedenfalls hoffe ich auf Besserung, frühestens dann wenn sie FSR2 raus bringen, vielleicht gibt's aber auch noch treiber-technische Änderungen seitens Intel, wer weiß... würd es mir sehr wünschen..

PS: meine Screenshots der Benchmarkergebnisse häng ich dann später hier rein.

So, hab mal die capframex Daten rausgesucht, das hier war mein allererster Eindruck von BG3 mit ner Arc A770 & Ryzen 5600...
das waren allerdings nicht max Details, sondern zu dem Zeitpunkt custom settings, müsste ich raussuchen ob ich da nen screenshot von habe... jedenfalls hatte ich dann spätestens bei den Sequenzen/Savegames von PCGH deren Settings übernommen (die Resultate kommen später) :

DX11 Vulkan DXVK Avg 1P 02low.pngFPS RawData Start-Area.pngFPS Avg Start-Area.pngFrametimes Start Area.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Copium und Tanzmusikus
Mir fällt auf wie schlecht sich die RTX 4000er (ausgenommen die 4080 und 4090) leistungsmäßig bei UHD gegenüber ihren Vorgängern verhalten (vor allem im Vergleich zu WQHD) allen voran die 4060 Ti und die 4070 Ti.
Besonders mies die 4070 Ti bei UHD und "FPS, 1% Perzentil". Auch hier vergleiche man WQHD und UHD ...
 
Tanzmusikus schrieb:
Echt jetzt - QHD (640×360)?
Ich nehme eher an, du meinst WQHD (2560x1440). Das würde passen.
Kann aber auch 960x540 gemeint sein, denn das wird wie 640x360 auch "Quarter HD" genannt und mit QHD abgekürzt.
 
Gsonz schrieb:
Na meine lieben VRAM-Fanatiker, wo bleibt denn nun die Notwendigkeit für 16GB VRAM im Jahr 2023?
Das ein ziemlicher Strawman den du hier machst, niemand hat gesagt das 100% aller neuen Spiele 16GB Vram brauchen werden, die häufigste Kritikpunkt war imho 8GB das das nimmer genug ist und wenn du in 4k Spielen willst trifft das ja auch auf dieses Spiel zu, aber selbst wenn nicht nochmal niemand hat gesagt das alle Spiele damit nicht gehen würden.

Das neue Siedler wird sicher auch mit 6gb VRAM gut klar kommen... was soll das beweisen? Selbst bei dem Spiel outperformed die 6700XT 12GB für 340 Euro die 4060ti für 400 Euro 8GB in UHD. Und btw soweit ich das versteh hat das Game kein Raytracing, hätte das das würde überall der VRAM überlaufen, und gerade Nvidia das du ja hier implizit verteidigst wirbt doch mit Raytracing als eines der wenigen Gründe Nvidia vor zu ziehen.

Achja und das ist eines der wenigen höherwertigen Games die Primär und erst mal exklusiv für den PC entwickelt wurden ca. 95% der Games werden nicht dieses exklusive primäre tuning bekommen.
 
  • Gefällt mir
Reaktionen: Wolwend_the_Orc
pitu schrieb:
Resident Evil 4 Remake, Returnal?

p.s.: brauchst du Hilfe beim Einfügen von Links?
Remakes zähle ich nicht zu neuen Releases/Spielen......genauso wenig wie alte Spiele die halt irgendwann mal auf anderen Plattformen raus kommen.

Ich hatte nur was falsch bzw. zu viel kopiert, aber danke deiner pseudo gespielten Anteilnahme.
 
Zuletzt bearbeitet:
Gsonz schrieb:
Na meine lieben VRAM-Fanatiker, wo bleibt denn nun die Notwendigkeit für 16GB VRAM im Jahr 2023? 😝

Ein weiteres vernünftig optimiertes Spiel, so muss das sein, gefällt mir sehr gut!
Erstmal schön, dass es optimiert ist und nicht XX braucht.

Allerdings spiele ich in UHD und da wird es mit 8 ja knapp, bzw müssen mehr sein (~10GB). Da ich AMD Freund bin habe ich da aber keine Probleme in absehbarer Zeit.
 
  • Gefällt mir
Reaktionen: Wolwend_the_Orc
Sehr schön.
Wenn es wirklich so gut ist (und davon gehe ich aus 😁) und ich demnächst Mal endlich mit Divinity Original Sin 2 fertig bin, dann wird Baldurs Gate 3 angegangen. Denn schon DOS2 finde ich mega geil und auch wenn ich langsam bin und ganz entspannt das Spiel spiele bin ich hoch zufrieden.

So und Larian, jetzt da ihr mit BG3 fertig seit, wie sieht es mit einem Ego Draconis 2 aus? Das würde ich mega feiern.
 
Apocalypse schrieb:
Was ich meine ist Quad HD, QHD, vier mal HD Auflösung. ;-)
Bei der Bezeichnung "QHD" kommen mir immer 3 große Fragezeichen ??? :D

"WQHD" wäre da viel treffender für "16:9 Widescreen", was eindeutig "2560x1440" meint.
Leider gibt es international keine eindeutige Regel dafür. 🤷‍♂️

Zudem wäre dann UWQHD der nächste Schritt in die Breite zu 21:9 (ggf. auch 24:10 bzw. 32:9).

(W)QHD.png

Quelle: https://upload.wikimedia.org/wikipedia/commons/0/0c/Vector_Video_Standards8.svg
 
Ist das Spiel für einen absoluten Noob in diesem Genre überhaupt zumutbar? Frage für einen Freund ;)
 
Tanzmusikus schrieb:
Ist aber auch generell nicht sehr intuitiv, wenn 720p HD und 1080p FHD heißt, dann aber bei 1440p, die HD in beide Richtungen verdoppelt und somit den Inhalt vervierfacht, plötzlich ein W davor muss.

Warum dann nicht WHD und WFHD? Immerhin gibt es in dem Bild auch ein UWFHD, was das 21:9 Format von FHD ist. Logischerweise wäre UWQHD dann das 21:9 Format von QHD.

HD selbst ist doch schon als 16:9 Widescreen Format bekannt, da wäre es sinniger, 1440p QHD zu nennen und dann, wenn es zu 21:9 geht, WQHD zu nutzen.
Entsprechend dann auch eher WFHD statt UWFHD für 2560x1080
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus
@MujamiVice
Wenn Du die Herausforderung annimmst... immer 😉. Ein kompletter Neuling wird etwas länger benötigen, die Möglichkeiten zu erkunden. Ich würde das aber eher als Vorteil betrachten.
 
  • Gefällt mir
Reaktionen: Nefcairon, Wolwend_the_Orc, No Escape und eine weitere Person
Taxxor schrieb:
die HD in beide Richtungen verdoppelt und somit den Inhalt vervierfacht, plötzlich ein W davor muss.
Weil das reine Kürzel "QHD" früher schonmal für andere Auflösungen genutzt wurde ("Quarter HD", 640x360 odere 960x540). Das W steht bei Wikipedia ja auch in Klammern, ist also optional und "QHD" wäre formal auch korrekt. Mit dem zusätzlichen W wird es dann schlicht eindeutig, dass 1440p im Format 16:9 gemeint ist und nicht ein der beiden anderen Auflösungen.
 
mibbio schrieb:
Weil das reine Kürzel "QHD" früher schonmal für andere Auflösungen genutzt wurde ("Quarter HD", 640x360 odere 960x540).
Wenn ich danach suche, sehe ich für diese Auflösung immer nur qHD, aber nie QHD
 
MujamiVice schrieb:
Ist das Spiel für einen absoluten Noob in diesem Genre überhaupt zumutbar? Frage für einen Freund ;)
Nein, außer er hat Geduld beim Ausprobieren und ggf. auch Einlesen.
Aber das muss dein Freund letztlich selbst entscheiden, wenn er bereits 18+ ist.
 
  • Gefällt mir
Reaktionen: MujamiVice
Taxxor schrieb:
Wenn ich danach suche, sehe ich für diese Auflösung immer nur qHD, aber nie QHD
Laut der Tabelle bei Wikipedia wird das 640x360er Quarter HD mit QHD abgekürzt und für das 960x540er Quarter HD gibt es beide Schreibweisen, also kleines und großes Q.
1691604085005.png
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Taxxor schrieb:
HD selbst ist doch schon als 16:9 Widescreen Format bekannt, da wäre es sinniger, 1440p QHD zu nennen und dann, wenn es zu 21:9 geht, WQHD zu nutzen.
Entsprechend dann auch eher WFHD statt UWFHD für 2560x1080
Das liegt an den "Dinosaurier"-Auflösungen von damals: 4:3, 5:4 usw. für die guten alten Röhren-Monitore.
Widescreen 16:9 kam erst später bei den Flat-Panel (TFT) als neues Format hinzu.

@mibbio
Ich finde, das gehört mal in einen neuen Standard (damit es dann einen weiteren Standard zur zusätzlichen Verwirrung gibt). :evillol: :daumen:
 
Ca 45-50fps sollte die RX 6600 auf 1440p Ultra schaffen. Das mit FSR Q dann sicherlich ca 60fps.
Schön. :)

Aber wenn qHD 960x540 ist und QHD 640x360. Wieso ist denn WQHD 2560x1440. Total irre? Ist ja wie bei den Ammis mit Fuß und Gallonen. Andere nennen diese Auflösung 2K.
 
MujamiVice schrieb:
Ist das Spiel für einen absoluten Noob in diesem Genre überhaupt zumutbar? Frage für einen Freund ;)
Aber sicher doch, wo ist nur der Spaß daran geblieben, neue Dinge zu entdecken, "Fehler" zu machen und nicht alles vorgekaut bekommen zu müssen.
 
  • Gefällt mir
Reaktionen: pitu, fab.erg, Corpus Delicti und eine weitere Person
Zurück
Oben