• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Kingdom Come im Benchmark: Tolle Atmosphäre startet mit hohen GPU-Anforderungen

Pisaro schrieb:
Ähm.. das schaffen die Karten fast nie in 4K und max Details. Gibt halt noch keine “richtigen“ 4K Karten. Habe meine 1080Ti für 1440p gekauft, dafür ist die Karte perfekt.

So sieht es aus. Für 4K 60 FPS reichen die nächsten Karten gerade so bei grafisch fordernden Spielen, für 4K 144FPS (Hz) wohl erst die in 3-4 Jahren.

Aber Kingdom Come sieht relativ billig aus, verlangt aber viel. Die Bugs ziehen sich über die Technik bis zum Inhalt.
 
SKu schrieb:
Das kommende Battle Royal Spiel Hunt:Showdown

"Hunt" ist weder ein Battle Royale Spiel, noch Open World. Man sollte nicht Äpfel und Birnen vergleichen.
Ich hab Kingdom Come bislang nicht selber zu Gesicht gekriegt oder gespielt, aber was ich an bewegtem Material gesehen habe, sah wirklich sehr hübsch aus. Das kommt auf Screenshots nur halb so gut rüber.
 
jetzt mal ungeachtet des Hardware Hungers finde ich die Grafik eigentlich ziemlich stimmig. Es sollte ja kein fanatsy-Spiel wie z.B witcher 3 werden, demnach sind irgendwelche bunt quitschige Lichteffekte auch gar nicht gerne gesehen. Die Landschaften sind auch liebevoll modelliert.
 
Viel zu hardwarehungrig gemessen an der Grafikqualität.

Und AMD CPUs liegt dieses Spiel überhaupt nicht.
 
joel schrieb:
Klasse!
Da werden sich die 1070 und 1080 besitzer aber freuen!
Interessant das heutzutage Spiele produziert werden nur für HighEnd GPUs!
Da wird man wohl richtig Feiern bei der zu erwarteten Marge. :lol:

Immer diese Neider :p

Das Spiel war bei mir vollkommen unter dem Radar, ich freue mich drauf!
RPG im düsteren Mittelalter es gibt nichts besseres :)


loki4321 schrieb:
für 1080p mit High Settings reicht eine R9 280X OC vollkommen aus.
Ich bekomm mit der Grafikkarte angenehm spielbare 45-60FPS

Das ist sehr subjektiv. 60 FPS empfinde ich als sehr Grenzwertig - gerade in Egoperspektive und schnelleren Kamerabewegungen... von 45FPS ganz zu schwiegen.
 
Zuletzt bearbeitet:
StefVR schrieb:
Ich finde die Grafik extrem gelungen in dem Spiel wenns auch ausrutscher nach unten gibt. Gerade die Reflexionen auf Plattenrüstungen sind schon ein Gedicht. Allgemein ist halt der Stil nüchtern realistisch gehalten, da poppen halt Farbven und Effekte nicht so hervor.

Seh ich auch so. Was mir besonders gefällt ist das ein Spiel endlich mal Bäumen/Wälder realistisch darstellt. Sowohl von der Größe her als auch den Übergang von Wiese in den Wald rein. Sieht in anderen Spielen immer ziemlich peinlich aus wenn die Bäume im Wald von der Größe her aussehen als wenn sie frisch aus einer Baumschule kommen. Dazu hat Kingdom Come auch keine unrealistisch schwankenden Bäume als wenn die ganze Zeit Orkan herscht wie z.B bei Witcher 3.

Was leider stört sind Areale wo es danach aussieht als könnte man weiter laufen, aber eine unsichtbare Barriere hält einen davon ab. Wobei es sich da um eine Schwäche der Cryengine handelt die kein Levelstreaming wie z.B Unreal 4 (World Composition) beherrscht.
 
Zuletzt bearbeitet von einem Moderator:
Und AMD CPUs liegt dieses Spiel überhaupt nicht.


Ach... woher die Info?. Die einzigen CPU benches die ich zum Spiel kenne sehen für AMD nicht schlecht aus (auf Gamgpu).
 
Valix schrieb:
ein Armuts Zeugnis für so teure Karten wie 1080ti, RX64

keine 60Fps in 4K

Wieso? Und die Frage ist unabhängig von der Optimierung des Spiels.
Mal ganz pauschal gesagt:

1920×1080 (FHD, Full HD, 2K 1080p) = 2.073.600 Pixel = "vergangene"Grafikkartengeneration
2560×1440 (QHD, WQHD, Quad HD, 1440p) = 3.686.400 Pixel = aktuelle Grafikkartengeneration
3840×2160 (UHD, Ultra HD, 4K, 2160p) = 8.294.400 Pixel = (vielleicht die) kommende Grafikkartengeneration

Und das ist bezogen auf 60 fps+.
Wir haben eine Vervierfachung der Pixelanzahl, aber die Grafikkartengenerationen werden nicht entsprechend schneller.

Vor 2010 lag der Durchschnitt bei einer neuen High-End-Geforce im Vergleich zur vorherigen Generation demnach im Schnitt bei 70 Prozent und in manchen Fällen sogar bei 100 Prozent. Beispiele dafür sind die Geforce 6800 Ultra und die Geforce 8800 GTX.

Seit einiger Zeit gibt es mit der Ausnahme der
aber keine Steigerungen über 50 Prozent mehr und der Durchschnitt liegt seit dem Jahr 2010 bei rund 30 Prozent Mehrleistung bei einer neuen Geforce-Generation.
Quelle Gamestar
Gab einen ähnlichen Artikel auf CB (meine ich), finde aber den Link nicht.

Ich spiele in Full HD und lege Wert auf viele Bilder pro Sekunde.
Wenn "weniger" Bilder reichen dann:

Pisaro schrieb:
Ähm.. das schaffen die Karten fast nie in 4K und max Details. Gibt halt noch keine “richtigen“ 4K Karten. Habe meine 1080Ti für 1440p gekauft, dafür ist die Karte perfekt.
Gaspedal schrieb:
1080Ti ist ja auch keine Karte für 60fps/4k, das schafft der kaum ohne an Details runterzuschrauben, es sei denn man spielt alte Spiele oder Spiele ohne grafische Höchstleistungen. Die Hoffnung liegt bei 1180Ti. ;)

Und genau dafür sind die Karten brauchbar!

Grüße
 
Warum das so ist, zeigen weitere Tests: Alle AMD-Grafikkarten leiden in Kingdom Come: Deliverance, wenn die Grafikkarte nicht das eigentliche Limit der Hardware darstellt, sondern der Prozessor. Nvidia hat damit keine Probleme, AMD dagegen schon. Und offenbar verschieben die Detailstufen über dem Hoch-Preset die Last in Richtung der CPU anstatt der GPU – unter anderem mit der erhöhten Sichtweite, die mehr Drawcalls vom Prozessor verlangt.
Selten so ein Schwachsinn gelesen. Und WENN das stimmen sollte dann sollte CB mal das belegen in dem die CPU Auslastung bei den Verschiedenen Settings mit angegeben / Protokolliert wird.

Häh ? Seit wann steigt denn das "CPU"-Limit wenn ich die Details hoch drehe ?

Wenn dann ist das ein API-Limit oder was in der Art...bei PCGh derselbe Mist zu lesen.

Erklär mal jemand warum höhere Details mehr CPU-Limit sind - das war ja noch nie so ?
Kingdom-Come-Deliverance-Detailskalierung-720p-CPU--pcgh_CPU_Limit.png

Bearbeitete Grafik von PCGH: http://www.pcgameshardware.de/Kingd...cials/Benchmark-Test-Review-Gameplay-1249935/

Hier wäre mal im Vergleich wirklich die CPU-Auslastung in den jeweiligen Settings interesssant als Grafik, gesondert einmal mit nVidia und einmal mit AMD.

Irgendwie ist die Erklärung hier mit dem "CPU"-Limit nicht glaubhaft.
EDIT: Was wir sehen ist das bei ultrahohen Details die AMD Karten "wegbrechen" (also eigentlich DAS was man gemeinhin als GPU-Limit benchmarked)

Wenn hier also plötzlich ein CPU-Limit in 4K@ultra ist aber in 720p@low NICHT dann stimmt doch da was nicht ?
 
Zuletzt bearbeitet:
Kommt drauf an welche Details. Als Beispiel: Höhere Sichtweite bedeutet mehr CPU Last.
 
Mich hätte interessiert, welches AA dort aktiv ist und was es bringt dieses zu deaktivieren.
 
Warum man bei 5 möglichen Presets das mittlere Preset nicht Mittel nennt, kann mir keiner erklären, oder?

Damit auch wirklich Jeder auf "Irgendwas"-Hoch spielen kann?
 
Schade, dass in solchen Tests oft nur der neusten Hardware Beachtung geschenkt wird.

Weiß jemand, ob ich das auf einem A10-7800 zocken kann (evtl. unter Hinzunahme einer alten HD6950)?
1920x1080@30fps reichen völlig, müss nicht die höchsten Details sein...
 
Kingdom Come Deliverance skaliert auf bis zu 6 Threads, aber ein Tbread wird auch bei mir extrem stark belastet, die anderen schlafen fast.

http://www.guru3d.com/articles-page...-graphics-performance-benchmark-review,8.html

Trotzdem an manchen Stellen sehr CPU-Lastig und der Ryzen (siehe Sign.) limitiert auf WQHD und maximalen Settings an ein paar Stellen auf 40-50 FPS (bis jetzt an ein, zwei Stellen, an denen man Kilometer weit blicken kann).
 
Zuletzt bearbeitet:
Hibble schrieb:
Die CPU-Performance ist leider richtig bescheiden. Mit einem i5-3570k auf 4,8 GHz und einer Vega sind bei mir nicht mehr als 30 fps drin. Das Spiel scheint nur einen Kern auszulasten, weil dauerhaft nur ein Kern ansatzweise ausgelastet wird. Testweise mit einem Bulldozer und einer anderen AMD-Grafikkarte gabs deshalb auch keine Verbesserung, sondern eher eine Verschlechterung auf nur noch 20 - 25 fps.
Autsch. Anno 2018 ist das ein Problem, das bei einem guten Spiel eigentlich nicht mehr auftreten darf - zumindest, wenn es ordentlich CPU-Leistung braucht. Aber man sieht es leider trotzdem immer wieder.
 
Ich muss leider gestehen, dass ich von der Grafik schon arg enttäuscht bin. Dafür, dass meine 1070 auch bei FHD in Sehr Hoch schon voll ausgelastet ist (bei ~50 fps), sieht das Spiel eher aus wie vor etlichen Jahren.
Da sieht stellenweise ein ordentlich gemoddetes Skyrim (und erst Recht als SE) deutlich schöner aus. Gegen andere aktuelle Spiele kann KC:D halt echt nicht gut mithalten. Ist zumindest meine Meinung von den ersten paar Spielstunden.
 
FAT B schrieb:
Schade das immer die 1050Ti fehlt. Wieso eigentlich?

Die 1050Ti ist knapp über der 960 anzusiedeln, ist nur 5% schneller. Also hier kann man da die R9 380 als Vergleich nutzen.
 
Warum ist eigentlich die Vegetationsdarstellung bloß auf Crysis-Niveau oder sogar stellenweise etwas darunter? Sieht bonbonfarben knallegrün aus und die Büsche haben was 2-d mäßiges, sehen aus wie Tupfer.
 
Iscaran schrieb:
Häh ? Seit wann steigt denn das "CPU"-Limit wenn ich die Details hoch drehe ?

Wenn dann ist das ein API-Limit oder was in der Art...bei PCGh derselbe Mist zu lesen.

Wenn eine Detailstufe mehr bedeutet, dass z.B. ein zu zeichnendes Objekt doppelt soviele Polygone schwer ist als vorher, dann kann die Grafikkarte das womöglich eher wegstecken als die CPU. Oder wenn bei einer höheren Detailstufe mehr Objekte gezeichnet werden müssen. Also da kann die CPU schon limitieren, erst recht wenn der Renderthread eh schon einen Kern voll beansprucht. Ich vermute DX12 hätte dem Titel in dieser Hinsicht sehr gut getan.

Ein API-Limit an sich, also per Definition, ist es eher nicht, denn GeForce Karten zeigen diesen Effekt ja nicht so stark.
Wenn dann ist es eher eine Frage der Implementation der API im Treiber. Aber das ist bei AMD ja nichts neues und schon jahrelang bekannt.
 
Zurück
Oben